Respostas
respondido por:
1
Resposta:
Alguns estudos, como o feito pela Universidade de Exeter (Inglaterra), afirmam que viver em região de litoral ajuda a melhorar a saúde das pessoas. O ambiente de praia é propício à prática de exercícios físicos, e esse hábito faz muito bem à saúde. Quem não se sente animado e feliz após uma bela caminhada ou pedalada à beira-mar?
Mahinakkkkjj:
obgddd
Perguntas similares
3 anos atrás
3 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás