• Matéria: Biologia
  • Autor: ceciliaburegio
  • Perguntado 3 anos atrás

O verão e a sua relação com a sociedade brasileira.​

Respostas

respondido por: Alicematosira
1

Resposta:

Sabemos que aqui no Brasil o verão é muito importante para a sociedade, pois é nessa estação do ano que os brasileiro mais vão para as praias, mas é nessa época que temos que ter bastante cuidado com os raios UV na nossa pele.

Explicação:

Perguntas similares