• Matéria: Geografia
  • Autor: ingridindi
  • Perguntado 9 anos atrás

É correto afirmar que o Brasil é um país predominante tropical ? Explique

Respostas

respondido por: kailarocha
1
Sim ... pois é um País de clima diferente pois com estações do ano bem dividida 
...
respondido por: heloisabmendes
1
Sim, porque maior parte de sua extensão está na área tropical
Perguntas similares