• Matéria: Geografia
  • Autor: Araujo3456
  • Perguntado 8 anos atrás

É correto afirmar que o Brasil é um país predominante tropical? Explique.

Respostas

respondido por: fafatkmas
5
Sim, já que a maior parte do seu território se apresenta perto de trópicos (Equador - norte e nordeste/Capricórnio - CO, sul e sudeste).
Perguntas similares