• Matéria: Geografia
  • Autor: ericvbm
  • Perguntado 8 anos atrás

é correto afirmar que o Brasil é um país predominante tropical ?explique.

Respostas

respondido por: EmillyCraft4
2
não porquê a uma parte do Brasil é tropical e uma parte pequena é temperada então podemos afirmar que o Brasil é mais ou menos tropical
respondido por: limapeca123
3
Sim , pois a parte mais iluminada do globo terrestre é o Brasil ou seja a maior parte do território brasileiro localiza-se na zona tropical
Perguntas similares