• Matéria: Geografia
  • Autor: MENGONANDO
  • Perguntado 9 anos atrás

è correto afirmar que o brasil è um pais predominante tropical?

Respostas

respondido por: NerdFB
29
Simmmmmmmmmmmmm. Podemos afirmar que o Brasil é um país tropical porque a maior parte do seu território se localiza entre a Linha do Equador e o Trópico de Capricórnio, ou seja, em faixas climáticas tropicais!!!!

#MarqueComoMelhorResposta

respondido por: Addysonsilva
6
Sim,pois o clima na maioria do país é quente
Perguntas similares