• Matéria: Geografia
  • Autor: ryan5956
  • Perguntado 8 anos atrás

É correto afirmar que o Brasil é um país predominante tropical? Por Que ?

Respostas

respondido por: renanmiguel1495
13

Sim, podemos afirmar que o Brasil é um país tropical porque a maior parte do seu território se localiza entre a Linha do Equador e o Trópico de Capricórnio.


ryan5956: brigado
renanmiguel1495: De nada
Perguntas similares