• Matéria: Geografia
  • Autor: guilheme10
  • Perguntado 8 anos atrás

o que faz do Brasil um país predominante tropical

Respostas

respondido por: JOAOBRASILLLL
1
O Brasil pode ser considerado um país tropical. A referência tropical é referente a tudo o que esteja entre o Trópico de Câncer, que fica no hemisfério norte, e o Trópico de Capricórnio, que fica no hemisfério sul.
Como o nosso país tem mais de 90% de seu território entre os dois trópicos,é considerado tropical.
Ainda, o termo país tropical também é empregado para fazer referência aos países subdesenvolvidos ou em desenvolvimento.O Brasil também se enquadra nessa concepção.
Assim, ambos os motivos enquadram o nosso país como um “país tropical”.
Perguntas similares