• Matéria: Geografia
  • Autor: juliansempre2254
  • Perguntado 8 anos atrás

é correto afirmar que o brasil é um país predominante tropical explique? me ajudeeem por favor!

Respostas

respondido por: luizaugustosilv1
6
o Brasil é considerado um país tropical por dois motivos, mas antes de expô-los vou lhe explicar as expressões "trópico" e "tropical". 
Os trópicos são paralelos situados entre 23º 27' de latitude norte e 23º 27' de latitude sul. O Trópico de Câncer está ao norte do Equador, e o Trópico de Capricórnio ao sul. 
A expressão "tropical" remete a aos trópicos ou a todo o tipo de evento que ocorra entre os trópicos de Câncer (hemisfério Norte) e Capricórnio (hemisfério Sul). A expressão ‘’Tropical’’ também costuma ser usada para designar o conjunto de países subdesenvolvidos, ou seja, de economia atrasada ou estagnada. 
O Brasil se encaixa nos dois casos, pois é tropical porque mais de 90% de suas terras se encontram entre os trópicos de Câncer e Capricórnio; e também é tropical por compor o grupo dos antigos países subdesenvolvidos, hoje em desenvolvimento. 
Perguntas similares