• Matéria: Geografia
  • Autor: duarterose9127
  • Perguntado 8 anos atrás

é correto afirmar que o brasil é um país predominantemente tropical explique? alquem sabe falar disso?! :]

Respostas

respondido por: thyago14vkp4u5og
1
Sim, o Brasil é, a maior parte do brasil é tropical!
respondido por: jg387329p53lef
0
Sim, pois a referência tropical é referente a tudo que esteja entre o trópico de câncer, que fica no hemisfério norte, e o trópico de caprícornio, que está no hemisfério sul.                                                                                                                                                  O nosso país tem mais de 90% de seu território entre os dois trópicos, então é considerado tropical.
Perguntas similares