é correto afirmar que o brasil é um país predominantemente tropical explique? alquem sabe falar disso?! :]
Respostas
respondido por:
1
Sim, o Brasil é, a maior parte do brasil é tropical!
respondido por:
0
Sim, pois a referência tropical é referente a tudo que esteja entre o trópico de câncer, que fica no hemisfério norte, e o trópico de caprícornio, que está no hemisfério sul. O nosso país tem mais de 90% de seu território entre os dois trópicos, então é considerado tropical.
Perguntas similares
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás