• Matéria: Geografia
  • Autor: 12gmail
  • Perguntado 8 anos atrás

é correto afirmar que o Brasil é um país predominamente tropical?explique.

Respostas

respondido por: brunahullm
9
sim, pois observando o Brasil em um todo vemos que tanto no norte, sul, centro-oeste e etc, o clima predominante é o tropical .
respondido por: DiegPALI
2
sim,Por mais que ele seja cortado pela linha do equador a proporcao maior de seu território esta mais proximo ao Tropico de capricornio . Aproximadamente na metade do seu territorio se encontra sobre a área do tropico de capricórnio, logo ele e predominantemente Tropical.
Perguntas similares