• Matéria: Geografia
  • Autor: carolinerocha9075
  • Perguntado 3 anos atrás

E correto afirmar que o Brasil e um país predominantemente tropical?explique

Respostas

respondido por: protectorofthekernel
1

Resposta:

Sim.

Sendo a região tropical do planeta aquela que fica entre o Trópico de Câncer e de Capricórnio, com auxílio de um mapa, vemos que a grande maioria do território brasileiro se encontra ali.

Explicação:

Perguntas similares