• Matéria: Geografia
  • Autor: glauciamaria8464
  • Perguntado 8 anos atrás

é correto afirmar que o brasil é um país predominantemente tropical explique? me ajudeeem por favor!

Respostas

respondido por: Jamillydaniely
0
Sim, podemos afirmar que o Brasil é um país tropical porque a maior parte do seu território se localiza entre a Linha do Equador e o Trópico de Capricórnio.
Perguntas similares