• Matéria: História
  • Autor: danyelle880
  • Perguntado 4 anos atrás

é correto afirmar que o Brasil é um país predominante tropical​

Respostas

respondido por: alvarovalenca23
1

Resposta:

Sim, podemos afirmar que o Brasil é um país tropical porque a maior parte do seu território se localiza entre a Linha do Equador e o Trópico de Capricórnio.

Explicação:

respondido por: diasclaudia8455
0

Resposta:

Explicação:

Desculpa peçio de pontos

Perguntas similares