• Matéria: Geografia
  • Autor: lainaguerra
  • Perguntado 9 anos atrás

É correto afirmar que o Brasil é um país predominantemente tropical? Explique.

Respostas

respondido por: jujuba92
2
a maior parte de seu território está na zona tropical e uma pequena parte na zona Temperads.Então predominantemente sim
Perguntas similares