• Matéria: Geografia
  • Autor: nerdzinha444
  • Perguntado 8 anos atrás

é o correto afirmar que o Brasil é um país predominante tropical? Explique.

Respostas

respondido por: BoxingPathfinder
0
Podemos dizer que ele é um país tropical porque o clima predominante nele é o clima tropical.
Perguntas similares