• Matéria: Geografia
  • Autor: IaraSilva11
  • Perguntado 9 anos atrás

É correto afirmar que o Brasil é um país predominante tropical ? Explique.

Respostas

respondido por: Bru94
3
Sim, porque mais de 90% das suas terras se encontram entre os trópicos de câncer e capricórnio. 
Perguntas similares