• Matéria: Geografia
  • Autor: vitoria5578
  • Perguntado 7 anos atrás

e correto afirmar que o brasil é um país predominante tropical?​

Respostas

respondido por: batistinhatiradentes
4

Resposta:

sim, pois mesmo que o Brasil possua mais de um clima, o predominante na maioria do território brasileiro é o tropical pois ocupa a maior parte

Explicação:

Perguntas similares