• Matéria: Geografia
  • Autor: anapaulaVeiga
  • Perguntado 8 anos atrás

E correto afirmar que o Brasil é um país predominante tropical

Respostas

respondido por: amandamfabbrop54pl9
6
Sim a maior parte do continente brasileiro é de clima tropical
respondido por: Anônimo
2
Sim Pois Somente No Sul O Clima é Subtropical
Perguntas similares