• Matéria: Geografia
  • Autor: elainenepsi
  • Perguntado 8 anos atrás

é correto afirmar que o Brasil é um país predominante Tropical explique

Respostas

respondido por: aninha1590
2
Sim pois observando o país em um todo vemos que tanto no Norte,Sul e centro-oeste... o clima é predominantemente tropical! 

Perguntas similares