• Matéria: Geografia
  • Autor: Jujubihs
  • Perguntado 9 anos atrás

É correto afirma que o Brasil é um país predominantemente tropical?Explique

Respostas

respondido por: catteteneto
8
sim pois quase todo o brasil e tropicas devido as praias e florestas

respondido por: camilarvn
9
Sim 
O Brasil tem um grande índice de Estados tropicais .

Perguntas similares