• Matéria: Geografia
  • Autor: lalapepe2012
  • Perguntado 9 anos atrás

é correto afirmar que o brasil é um país predominantemente tropical?explique.

Respostas

respondido por: djanescosta
5
Sim,pois é um país com altas temperaturas no verão e possui muitas prais
Perguntas similares