• Matéria: Geografia
  • Autor: AndressaResende1
  • Perguntado 9 anos atrás

É correto afirmar que o Brasil é um país predominantemente tropical?Explique

Respostas

respondido por: Gabx710
1
 Não pois o Brasil também tem climas Equatoriais, Semi - árido, Subtropical, Tropical litorâneo e tropical de altitude então é correto afirmar que as zonas mudam de acordo com a localização.

Espero ter ajudado ! :^)



Perguntas similares