• Matéria: Geografia
  • Autor: andersonlima5845
  • Perguntado 8 anos atrás

é correto afirmar que o brasil é um pais predominantemente tropical? alguém sabe? por favor ;)

Respostas

respondido por: sarahlemesferr
0
sim, pois observando o Brasil em um todo vemos que tanto no norte, sul, centro-oeste e etc, o clima predominante é o tropical
Perguntas similares