• Matéria: Geografia
  • Autor: kelvhynwemdrellproco
  • Perguntado 3 anos atrás

é correto afirmar que o Brasil é um país predominantemente tropical explique​

Respostas

respondido por: GnomaFarejadora
0

Resposta:

correto, pois a maior parte do país encontra-se em uma zona intertropical.

Perguntas similares