• Matéria: Geografia
  • Autor: joaopaulobarbosafeli
  • Perguntado 3 anos atrás

E correto afirmar que o Brasil é um país predomina mente tropical?

Respostas

respondido por: felipenetofcfelipene
0

Resposta:

sim pois o Brasil qm descobrio foram os índios.

Explicação:

bons estudos<3

Perguntas similares