• Matéria: Geografia
  • Autor: kaueback09
  • Perguntado 7 anos atrás

o brasil sempre foi um pais predominalmente tropical

Respostas

respondido por: maahnunes000
2

Resposta:

Sim, mas qual é pergunta????

Explicação:


kaueback09: a pergunta éra só isso mesmo
maahnunes000: AA okay, então é *sim*, o Brasil sempre foi um país tropical (lembre-se da música "Moro em um país tropical...)
respondido por: pessoaaleatoria7777
0
Sim, por causa das suas florestas e mares
Perguntas similares