• Matéria: Geografia
  • Autor: juliiafreiitas2712
  • Perguntado 7 anos atrás

é correto afirmar que o Brasil é um país predominantemente tropical? Explique

Respostas

respondido por: bergerio
2

Resposta:

sim

Explicação:

pois a maioria do territorio brasileiro apresenta-se entre os trópicos de capricórnio e o trópico de câncer.

Perguntas similares