• Matéria: Português
  • Autor: raisssasilva123456
  • Perguntado 8 anos atrás

E correto afirmar que o Brasil É um país predominantemente tropical

Respostas

respondido por: Rottweriler
32
Sim, pois o Brasil está entre os tropicos de cancer e capricornio.
respondido por: hianakelle123
0

Sim, pois o Brasil está entre os tropicos de cancer e capricornio.

Perguntas similares