• Matéria: Geografia
  • Autor: victoralmeida6273
  • Perguntado 8 anos atrás

O correto afirmar que o brasil é um pais predominantemente tropical? Explique

Respostas

respondido por: Henrique8000
14
E tropical por conta das nossas praia que temos .
Perguntas similares