• Matéria: História
  • Autor: juliasouzzasanttos
  • Perguntado 4 anos atrás

os indios foram os primeiros donos das terras do brasil ou da africa​

Respostas

respondido por: isadoraoliveirabts28
0

Resposta:

do Brasil

Explicação:

África sério isso???


jucleannogueiro: brasil
yanvinicius319: Brasil
Perguntas similares