• Matéria: História
  • Autor: RichardAprendiz
  • Perguntado 7 anos atrás

os indios descobriam o brasil?

Respostas

respondido por: pendletontwist
1
Não só os índios, mais desde o iníciodo continente brasileiro sempre existiram seres humanos lá como hominídeos, homem das cavernas... a prova disso é o crânio de Luzia a primeira mulher do Brasil.

RichardAprendiz: vlw nao sabia isso
Perguntas similares