• Matéria: História
  • Autor: Joaseiro
  • Perguntado 3 anos atrás

Na escola aprendemos que o Brasil foi descoberto pelos indígena que se aliaram aos portugueses quando eles chegaram como o intuito de combater seus inimigos

Respostas

respondido por: anagoncalves1519
0

Resposta:

errado nos aprendemos que os portugueses 'descobriram' o brasil

Perguntas similares