Na escola aprendemos que o Brasil foi descoberto pelos indígena que se aliaram aos portugueses quando eles chegaram como o intuito de combater seus inimigos
Respostas
respondido por:
0
Resposta:
errado nos aprendemos que os portugueses 'descobriram' o brasil
Perguntas similares
3 anos atrás
3 anos atrás
3 anos atrás
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás