Respostas
respondido por:
2
Os principais livros sobre a historia do Brasil dizem que foram os portugueses, mas era ocupada por índios. Sendo os índios depois condenados a trabalhar para os portugueses, em troca de um espelho, pente, coisa velhas para os portugueses.
Perguntas similares
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás