Respostas
respondido por:
3
o termo "descobrimento " está totalmente errado, o Brasil já era habitado pelos índios a muito tempo então foram os índios que o descobriram, o Brasil foi explorado, escravizado, desmoralizado menos: "descoberto".
Marcella23032003:
Obrigado
Perguntas similares
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás
10 anos atrás
10 anos atrás