Respostas
respondido por:
4
Quando o Brasil começo a ser colonizado, os colonos começaram a catequisar os índios e os corromperam, trazendo de fora sua cultura e introduzindo quase de forma obrigatória aos nativos do Brasil, e isso não aconteceu somente na América do Sul mas também em outros continentes da mesma maneira, a colonização gerou a extinção das nações indígenas.
23456aninha:
brigada mais uma vez
respondido por:
1
O preconceito contra os índios e guerras mortais
Perguntas similares
7 anos atrás
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás