Respostas
respondido por:
65
Quando o Brasil começo a ser colonizado, os colonos começaram a catequisar os índios e os corromperam, trazendo de fora sua cultura e introduzindo quase de forma obrigatória aos nativos do Brasil, e isso não aconteceu somente na América do Sul mas também em outros continentes da mesma maneira, a colonização gerou a extinção das nações indígenas.
Perguntas similares
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás