• Matéria: História
  • Autor: kaianews
  • Perguntado 7 anos atrás

Qual era o significado do antropofagismo para os indígenas brasileiros?

Respostas

respondido por: jasmineprincesas
4

A antropofagia é a ação de comer carne humana. Para os indígenas a antropofagia era um ritual onde se comia os guerreiros derrotados e capturados de outras tribos, estes acreditavam que ao fazer isso iriam incorporar as qualidades do indivíduo que é comido.

Perguntas similares