• Matéria: Artes
  • Autor: Eduardakunzel
  • Perguntado 7 anos atrás

o que pode dizer a respeito das culturas indígenas no Brasil com a base na observação desse trabalho?

Respostas

respondido por: sophiasussa24
52

Os indígenas no Brasil, são de muita importância, eles são parte da nossa cultura e merecem diversos direitos que ainda não possuem. Acredito que eles sejam a base da nossa sociedade brasileira, pois sofreram muito na época da colonização, eles e os negros.

Perguntas similares