o que pode dizer a respeito das culturas indígenas no Brasil com a base na observação desse trabalho?
Respostas
respondido por:
52
Os indígenas no Brasil, são de muita importância, eles são parte da nossa cultura e merecem diversos direitos que ainda não possuem. Acredito que eles sejam a base da nossa sociedade brasileira, pois sofreram muito na época da colonização, eles e os negros.
Perguntas similares
6 anos atrás
6 anos atrás
8 anos atrás
9 anos atrás