Respostas
respondido por:
4
Resposta:
os indígenas passaram a serem vistos como parte integrante da nação e titulares de direitos. Desde então as constituições brasileiras passaram a reconhecer direitos a esse povo, o primeiro deles foi o direito a terra na Constituição Da República Dos Estados Unidos Do Brasil de 1934
(eu não sei exatamente se ta certo)
espero ter ajudado
Explicação:
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás