• Matéria: História
  • Autor: limaravena37
  • Perguntado 4 anos atrás

o que são terrar indígenas do Brasil,e qual a importância??​

Respostas

respondido por: vanessaalmeidadasilv
1

Resposta:

As terras indígenas são áreas fundamentais para a reprodução física e cultural dos povos indígenas, com a manutenção de seus modos de vida tradicionais, saberes e expressões culturais únicos, enriquecendo o patrimônio cultural brasileiro.

respondido por: Micael3361
1

Resposta:

terras indígenas são localidades que habitam unicamente índios e que tem como principal dever esses habitantes a preservação da natureza mas nao é so isso o dever deles.

a importância de índios no Brasil pois podemos aprender cada vez mais todas as suas culturas que são bem variadas.

Perguntas similares