• Matéria: Sociologia
  • Autor: gabrielfonseca88
  • Perguntado 3 anos atrás

O que são ações afirmativas no Brasil? ​

Respostas

respondido por: daianeashylla3003
0

Resposta:

Muitas ações afirmativas já foram e são feitas no Brasil, podemos citar: aumento da participação dos grupos discriminados em determinadas áreas de emprego ou no acesso à educação por meio de cotas; concessão de bolsas de estudo; prioridade em empréstimos e contratos públicos; distribuição de terras e moradias; medidas de proteção diferenciada para grupos ameaçados, etc..

Explicação:

Perguntas similares