• Matéria: História
  • Autor: paulogabriel48
  • Perguntado 5 anos atrás

Ações afirmativas no Brasil e sua importância?

Respostas

respondido por: nara12067
2

Resposta:

As ações afirmativas são formas de políticas públicas que objetivam transcender as ações do Estado na promoção do bem-estar e da cidadania para garantir igualdade de oportunidades e tratamento entre as pessoas e a mobilização dos setores culturais com intenção de ampliar as ações de inclusão social.

Perguntas similares