• Matéria: Sociologia
  • Autor: kauanphreak2
  • Perguntado 5 anos atrás

Explique com suas palavras o que são ações afirmativas e refletir reflita qual a importância desse ações para nossa sociedade​

Respostas

respondido por: cris29508598
61

Resposta:

Ações afirmativas são políticas públicas feitas pelo governo ou pela iniciativa privada com o objetivo de corrigir desigualdades raciais presentes na sociedade, acumuladas ao longo de anos.

A importância destas ações é oferece igualdade de oportunidades a todos.

Perguntas similares