• Matéria: Filosofia
  • Autor: leomacena2004
  • Perguntado 5 anos atrás

Relacione os direitos humanos e a violência contra as mulheres no Brasil.

Respostas

respondido por: Rodrigo1224
1

Resposta:

O direitos humanos foram atribuido pós 2 guerra mundial, que marcou o mundo com o Holocausto, a partir desse impasse, a sociedade aderiu aos direitos sociais e humanos. Desse modo, a mulher passou a ter mais direitos, mesmo que mediados, mas aderiu a outras margens governamentais e de autorias para o direito humano.

Bons estudos

Explicação:


leomacena2004: Muito obrigado!!
Perguntas similares