• Matéria: Sociologia
  • Autor: Mikasaih
  • Perguntado 5 anos atrás

1- Qual a importância do feminismo no Brasil?

Respostas

respondido por: mariajuliafacciolli
0

Resposta:

O feminismo prega a igualdade de gênero, prega uma sociedade onde mulheres e homens tenham, de fato, os mesmos direitos. ... O feminismo desfaz a ideia incutida pela sociedade patriarcal que mulheres devem ser rivais entre si. No Brasil, temos uma situação alarmante, a violência contra a mulher ainda é muito forte

Perguntas similares