• Matéria: História
  • Autor: dulceprofeta06
  • Perguntado 5 anos atrás

qual e a importância do feminismo no brasil ?
RESUMO ​


valentina5451: O feminismo desfaz a ideia incutida pela sociedade patriarcal que mulheres devem ser rivais entre si. No Brasil, temos uma situação alarmante, a violência contra a mulher ainda é muito forte.
Anônimo: ahhhh
Anônimo: pq tu n me responde?

Respostas

respondido por: araujo879
2

Resposta:

O feminismo prega a igualdade de gênero, prega uma sociedade onde mulheres e homens tenham, de fato, os mesmos direitos. ... O feminismo desfaz a ideia incutida pela sociedade patriarcal que mulheres devem ser rivais entre si. No Brasil, temos uma situação alarmante, a violência contra a mulher ainda é muito forte

Perguntas similares