qual e a importância do feminismo no brasil ?
RESUMO
valentina5451:
O feminismo desfaz a ideia incutida pela sociedade patriarcal que mulheres devem ser rivais entre si. No Brasil, temos uma situação alarmante, a violência contra a mulher ainda é muito forte.
Respostas
respondido por:
2
Resposta:
O feminismo prega a igualdade de gênero, prega uma sociedade onde mulheres e homens tenham, de fato, os mesmos direitos. ... O feminismo desfaz a ideia incutida pela sociedade patriarcal que mulheres devem ser rivais entre si. No Brasil, temos uma situação alarmante, a violência contra a mulher ainda é muito forte
Perguntas similares
4 anos atrás
4 anos atrás
4 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás