• Matéria: Sociologia
  • Autor: estudiosa133
  • Perguntado 7 anos atrás

Quais os principais direitos conquistados pelas mulheres no Brasil ?

Respostas

respondido por: dududis
4
Direito do voto
Direito de trabalho
respondido por: RYAN345k
1

Direito de voto,  trabalha,  salários iguais esses são os principais

Perguntas similares