• Matéria: Português
  • Autor: ingridcarvalho3
  • Perguntado 9 anos atrás

o que as mulheres brasileiras conquistaram ??

Respostas

respondido por: catiazefer
3
Ingrid, as mulheres brasileiras conquistaram muitas coisas. Trabalharem fora de casa, o voto, direitos trabalhistas, realizarem trabalhos que era exclusividade masculina, o direito de terem uma vida amorosa e sexual sem discriminações, o direito ao disquite e depois ao divórcio, poxa, são tantos... Espero tê- la ajudado.

catiazefer: Fiquei feliz por ajudâ- la.
Perguntas similares