Respostas
respondido por:
1
As mulheres tomaram consciência de seus direitos a partir da primeira guerra mundial depois da guerra. Elas começaram a ocupar os postos de trabalho já que os homens que ocupavam, foram mortos na guerra já que a maioria deles eram saudades.
Perguntas similares
6 anos atrás
6 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás