Respostas
respondido por:
3
Resposta:
Foi quando as mulheres "se tocaram" da sociedade machista e impostora na qual estavam vivendo e fizeram vários movimentos para conseguirem direitos iguais aos masculinos, ocorrendo, principalmente, durante a primeira guerra mundial, já que elas começaram a ocupar cargos cada vez mais importantes em virtude dos homens terem ido lutar.
espero que te ajude
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás