Respostas
respondido por:
1
Resposta:
acredito eu que nao
Explicação:
respondido por:
0
Não, até o final do séc. XIX, a profissão de professor era quase que exclusivamente masculina. Desde a época colonial, cabia à mulher atividades “naturais” para seu sexo, como costurar, bordar, cuidar da casa, do marido e dos filhos, não precisando de educação formal. Além disso, sobretudo devido a organização burocrática da metrópole e a situação financeira das cidades, as condições de trabalho e salário dos professores eram precárias. Além disso, pela influência religiosa, e também como forma de adquirir maior prestígio social, a docência ficou marcada como um “sacerdócio” e vocação. A universalização da instrução primária, juntamente com a educação feminina, ganharam corpo com os ideais revolucionários franceses.
Perguntas similares
4 anos atrás
4 anos atrás
4 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás