• Matéria: Saúde
  • Autor: anakallyne4706
  • Perguntado 8 anos atrás

no brasil quem introduziu a enfermagem como ciência ? em que ano surgiu a primeira escola de enfermagem no brasil?

Respostas

respondido por: Gottardo
0
O ensino de enfermagem no Brasil surge no final do século passado ante um processo de confronto entre igreja, estado e medicina. Sua institucionalização só irá se efetivar trinta anos depois da criação da escola de enfermeiras do Departamento Nacional de Saúde Pública (DNSP) em 1923.
Perguntas similares