• Matéria: Saúde
  • Autor: biathorp792
  • Perguntado 8 anos atrás

pontos importantes da historia do ensino de enfermagem no brasil

Respostas

respondido por: silvaniafernandes
0
A Enfermagem vem progredindo expressivamente, buscando firmar-se como detentora de saber científico, sem deixar de lado o aspecto humanitário de sua profissão.
Perguntas similares