Respostas
respondido por:
1
medicina do trabalho é a especialidade médica que lida com as relações entre homens e mulheres trabalhadores e seu trabalho , visando não somente a prevenção dos acidentes e das doenças do trabalho , mas a promoção da saúde e da qualidade de vida.
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás