• Matéria: Filosofia
  • Autor: airtonfrancisco008
  • Perguntado 3 anos atrás

O que é higienismo social brasileiro? ​

Respostas

respondido por: celhaa2007
2

Resposta:

O higienismo é uma doutrina que nasceu na primeira metade do século XIX, quando os governantes começaram a dar maior atenção à saúde e à moral dos habitantes das cidades. Considerava-se que a doença era um fenômeno social que abarcava todos os aspectos da vida humana.

Explicação:

peguei do Google, mais espero ter ajudado ;-; :)

Perguntas similares