• Matéria: Sociologia
  • Autor: Deboraferreira88
  • Perguntado 9 anos atrás

O que é o positivismo?

Respostas

respondido por: thiagotallysson
1
O positivismo foi um movimento ocorrido na Europa, e difundido pelo mundo mais tarde, que pregava o darwinismo social, ou seja, a ideia de que alguns povos são mais evoluídos que outros, e por isso os que estão no maior nível de desenvolvimento devem levar seus conhecimentos civilizados aos "bárbaros" atrasados.
Perguntas similares