Respostas
respondido por:
1
O positivismo foi um movimento ocorrido na Europa, e difundido pelo mundo mais tarde, que pregava o darwinismo social, ou seja, a ideia de que alguns povos são mais evoluídos que outros, e por isso os que estão no maior nível de desenvolvimento devem levar seus conhecimentos civilizados aos "bárbaros" atrasados.
Perguntas similares
7 anos atrás
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás