• Matéria: Sociologia
  • Autor: biiasb9
  • Perguntado 7 anos atrás

o que define o positivismo?​

Respostas

respondido por: grazyalves18
7

Positivismo é uma corrente de pensamento filosófico, sociológico e político que surgiu em meados do século XIX na França. A principal ideia do positivismo era a de que o conhecimento científico devia ser reconhecido como o único conhecimento verdadeiro.

respondido por: talia9a2015
2

Positivismo é uma corrente de pensamento filosófico, sociológico e político que surgiu em meados do século XIX na França. A principal ideia do positivismo era a de que o conhecimento científico devia ser reconhecido como o único conhecimento verdadeiro.

Perguntas similares