• Matéria: História
  • Autor: joaopratajczyk
  • Perguntado 7 anos atrás

o que defendiam os positivistas brasileiros? ​

Respostas

respondido por: sdelazeri
8

Resposta:

O positivismo defende a ideia de que o conhecimento científico é a única forma de conhecimento verdadeiro. Assim sendo, desconsideram-se todas as outras formas do conhecimento humano que não possam ser comprovadas cientificamente.

Perguntas similares