• Matéria: História
  • Autor: jhenifercosta51371
  • Perguntado 5 anos atrás

o que defendiam os positivistas no Brasil

Respostas

respondido por: LaaYaina
10

Resposta:

O positivismo defende a ideia de que o conhecimento científico é a única forma de conhecimento verdadeiro. Assim sendo, desconsideram-se todas as outras formas do conhecimento humano que não possam ser comprovadas cientificamente

espero de ajudando

Perguntas similares