• Matéria: Sociologia
  • Autor: biiasb9
  • Perguntado 7 anos atrás

em que influenciou o positivismo no Brasil no começo do século XX?​

Respostas

respondido por: ThallesGalvao
0

Resposta:

*crises social e moral do fim da Idade Média e do nascimento da sociedade industrial  

*a Revolução Francesa (1789-1799)

a população nao sabia explicar algo colocava a explicação na divindade, so que com o tempo surgiu a ciência e foi deixando a explicação teológica de lado, ciência acima de tudo.

Explicação:

O positivismo defende a ideia de que o conhecimento científico é a única forma de conhecimento verdadeiro. De acordo com os positivistas somente pode-se afirmar que uma teoria é correta se ela foi comprovada através de métodos científicos válidos. Os positivistas não consideram os conhecimentos ligados a crenças, superstição ou qualquer outro que não possa ser comprovado cientificamente. Para eles, o progresso da humanidade depende exclusivamente dos avanços científicos.

respondido por: talia9a2015
0

E, que a Educação é a área onde essa influência foi mais marcante, sendo que nas escolas, tal influência se fez sentir, devido às ciências auxiliares da Educação, a exemplo da Psicologia e da Sociologia. Essa influência se prolongou até o final da segunda década do século XX. No caso do Brasil, a influência do positivismo se espalhou na organização da sociedade republicana, ainda no século XIX, estimulando o culto ao cientificismo, desafiando a dominação católica ao mesmo tempo em que pregava a necessidade de uma Igreja da Humanidade, que primava pela religião positiva, pelo o culto à ciência.

Perguntas similares