Respostas
respondido por:
3
Positivismo: Movimento liderado por militares e pessoas "nobres" que acreditavam que apenas os militares podiam mudar o Brasil de verdade, com o fim da monarqua absolutista e o início da República
respondido por:
1
O positivismo é uma corrente filosófica que surgiu na França no começo do século XIX.
O positivismo é uma doutrina filosófica, sociológica e política.
Em linhas gerais, ele propõe à existência humana valores completamente humanos, afastando radicalmente a teologia e a metafísica.O positivismo defende a ideia de que o conhecimento científico é a única forma de conhecimento verdadeiro.
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
9 anos atrás