Respostas
respondido por:
0
Olá! Bem, primeiro é preciso ter em mente que o ensino de história no Brasil desde a chegada dos europeus até os dias atuais passou por um longo processo de transformação, no período da colonização a educação no Brasil foi deixado a cargo da companhia de Jesus, o grupo religioso mais atuante na época, sendo assim a história estudada tinha conotação religiosa, basicamente era a história bíblica.
Somente a partir do século XIX que a história foi definida como uma disciplina, porém ainda assim era usada basicamente para mostrar os grandes feitos dos grandes homens e colocar na cabeça dos educandos a formação moral e cívica e criar uma identidade nacional. É a partir do final do século XIX que começa a surgir os primeiros manuais de história que irá regimentar o ensino dessa disciplina. Espero ter ajudado!
Somente a partir do século XIX que a história foi definida como uma disciplina, porém ainda assim era usada basicamente para mostrar os grandes feitos dos grandes homens e colocar na cabeça dos educandos a formação moral e cívica e criar uma identidade nacional. É a partir do final do século XIX que começa a surgir os primeiros manuais de história que irá regimentar o ensino dessa disciplina. Espero ter ajudado!
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás