Respostas
respondido por:
7
Resposta:
A Alemanha, após a Primeira Guerra Mundial e o Tratado de Versalhes, no qual ficou com a maior parte da "culpa" da guerra, ficou extremamente debilitada economicamente e socialmente, com um sentimento desonra, então surgiu um homem chamado Adolf Hitler, exaltando a ascendência alemã, propagando o ufanismo e prometendo reerguê-la aos moldes de como ela se formou na Idade Média e assim o Nazismo chegou ao poder. Hitler tinha uma boa retórica e reascendeu o nacionalismo alemão.
Perguntas similares
5 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás