Respostas
respondido por:
2
Essa é uma questão bastante complexa... Mas pelo que estudei de história contemporânea, Adolf Hitler ao expandir a ideologia nazista pelo controle da Alemanha a partir de 1933 fez com que a ideologia nacionalista dos alemães viessem a tona, ou seja, como eles foram humilhados ao final da primeira guerra mundial, obrigados a pagar uma indenização absurda de cara e obrigados a cumprir regras que foram humilhantes, a ascensão do partido nazista fez com que os alemães se lembrassem do passado vergonhoso e levantassem a cabeça pra reerguer uma Alemanha forte e nacionalista de sangue para que pudessem dominar o mundo pela preservação da raça ariana (branca), é mais ou menos isso, ainda não cheguei nessa disciplina na minha faculdade de História, por isso não posso te ajudar muito mais, ok? Abraços!! =)
Aristócles:
Só complementando aqui, para começar a segunda guerra pelo lado Nazista vs União Soviética, vale lembra que Hitler traiu Stálin no tratado de não agressão que tinham assinado, começando a guerra ao invadirem a Polonia em 1939!!! Entendeu certinho? Abraços!
Perguntas similares
7 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás