• Matéria: História
  • Autor: blanks
  • Perguntado 6 anos atrás

por que a alemanha se tornou nazismo apos 1 guerra mundial

Respostas

respondido por: mariamondeck
3

Resposta:

O surgimento do nazismo aconteceu logo após a Primeira Guerra Mundial em um momento em que a Alemanha estava arrasada e humilhada após esse conflito. A crise econômica e as duras imposições do Tratado de Versalhes fortaleceram o discurso nacionalista e extremista difundido por certas parcelas da sociedade alemã

Perguntas similares