Respostas
respondido por:
56
No fim da Primeira Guerra, a Alemanha, assinou um tratado de paz que fazia com que ela pagasse duras dívidas, pela consequência do estrago da grande guerra. Com isso, a Alemanha entrou em crise, e essa paz não era uma paz para os alemães, que entrou forte na Segunda Guerra, com o nazismo, liderados por Adolf Hitler.
Perguntas similares
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás
10 anos atrás