o que aconteceu no campo social com o termino da guerra?
otimusprime411ovf5rj:
tem alguma guerra específica?
Respostas
respondido por:
0
Resposta:
Após a Primeira Guerra Mundial, a Alemanha foi derrotada e obrigada a assinar o Tratado de Versalhes, a obrigando a pagar indenizações, ceder territórios, desarmar-se, etc. Ou seja, a Alemanha foi culpabilizada pela Grande Guerra.
Isso seguiu para uma crise econômica fortíssima e desaprovação da população alemã quanto ao governo (que assinou o tratado e se manteve submisso). Culminou com a acensão de um heroi de guerra, considerados pelo povo alemão em sua época como um novo Messias, nada mais, nada menos que Hitler e o governo nazista.
Explicação:
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás