• Matéria: História
  • Autor: enriquefofinho
  • Perguntado 9 anos atrás

oque foi a republica de Weimar?

Respostas

respondido por: lanzacarla11
2
República de Weimar é o nome dado ao governo instituído na Alemanha depois da deposição do Kaiser. Foi esse governo que assinou a rendição da Alemanha na I Guerra Mundial. A forte crise econômica e o sentimento de humilhação que haviam no páis naquela época , principalmente devido aos termos do tratado de Versalhes, formaram o ambiente propício para que o discurso ultra-nacionalista de Adolf Hitler conquistasse a popularidade de que necessitava para chegar ao poder.
respondido por: bkenesamanda
1

A República de Weimar foi o período republicano na Alemanha, que durou do final da I Guerra Mundial até a ascensão de Hitler e seu golpe para tomar o governo e instaurar o III Reich.

Perguntas similares