• Matéria: História
  • Autor: pedrohenriquemls
  • Perguntado 8 anos atrás

como a Alemanha ficou depois do tratado da Versalhes???

Respostas

respondido por: SrLeonnar
1
A Alemanha foi o pais vencido na guerra. A paz de Versalhes foi a paz dos vencedores. Depois da Primeira Guerra, a Alemanha perdeu grande parte de seu territorio e o que sobrou foi cortado em dois por um novo Estado,a Polonia.
respondido por: suelen1907
2
Após o tratado de Versalhes a Alemanha foi considerada totalmente culpada pela guerra e teve que arcar com todas as dívidas ministradas além de perder suas terras recém conquistadas. Com isso se instalou uma forte crise interna no território alemão.
Perguntas similares