• Matéria: História
  • Autor: alunoanonimo1
  • Perguntado 9 anos atrás

Tratado assinado após a primeira guerra mundial, o que determinava esse tratado?

Respostas

respondido por: yasminmariafnt
9
Tratado assinado após a primeira guerra mundial, que marcou o fim da mesma em 1919, estabelecia a paz e impunha pesadas penas à Alemanha, considerada responsável pelo conflito. Entre as sanções impostas aos alemães havia: a perda de suas colônias na África; a devolução da Alsácia-Lorena à França; a perda de parte de seu território para a recém-criada Polônia; a desmilitarização das Forças Armadas; e o pagamento de indenização de guerra aos Aliados.
Perguntas similares