• Matéria: História
  • Autor: luciamarialisboa
  • Perguntado 9 anos atrás

apos a primeira guerra mundial,quais pais se tornaram credores da europa?

Respostas

respondido por: Hidrow
3
Após o fim da primeira guerra, foi criado o Tratado de Versalhes, que foi um acordo de paz para encerrar definitivamente a guerra. O Tratado impunha à Alemanha, causadora da guerra, punições pelo ocorrido. Ela teve que ceder parte de seu território à nações de suas fronteiras, perdeu parte de seu exército e teve uma indenização pelos prejuízos causados.
Perguntas similares