• Matéria: História
  • Autor: joaomartinsdoss8940
  • Perguntado 8 anos atrás

tratado que oficializou o fim da primeira guerra? preciso muito saber gente por favor!

Respostas

respondido por: ewerthon980
0
Foi i tratado de Versalhes que foi um acordo feito pelos países Europeus pois fim a primeira guerra mundial, e nele dizia que a Alemanha tinha que arcar com todas consequências da guerra assim pagando uma indenização as outras nações que sofreram com a guerra, ceder suas colonias e dar uma parte de seu território.

ewerthon980: Foi o*
Perguntas similares