Respostas
respondido por:
3
Foi um tratado de paz que pôs fim na primeira guerra mundial .
Amanda10Silva:
o Tratado de Versalhes foi um acordo de paz assinado pelos países europeus, após o final da Primeira Guerra Mundial (1914-1918). Neste Tratado, a Alemanha assumiu a responsabilidade pelo conflito mundial, comprometendo-se a cumprir uma série de exigências políticas, econômicas e militares.
respondido por:
3
Tratado com intuito de paz, onde puniu a Alemanha fazendo com que indenizasse todos os países participantes e acusou de ter dado inicio a guerra.
Perguntas similares
7 anos atrás
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás