Respostas
respondido por:
10
o Tratado de Versalhes foi um acordo de paz assinado pelos países europeus, após o final da Primeira Guerra Mundial
respondido por:
8
Tratado de paz, que determinava o fim da primeira guerra, segundo esse tratado a Alemanha deveria diminuir seu poder armamentista além de pagar uma dívida altíssima aos seus aliados.
Perguntas similares
6 anos atrás
6 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás