Respostas
respondido por:
7
O Tratado de Versalhes foi um acordo de paz assinado por algumas potências europeias e Estados Unidos após o término da Primeira Guerra Mundial. É o documento que confirmou, diplomaticamente, o fim da guerra.
O principal objetivo do tratado era impôr à Alemanha a responsabilidade pelo início dos conflitos, além de outras punições tais como compromissos de reparação financeira e devolução de territórios.
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás