• Matéria: História
  • Autor: dinhacris4602
  • Perguntado 8 anos atrás

tratado que oficializou o fim da primeira guerra mundial? me ajudeeem por favor!

Respostas

respondido por: Jayrobeys
1
Tratado de Versalhes, onde a Alemanha assumiu a responsabilidade pela guerra.
respondido por: eduardospagnolo
0

O "Tratado de Versalhes" oficializou o fim da Primeira Guerra Mundial, este tratado teve como objetivo penalizar a Alemanha como culpada do início do conflito.

Primeira Guerra Mundial e o Tratado de Versalhes

A Primeira Guerra Mundial, conhecido por ser o primeiro grande conflito armado do século XX, iniciou-se no ano de 1914, quando em razão de uma grande intensificação nas relações diplomáticas de países europeus e asiáticos, houve o estopim com o assassinato do herdeiro do Império Austro-Húngaro, Francisco Ferdinando, e terminou com o Armistício de Compiègne em 1918.

Porém, o final da Primeira Guerra Mundial foi somente oficializado em 1919 em decorrência do Tratado de Versalhes que visava impor diversas penalidades para a Alemanha, sendo ela culpabilizada pelo conflito. As diversas penalidades destruíram o país alemão e foi por elas uma das razões pelo surgimento de movimentos fascistas totalitários que deram origem ao nazismo.

Saiba mais sobre "Primeira Guerra Mundial e o Tratado de Versalhes" aqui: https://brainly.com.br/tarefa/5831444

#SPJ6

Anexos:
Perguntas similares