• Matéria: História
  • Autor: marooo
  • Perguntado 7 anos atrás

o que aconteceu depois da primeira guerra mundial?​

Respostas

respondido por: MariiihBela
1

o fim dela,hahahah desculpa :/.

A Primeira Guerra Mundial terminou com a rendição da Alemanha em 11 de novembro de 1918. A partir daí, a Europa passou por uma reconfiguração de poder.

As principais transformações do pós-guerra ocorreram com a edição do Tratado de Versalhes e com as novas definições no mapa político-econômico mundial com o surgimento de novas grandes potências.

Em Versalhes, França, foi realizado o Tratado de Versalhes (1919). Este importante encontro estabeleceu que:

A Alemanha era a única culpada pela guerra;

Por ter causado a guerra, os alemães teriam de pagar indenização aos vitoriosos (Inglaterra e França);

O exército alemão ficaria limitado ao máximo de 100 mil soldados (número significativamente baixo);

A partir de agora os alemães estavam proibidos de produzir armas e munições;

Os territórios conquistados durante a guerra seriam perdidos;

A região da Alsácia-Lorena foi reincorporada à França.

Entretanto, as definições do Tratado de Versalhes apenas acentuaram o descontentamento alemão gerado pela derrota na Primeira Guerra. Um desejo de revanche tomaria conta de grande parte da população alemã. Sentimento, aliás, que seria muito bem explorado pelos nazistas.

respondido por: lohaanny
1

Resposta: as principais transformações do pós-guerra ocorreram com a edição do tratado de Versalhes e com as novas definições no mapa político e econômico mundial com o surgimento de novas grandes potências.

Explicação:

Perguntas similares