• Matéria: História
  • Autor: miihsouza2222
  • Perguntado 7 anos atrás

Oque houve após a primeira guerra mundial?

Respostas

respondido por: ewetuf
2

Olá, Miih!

Bom, vamos lá. Temos que ter em mente que a Primeira Guerra Mundial teve fim com a rendição da Alemanha, em 11 de Novembro de 1918.

Um acontecimento importante foi o famoso Tratado de Versalhes, um acordo assinado pelas potencias europeias no qual o mesmo estabelecia que a Alemanha era a única culpada por toda aquela guerra, sendo assim a mesma teria que pagar indenização para a Inglaterra e a França, o exército Alemão teria que ser limitado a 100 mil soldados, os Alemães estavam proibidos de produzir qualquer tipo de armamento e todo o território conquistado durante a guerra, pela Alemanha, seria perdido.

Outro acontecimento importante foi o crescimento absurdo dos Estados Unidos da América como potência, já que a Europa estava totalmente acabada e precisando de ajuda econômica para voltar a ser grande.

Então os Franceses e Ingleses saíram muito bem da guerra, certo? Errado. Ambos países entraram na guerra como as principais potências mundiais e saíram da mesma em crise, já que suas fontes de energia foram destruídas durante os conflitos.

Outro acontecimento foi a criação da Liga das Nações, que supostamente devia evitar e fazer a mediação de possíveis novos conflitos futuros no território Europeu. Mais tarde, acabou por se mostrar ineficiente. É uma espécie de ONU atual.

E por fim, o inicio da Revolução Russa.

Espero ter ajudado. Tudo de melhor sempre!

Perguntas similares