Respostas
respondido por:
2
Conforme acabou a guerra, os impérios centrais (Alemanha e Império Austro-Hungaro) tiveram uma crise em seus países, já que com todo o investimento que fizeram na guerra e perderam, acabaram deixando o próprio país pobre, além de que a Alemanha teve que indenizar os países vencedores, ficando mais pobre ainda, grande parte da Europa estava totalmente destruída, por exemplo a França. Durante isso, assinou-se o tratado de Versalhes, onde proibia a Alemanha de ter forças armadas e colônias, então a Alemanha ficou totalmente destruída. Foi então que surgiu Hitler com uma nova ideologia nazista que pretendia trazer "igualdade" aos alemãs que tanto sofreram nessa guerra. Então deu-se início a Segunda Guerra Mundial.
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás