Respostas
respondido por:
0
A Alemanha foi o país vencido na guerra. A paz de Versalhes foi a paz dos vencedores. Basta olharmos para o mapa da Europa, depois da Primeira Guerra Mundial, para notarmos qua a Alemanha perdeu parte de seu território e o que sobrou foi cortado em dois por um novo Estado, a Polônia. Tudo isso foi somado ainda às péssimas condições em que ficou a economia, devido à própria guerra e, principalmente, por causa das pesadas dívidas que os alemães tiveram que pagar a França e para a Inglaterra.
Perguntas similares
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás