Respostas
respondido por:
0
Resposta:
Alemanha foi vencida na Primeira Guerra Mundial. Em 1919, aquele país assinou um acordo, conhecido como "O Tratado de Versalhes", com os países vitoriosos (Estados Unidos, Grã-Bretanha, França e outros países aliados), os quais exigiram o pagamento de reparações econômicas, militares e territoriais aos países atacados pela Alemanha.
Explicação:
Perguntas similares
4 anos atrás
4 anos atrás
4 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás