• Matéria: História
  • Autor: lanekaroline18p8zzba
  • Perguntado 7 anos atrás

O que aconteceu com a Alemanha após a Primeira Guerra Mundial​?

Respostas

respondido por: GeovanaSilvaCosta
4

Resposta:

Foi obrigada a arcar com os custos da guerra, idenizar os países vencedores, e logo após ser assinado o tratado de Versalhes, também foi obrigada a devolver ricas regiões já conquistadas.

Perguntas similares