• Matéria: História
  • Autor: ana8417
  • Perguntado 7 anos atrás

SOCORRO
apos a Primeira Guerra Mundial aconteceu o Tratado de Versalhes e o nazismo na Alemanha????​

Respostas

respondido por: Barros2576
3

Resposta: mais ou menos

Explicação: após a Alemanha perder a primeira guerra ela assinou o tratado de Versalhes assim Hitler estava furioso e com isso ele planejou a grande reviravolta e o início da Alemanha nazista

Perguntas similares