SOCORRO
apos a Primeira Guerra Mundial aconteceu o Tratado de Versalhes e o nazismo na Alemanha????
Respostas
respondido por:
3
Resposta: mais ou menos
Explicação: após a Alemanha perder a primeira guerra ela assinou o tratado de Versalhes assim Hitler estava furioso e com isso ele planejou a grande reviravolta e o início da Alemanha nazista
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás