Respostas
respondido por:
1
A causa fundamental foi a expansão do nazismo e ideologia do mesmo por territórios, e a não-preocupação de Hitler em manter uma boa política de vizinhança com os países europeus.
Bons estudos :)
Bons estudos :)
respondido por:
1
Existem várias causas, mas a principal foi o " Tratado de Versalhes " que apontou a Alemanha como a culpada da Primeira Guerra Mundial, e impôs pesadas reparações que levaram o país a ruínas .
Perguntas similares
7 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás