Respostas
respondido por:
0
Resposta:
Com o fim da primeira guerra mundial os tratos que a França implementou na Alemanha eram absurdos e invasivos, criando um sentimento de revanchismo nos alemães e com Hitler falando que a Alemanha iria se vingar e iria voltar a seus dias gloriosos de reich o povo alemão simpatizava com ele.
Explicação:
Espero ter ajudado❤
Perguntas similares
3 anos atrás
3 anos atrás
3 anos atrás
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás