Respostas
respondido por:
3
Então, após a primeira guerra mundial a Alemanha estava "acabada" tanto em questão social quanto econômica. Hitler conseguiu chegar ao poder por meio do discurso que a Alemanha queria ouvir... O povo estava a sentir revolta por ter perdido a primeira guerra mundial, e então ele por meio de discursos intolerantes e que supostamente ia deixar a Alemanha como uma potência mundial criou um Partido político "Nazi Party" e assim assumiu a Alemanha.
Espero ter ajudado!!
Espero ter ajudado!!
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás