Respostas
respondido por:
0
O Nazismo não foi nada mais do que Hitler querer ampliar os territórios da Alemanha,ele acreditava que a Alemanha perdeu a 1° Guerra Mundial por culpa dos Judeus q se recusaram a patrocinar a guerre.Se não está convencido,lhe recomendo o blog: Schafergabriel.Blogspot.com.br
Perguntas similares
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás