Respostas
respondido por:
6
No final da Primeira Guerra Mundial, a Alemanha perdeu seu senso de poder, ou seja, a derrota na guerra retirou parte do patriotismo que os mesmos possuíam.
Décadas mais tarde, surge Hitler com um ideal de supremacia Alemã, desenvolvendo uma cultura pautada na soberania e desejo de sobreposição do país aos demais que eram impuros.
Por isso, falar de cultura nesse período é estar atento para as diversas modificações que Hitler e o exército Nazista promoveram na Alemanha, se estendendo até o final da Segunda guerra.
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás