Respostas
respondido por:
1
No final da Primeira Guerra Mundial, a Alemanha perdeu senso de poder, ou seja, a derrota na guerra retirou parte do patriotismo que os mesmos possuíam.
Décadas mais tarde, surge Hitler com um ideal de supremacia Alemã, desenvolvendo uma cultura pautada na soberania e desejo de sobreposição do país aos demais que eram impuros.
Por isso, falar de cultura nesse período é estar atento para as diversas modificações que Hitler e o exército Nazista promoveram na Alemanha, se estendendo até o final da Segunda Guerra.
Perguntas similares
3 anos atrás
3 anos atrás
3 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás