Respostas
respondido por:
0
Sob o governo de Hitler, a Alemanha se tornou um estado fascista totalitário que controlava quase todos os aspectos da vida. Depois que as forças aliadas derrotaram os alemães em maio de 1945 e encerraram a Segunda Guerra Mundial na Europa, a Alemanha nazista deixou de existir.
Não esquece de marcar como melhor ;)
Não esquece de marcar como melhor ;)
Anônimo:
quer saber.. q tal vc ajudar em vez de piorar
Perguntas similares
3 anos atrás
3 anos atrás
3 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás