Respostas
respondido por:
2
Antes e durante a guerra, com a conquista da Polônia, parte da França, a Grécia... Depois que a Alemanha foi rendida e perdeu a segunda guerra, houveram tratados que puseram fim as decisões e ideais construídos pela Alemanha Nazista.
990000:
bgd
Perguntas similares
6 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás