• Matéria: Geografia
  • Autor: hellenzahn
  • Perguntado 6 anos atrás

Com o fim da II Guerra mundial, o que aconteceu com a Alemanha?

Respostas

respondido por: thiagomonteiro787
1

Resposta:

olá

Explicação:

A derrota alemã nessa cidade levou Hitler a cometer suicídio e à queda do Nazismo. A Batalha de Berlim foi o combate que colocou fim à Segunda Guerra Mundial na Europa. ... Nos dias finais dessa batalha, Adolf Hitler cometeu suicídio. A Alemanha acabou rendendo-se poucos dias depois.

Perguntas similares