• Matéria: Geografia
  • Autor: meajudem41
  • Perguntado 8 anos atrás

O que aconteceu com a Alemanha após a segunda guerra mundial ?

Respostas

respondido por: Anônimo
13
Ela foi divida em duas: a Alemanha ocidental, influenciada pelo capitalismo, e a  Alemanha oriental, influenciada pelo socialismo.
Ambas receberam muitos investimentos para um provar que é melhor ao outro, em 91, com a queda do muro de Berlim, a Alemanha se unificou e se tornou uma potência Européia.
Perguntas similares