• Matéria: História
  • Autor: beatrizalves14
  • Perguntado 9 anos atrás

a Inglaterra e a França só declararam guerra contra a Alemanha quando Hitler invadiu?

Respostas

respondido por: Deah
51
A Grã-Bretanha só compreendeu que a Alemanha nazista era uma ameaça quando esta anexou a Áustria e invadiu a Polônia em 1939.
Perguntas similares