• Matéria: Geografia
  • Autor: lucasmarques59
  • Perguntado 7 anos atrás

o que ocorreu no Brasil a partir da década de 1940?​

Respostas

respondido por: mariagloria46
4

Resposta:

A Alemanha invade a Dinamarca, Noruega, Bélgica, Holanda, Luxemburgo e a França, entre 1940 e 1941. A Alemanha perde a Batalha da Grã-Bretanha. A Alemanha ataca a União Soviética em 22 de junho de 1941. Os Estados Unidos entram na Segunda Guerra Mundial após o ataque a Pearl Harbor em 7 de dezembro de 1941.

Explicação:

Perguntas similares