• Matéria: Geografia
  • Autor: Eduardaponts
  • Perguntado 7 anos atrás

O que levou os EUA a assumir o mercado mundial após a segunda guerra?

Respostas

respondido por: thalia688
1
Em 1941, com o ataque japonês a Pearl Harbor, os Estados Unidos entrariam na Segunda Guerra Mundial, marcando assim o final da Grande Depressão. A guerra terminaria em 1945, e com seu fim, os Estados Unidos tornariam-se uma das duas grandes superpotências mundiais, sendo a outra a União Soviética. prontinho!

mayonneves: Ta errado. A pergunta não foi essa
thalia688: tá ?
Perguntas similares