• Matéria: Geografia
  • Autor: LollyPuty
  • Perguntado 8 anos atrás

Por que os EUA ganhou tanto destaque após o fim da Segunda Guerra Mundial?

Respostas

respondido por: johnriverss
1
Após a sua entrada na batalha ao lado dos Aliados, ainda mais depois de Pearl Harbor, os países europeus ficaram praticamente todos quebrados economicamente, fazendo-os pedir ajuda aos EUA (que tinha dinheiro na época, já que o presidente Roosevelt havia feito o New Deal anos atrás e só entraram na guerra no final), que estava ganhando muito com a indústria bélica para fornecer armas aos Aliados. Assim, os EUA ficaram sendo o "banco mundial" da época.

LollyPuty: Muito obrigada <3
Perguntas similares