• Matéria: História
  • Autor: manuczr12
  • Perguntado 6 anos atrás

Qual é situação dos EUA após o fim da primeira guerra mundial?

Respostas

respondido por: douglsa34598
0

Resposta:

Após a Primeira Guerra Mundial, os Estados Unidos, assumiram a hegemonia econômica do planeta. Passaram de devedores a credores no mercado internacional. Fizeram grandes empréstimos para a reconstrução da Europa, ao mesmo tempo exportavam bastante para o continente

Explicação:

Perguntas similares