• Matéria: História
  • Autor: nazarjulia0
  • Perguntado 6 anos atrás

explique a situação dos estados unidos depois da primeira guerra mundial ou seja na década de 1920?​

Respostas

respondido por: JAMILYcrf
4

Resposta: Após a Primeira Guerra Mundial, os Estados Unidos, assumiram a hegemonia econômica do planeta. Passaram de devedores a credores no mercado internacional. Fizeram grandes empréstimos para a reconstrução da Europa, ao mesmo tempo exportavam bastante para o continente.

Perguntas similares