• Matéria: História
  • Autor: hemilyfortunato2599
  • Perguntado 7 anos atrás

qual foi o papel dos Estados Unidos no final da primeira guerra mundial ​

Respostas

respondido por: lalabiberg12
1

Resposta:

os EUA tiveram o território intocado durante a Primeira Guerra Mundial, assim puderam aproveitar posteriormente o crédito político de terem decidido o conflito. Além disso, o país enriqueceu muito ao bancar a reconstrução dos países europeus. 

Explicação:

Em prestou dinheiro aos países europeus e depois recebeu tudo com juros

Perguntas similares