• Matéria: História
  • Autor: lv49350
  • Perguntado 6 anos atrás

Por que, ao final da Primeira Guerra Mundial, os Estados Unidos se tornaram o país mais rico do mundo?​

Respostas

respondido por: DeusLucas
4

Resposta:

Os Estados Unidos, durante a guerra, participaram vendendo armas e suprimentos aos aliados da Entente, usando sua economia forte para criar dependência econômica de países como Inglaterra e França. No pós-guerra a Europa estava destruída e os Estados Unidos seguia prosperando.

Perguntas similares