• Matéria: História
  • Autor: Tafanysouza2941
  • Perguntado 8 anos atrás

por que ao final da primeira guerra mundial os estados unidos se tornaram o país mais rico do mundo? alguém sabe?

Respostas

respondido por: Atlantis
0
Tafany,

Durante a Primeira Guerra Mundial, os Estados Unidos ofereceram insumos bélicos para os países participantes do conflito. Com uma participação direta pífia, manteve seu lucro ao oferecer armas e tornou-se o país mais rico daquela época.
Perguntas similares