• Matéria: História
  • Autor: felipearaujomoraes
  • Perguntado 3 anos atrás

2- O que os EUA se tornaram depois do final da Primeira Guerra Mundial?

Respostas

respondido por: biaaaa117
0
Os Estados Unidos se tornaram, depois da Primeira Guerra Mundial, a economia que mais rapidamente crescia no mundo capitalista, passando a exportar produtos e serviços para os países europeus, que haviam sido devastados pelo conflito.






Espero ter ajudado!
Perguntas similares