Relacione os acontecimentos da primeira guerra mundial à ascensão dos estados unidos no cenário internacional
Respostas
respondido por:
43
O papel dos EUA decisivo foi na 1ª Guerra Mundial, eles forneciam armas durante a guerra, e quando ela acabou forneceram alimentos, como os únicos que saem ganhando na guerra são aqueles que fornecem armamentos os EUA saíram prestigiados, tanto é que o período pós guerra ficou conhecido nos Estados Unidos como ''anos felizes'', toda a população começou a consumir desenfreadamente sob influencia do rádio.
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás