• Matéria: História
  • Autor: muaythai0579
  • Perguntado 4 anos atrás

Quais as mudanças que aconteceram nos Estados Unidos da América após a Primeira Guerra Mundial?​

Respostas

respondido por: thiago201284
0

Resposta:

Durante grande parte da década de 1920, os Estados Unidos aproveitaram-se de um período de prosperidade não balanceada. Os preços de produtos agropecuários e os salários em geral caíram no país após o fim da guerra, enquanto que novas indústrias, tais como o rádio, filmes, automóveis e químicos, prosperaram.

Explicação:

Perguntas similares