• Matéria: História
  • Autor: heloviss
  • Perguntado 5 anos atrás

o que aconteceu com os estados unidos pós guerra fria?

Respostas

respondido por: JoaozinhoVitin
1

Resposta:

Para os Estados Unidos, o período do pós-Segunda Guerra Mundial foi um de paz e prosperidade. Roosevelt, que havia governado os Estados Unidos durante os anos 1933-1945, combateu a Grande Depressão da década de 1930 ao aumentar o papel do governo na economia nacional.

Perguntas similares