• Matéria: Geografia
  • Autor: fguimaraes2005
  • Perguntado 7 anos atrás

explique o que aconteceu dos Estados Unidos após o final da segunda guerra mundial?

Respostas

respondido por: Jukers001
1

Resposta:

Os Estados Unidos Pós-Segunda Guerra. Para os Estados Unidos, o período do pós-Segunda Guerra Mundial foi um de paz e prosperidade. ... Roosevelt, que havia governado os Estados Unidos durante os anos 1933-1945, combateu a Grande Depressão da década de 1930 ao aumentar o papel do governo na economia nacional.


RianFS: o Brasil ganhou cinco copas
fguimaraes2005: nossa!!! agora q vc descobriu??
Perguntas similares