• Matéria: Geografia
  • Autor: binhaedivaniasilva
  • Perguntado 3 anos atrás

o que aconteceu com os estados unidos a partir do século


binhaedivaniasilva: boa noite! qual a resposta certa

Respostas

respondido por: mariana60749
1

Resposta:

No século XX, os EUA tornaram-se a maior potência econômica do mundo, mas sofreram um grande baque na Crise de 1929, muito conhecida por ter sido um colapso de superprodução. Em 1941, os EUA entraram na Segunda Guerra Mundial em decorrência do ataque a Pearl Harbor realizado pelos japoneses.

espero ter ajudado e obrigada por marcar como melhor resposta! ♡


binhaedivaniasilva: ××
mariana60749: ok..
respondido por: lucasnistiki
1

Durante o século XIX, os Estados Unidos passaram por uma série de transformações, como a marcha para o oeste e a Guerra Civil Americana ou Guerra de Secessão. ... Entre as mudanças ocorridas, destacou-se a grande expansão territorial que o país sofreu, seja pela compra de territórios, seja pela guerra.

Perguntas similares