• Matéria: História
  • Autor: manuzieglerrocha22
  • Perguntado 4 anos atrás

O que aconteceu com os Estados Unidos pós primeira guerra?

Respostas

respondido por: mariahpereira647
0

No pós-Primeira Guerra, os Estados Unidos se tornaram uma grande potência mundial. O país já era a maior potência industrial, e tornou-se, também, a maior potência financeira, tornando-se líder, após a guerra. Assim, toda o que abordaremos sobre História Econômica do século XX tem alguma ligação com os Estados Unidos.

respondido por: ericbarbosa730
0

Resposta:

Exibindo resultados para o'que aconteceu na primeira guerra no estados unidos

Em vez disso, pesquisar por oque aconteceu na primeira guerra no estados unidos

No dia 6 de abril de 1917, os Estados Unidos declararam guerra contra os alemães e seus aliados. Um grande volume de soldados, tanques, navios e aviões de guerra foram utilizados para que a vitória da Entente fosse assegurada. Em pouco tempo, as tropas alemãs e austríacas foram derrotadas.

Perguntas similares