• Matéria: História
  • Autor: biahns99
  • Perguntado 4 anos atrás

Fale sobre o papel dos estados unidos para o fim da primeira guerra mundial!

Respostas

respondido por: Namjoonnie
0

Resposta:

Em 1917, os EUA decidiram entrar efetivamente (com soldados e presença física nos campos de batalha) na Primeira Guerra ao lado da Inglaterra e França. A presença dos EUA foi decisiva para a vitória da Entente, pois pegou os alemães e italianos desgastados, após 3 anos de guerra.

Perguntas similares