Respostas
respondido por:
2
Foi ainda em 1917 que os Estados Unidos entraram na guerra ao lado da Inglaterra e da França e contra a Alemanha, que já não mais tinha a mesma força do início da guerra. Sendo que, após o fim da Primeira Guerra em 1918, os Estados Unidos tornaram-se a grande potência fora do continente europeu.
Perguntas similares
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás