Respostas
respondido por:
0
Estados unidos,depois que a guerra terminou na Europa,os países da Europa recorreram aos EUA,póis todos eles estavam em crise,Logo após que os países se recuperaram,eles tiveram que ficar pagando para os EUA e por isso o país se beneficiou na primeira guerra mundial.
Perguntas similares
6 anos atrás
6 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás