Respostas
respondido por:
75
Os Estados Unidos da América se tornaram a nação mais rica do mundo.
respondido por:
12
Quando termina a primeira guerra Mundial, os Estados Unidos da América foram a nação que se tornou a mais rica do mundo, visto que ajudou economicamente durante a Guerra e após, beneficiando-se duplamente.
Os Estados Unidos foram o maior fornecedor de bens de consumo da Europa após o fim da Primeira Guerra Mundial, o que gerou um enorme crescimento econômico por quase uma década, colocando os EUA como a grande potência mundial, além dos empréstimos e a reconstrução da Europa da qual o país participou.
Abraços!
Perguntas similares
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
10 anos atrás