Respostas
respondido por:
2
A Segunda Guerra fortaleceu os EUA, pois a guerra não ocorreu em território americano, com isso eles puderam vender armas e mantimentos para os países da Europa, tento altos lucros e se colocando como uma das grandes potências da época.
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás