• Matéria: Geografia
  • Autor: ritac4935
  • Perguntado 6 anos atrás

comente sobre os estados unidos a partir do século xx​

Respostas

respondido por: LokaChanOFC
2

Resposta:

As questões de política internacional mereceram sua maior atenção e, ainda que ele condenasse a “diplomacia do dólar”, não renunciou a intervenção no Mar das Caraíbas com desembarques armados na Nicarágua, no México, no Haiti e em São Domingos.

A campanha submarina alemã, afundando embarcações americanas, a divulgação do telegrama do Ministro das Relações Exteriores, propondo uma aliança com o México que prometia a reanexação do Texas, do Novo México e do Arizona; a pressão dos banqueiros e industriais que, havendo feitos vultuosos empréstimos aos Aliados, queriam assegurar a vitória da França e da Inglaterra para serem reembolsados – foram estas algumas das razões que levaram os EUA a declarar guerra à Alemanha, em 1917. A América se tornara a maior força política e financeira do Mundo Capitalista, transformando-se de uma país devedor em um país que emprestava dinheiro.

Explicação:

Espero ter ajudado vuxe fofo ou fofa ;3 ❤

respondido por: marcosplinioamaral
0

Resposta:Apos a segunda guerra os Estados Unidos se tornou uma grande potencia militar e tecnológica difundindo um novo conceito de vida cultural econômica.

Explicação:

Perguntas similares