Respostas
respondido por:
0
Resposta:
Os norte-americanos passaram a exercer forte influência aqui no Brasil, principalmente após a Primeira Guerra Mundial, quando passaram da posição de um dos maiores devedores do mundo para a de grande potência. A partir desse momento eles assumiram a tutela dos países da América Latina recém independentes de suas metrópoles europeias.
ESPERO TER AJUDADO
Perguntas similares
2 anos atrás
2 anos atrás
2 anos atrás
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás