Respostas
respondido por:
3
Resposta:
Imperialismo norte-americano é uma referência ao comportamento autoritário de influência militar, cultural, política, geográfica e econômica dos Estados Unidos sobre os outros países. É por meio dessa prática que sucessivos governos dos EUA mantêm o controle econômico de diversas nações.
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
7 anos atrás
7 anos atrás