Respostas
respondido por:
1
O imperialismo norte-americano é um termo utilizado para descrever ações e doutrinas, tais como, influência política, econômica, militar e cultural, e que os Estados Unidos demonstram uma inequívoca intenção de controlar eventos em todo o mundo, de maneira que favoreça seus próprios interesses econômicos, políticos e estratégicos.
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás