Respostas
respondido por:
0
Imperialismo norte-americano é uma expressão frequentemente utilizada para descrever um histórico de ações e doutrinas da política externa dos Estados Unidos que demonstram uma inequívoca intenção de controlar eventos em todo o mundo, de maneira que favoreça seus próprios interesses econômicos, políticos e estratégicos.
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás