Respostas
respondido por:
2
Resposta:
Imperialismo norte-americano é uma referência ao comportamento autoritário de influência militar, cultural, política, geográfica e econômica dos Estados Unidos sobre os outros países. ... O conceito refere-se a império americano, considerando o comportamento político dos EUA a partir da segunda metade de 1800.
Perguntas similares
5 anos atrás
5 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás