Respostas
respondido por:
2
Resposta:
Imperialismo: é a prática através da qual, nações poderosas procuram ampliar e manter controle ou influência sobre povos ou nações mais pobres.
Império Americano é um termo que se refere à influência política, econômica, militar e cultural que os Estados Unidos exercem sobre o mundo atualmente, partindo do pressuposto que este país impõe seu poder de forma imperialista. Esse conceito se popularizou após o fim da Guerra Hispano-Americana de 1898.
Perguntas similares
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás