• Matéria: História
  • Autor: aninhasouzagoes
  • Perguntado 8 anos atrás

o que foi o imperialismo americano?

Respostas

respondido por: Candys
7
Império Americano é um termo que se refere à influência política, econômica, militar e cultural que os Estados Unidos exercem sobre o mundo atualmente, partindo do pressuposto que este país impõe seu poder de forma imperialista. Esse conceito se popularizou após o fim da Guerra Hispano-Americana de 1898.
Perguntas similares