• Matéria: História
  • Autor: levyhadassa9
  • Perguntado 3 anos atrás

que é império americano​

Respostas

respondido por: bellasantos844
0

Resposta:

Imperialismo norte-americano ou imperialismo americano é um termo que se refere à influência política, econômica, militar e cultural que os Estados Unidos exercem sobre o mundo atualmente, partindo do pressuposto que este país impõe seu poder de forma imperialista.

Explicação:

espero ter ajudado.

Perguntas similares