• Matéria: História
  • Autor: oliveira729
  • Perguntado 8 anos atrás

analise o imperialismo dos estados unidos na america

Respostas

respondido por: josecarlos42
3
Império Americano (ou imperialismonorte-americano) é um termo que se refere à influência política, econômica, militar e cultural que os Estados Unidos exercem sobre o mundo atualmente, partindo do pressuposto que este país impõe seu poder de forma imperialista.
Perguntas similares