• Matéria: História
  • Autor: fabriciosvaraupdu7l4
  • Perguntado 7 anos atrás

Como foi o imperialismo nos Estados Unidos?

Respostas

respondido por: thiagomusuris
6

Império Americano (ou imperialismo norte-americano) é um termo que se refere à influência política, econômica, militar e cultural que os Estados Unidos exercem sobre o mundo atualmente, partindo do pressuposto que este país impõe seu poder de forma imperialista.

Perguntas similares