• Matéria: Geografia
  • Autor: balanoalvo12
  • Perguntado 8 anos atrás

fale sobre o imperialismo norte americano.

Respostas

respondido por: anabiazinha224p8c0j3
8
Império Americano (ou imperialismo norte-americano) é um termo que se refere à influência política, econômica, militar e cultural que os Estados Unidos exercem sobre o mundo atualmente, partindo do pressuposto que este país impõe seu poder de forma imperialista.
Perguntas similares