• Matéria: História
  • Autor: andremac820
  • Perguntado 5 anos atrás

O que significa dizer "imperialismo estadunidense" ?​

Respostas

respondido por: flucasqueiroz10
2

Explicação:

Que os Estado Unidos que impor sua influência perante os outros países.

respondido por: arianeschmidt098
3
Imperialismo norte-americano é uma referência ao comportamento autoritário de influência militar, cultural, política, geográfica e econômica dos Estados Unidos sobre os outros países. ... O conceito refere-se a império americano, considerando o comportamento político dos EUA a partir da segunda metade de 1800.
Perguntas similares