• Matéria: Geografia
  • Autor: jamilesantos8874
  • Perguntado 4 anos atrás

o que foi o imperialismo dos Estados unidos sobre américa Latina? geografia​

Respostas

respondido por: lo12356
2

Resposta:

Imperialismo norte-americano é uma referência ao comportamento autoritário de influência militar, cultural, política, geográfica e econômica dos Estados Unidos sobre os outros países. ... O conceito refere-se a império americano, considerando o comportamento político dos EUA a partir da segunda metade de 1800.

Perguntas similares