• Matéria: História
  • Autor: jp067
  • Perguntado 6 anos atrás

Quando se deu o início do imperialismo e qual o significado de imperialismo??​

Respostas

respondido por: fabiolaferreira564
10

Resposta:

Como dito, o Imperialismo é a política de expansão e domínio territorial ou cultural e econômico de uma nação sobre outra, e ocorreu na época da Segunda Revolução Industrial. No entanto, no colonialismo, os países colonizados perdiam a sua soberania e o controle político e eram anexados ao país dominante.

Perguntas similares