Respostas
Resposta:
olá
Colonialismo é a política de exercer o controle ou a autoridade sobre um território ocupado e administrado por um grupo de indivíduos com poder militar, ou por representantes do governo de um país ao qual esse território não pertencia, contra a vontade dos seus habitantes que, muitas vezes, são desapossados de parte dos seus bens (como terra arável ou de pastagem) e de eventuais direitos políticos que detinham.[1]
O termo colônia vem do latim, designando o estabelecimento de comunidades de Romanos, geralmente para fins agrícolas, fora do território de Roma. Ao longo da história, a formação de colônias foi a forma como o ser humano se espalhou pelo mundo assim como seu discurso contraditório.[2]
A exploração desenfreada dos recursos dos territórios ocupados — incluindo a sua população, quase totalmente aniquilada, como aconteceu nas Américas, ou transformada em escravos que espalharam pelo resto do mundo, como na África — levou a movimentos de resistência dos povos locais e, finalmente à sua independência, num processo denominado descolonização, terminando estes impérios coloniais em meados da segunda metade do século XX.[3]