Respostas
respondido por:
3
Resposta:
Os Impérios Coloniais foram resultado da Era dos Descobrimentos Europeia, que teve início com uma corrida exploratória entre as grandes potências marítimas: Portugal e Espanha.
Os principais impérios coloniais no século XIX foram a Inglaterra e França. Esses países dominavam diversos países africanos, sendo que a Inglaterra chegou a colonizar também alguns países da Ásia.
A França e a Inglaterra tinham também domínio sobre a parte norte da América.
Espero ter ajudado.
Bons estudos =)
Anexos:
Perguntas similares
4 anos atrás
4 anos atrás
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás