• Matéria: Geografia
  • Autor: leticiasantosxavier5
  • Perguntado 3 anos atrás

quais os países que colonizam o continente africano​

Respostas

respondido por: joaovictorpf719
0

Resposta:

Diversos países colonizaram a África conhecida popularmente como neocolonialismo ou imperialismo, desses países os mais importantes foram o Reino Unido, França e EUA, contudo ainda teve a participação de países como Japão (durante a era Meiji), Itália e Alemanha que haviam recentemente sido unificadas, Bélgica, Países Baixos em resumo todos os países da Europa na época juntamente com o Japão e os EUA.

Perguntas similares