• Matéria: Geografia
  • Autor: pequena1231
  • Perguntado 9 anos atrás

Quais são os principais países que colonizaram a África? E por quais motivos tiveram interesse nesse continente?

Respostas

respondido por: dudu8284
3
Alemanha, Bélgica, Espanha, França, Ingleterra, Itália & Portugal.
Africa ainda tinha as maiores minas de diamante e grande quantidades de ouro.
É também tinha muitos elefantes que eles tiravam o marfin. 
Perguntas similares