• Matéria: História
  • Autor: selinemacedo
  • Perguntado 4 anos atrás

Quais os principais países dominaram colônias na América?

Respostas

respondido por: rayssarauany
2

Resposta:

O colonialismo refere-se a ocupação de territórios (colônias) na América e na Costa Africana por países europeus (Portugal, Espanha e França) e pela Inglaterra, durante os séculos XIV e XVII.

Perguntas similares