• Matéria: História
  • Autor: isabellagoetten
  • Perguntado 5 anos atrás


Qual foram os principais países que colonizaram o brasil além de Portugal
(quero saber apenas o nome dos países)

Respostas

respondido por: viniguizi12
1

Resposta:

O país que colonizou o Brasil foi Portugal, mas também participaram da colonização Holanda, França, Alemanha, Espanha e Itália.

Perguntas similares