• Matéria: História
  • Autor: nicolle9735
  • Perguntado 4 anos atrás

Depois da Independência o Brasil deixou de ser colônia de Portugal para se tornar colônia da Inglaterra??
Continuava existindo o exclusivo pacto colonial??
Quem fazia as leis para o Brasil??​​

Respostas

respondido por: gabrielcamarogtav
2

Resposta:

O fim dessa relação ocorreu somente em 1808 com a vinda da família real para o Brasil, quando D. João assinou uma Carta Régia onde o Brasil deixava de comercializar somente com Portugal.

Perguntas similares