Depois da Independência o Brasil deixou de ser colônia de Portugal para se tornar colônia da Inglaterra??
Continuava existindo o exclusivo pacto colonial??
Quem fazia as leis para o Brasil??
Respostas
respondido por:
2
Resposta:
O fim dessa relação ocorreu somente em 1808 com a vinda da família real para o Brasil, quando D. João assinou uma Carta Régia onde o Brasil deixava de comercializar somente com Portugal.
Perguntas similares
3 anos atrás
3 anos atrás
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás