• Matéria: História
  • Autor: Anônimo
  • Perguntado 6 anos atrás

O que significa dizer que o Brasil deixa de ser uma colônia para se dominar o Reino Unido?​

Respostas

respondido por: er0902702
17

Resposta:

Em 1815, no Rio de Janeiro, o príncipe regente português dom João VI assinou um decreto que criava o Reino Unido de Portugal, Brasil e Algarves. Com isso, o Brasil deixou de ser colônia e foi elevado à categoria de reino. ... E o governo de Portugal desde 1808 estava instalado no Brasil, que era sua colônia.

Explicação:

espero ter ajudado^-^

Perguntas similares