Respostas
respondido por:
0
Mais que um simples título honorífico, tornar-se Reino significava para o Brasil ganhar um grande grau de autonomia política e legislativa, assim como ter os meios de arquitetar as suas próprias políticas econômicas.
Isto aconteceu em 1815 e deveria marcar o início de uma nova era nas relações entre ambos os países, de modo que o Brasil seria governado pelos brasileiros e para os brasileiros, em condição de quase igualdade com Portugal. As tentativas portuguesas de submeter novamente politicamente o Brasil acabaram inspirando os defensores da independência, que a declararam em 1822.
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás