A colônia brasileira tornou-se independente de Portugal com a vinda da família real para o Brasil
Respostas
respondido por:
0
Resposta:
Em 1815, o Brasil foi declarado reino unido ao de Portugal e Algarves, deixando, assim, de ser uma colônia. Porém, com a vinda da família Real para o Brasil e sua estabilidade em território brasileiro, o caminho era para a unificação do País
Perguntas similares
3 anos atrás
3 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás