Respostas
respondido por:
5
A principal consequência da vinda da família real para o Brasil foi a aceleração do processo de independência do país. Em 1815, com fim das guerras napoleônicas, o Brasil foi declarado parte do Reino Unido de Portugal e Algarves, deixando de ser uma colônia.
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
8 anos atrás