• Matéria: História
  • Autor: dudaapk75
  • Perguntado 5 anos atrás

Quais as principais mudanças ocorreram no Brasil apos a chegada da família real?​

Respostas

respondido por: isabelabqs27
3

Resposta:

A principal consequência da vinda da família real para o Brasil foi a aceleração do processo de independência do país. Em 1815, com fim das guerras napoleônicas, o Brasil foi declarado parte do Reino Unido de Portugal e Algarves, deixando de ser uma colônia.

Explicação:espero ter ajudado


dudaapk75: obrigado
Perguntas similares