• Matéria: História
  • Autor: LucasBCP
  • Perguntado 9 anos atrás

Quais foram as mudanças ocorridas no Brasil após a chegada da família real?

Respostas

respondido por: byapeters
18
Fim do Pacto colonial,(abertura dos portos) Brasil se tornou Império Português, a cidade sofrei influências europeias.  Espero ter ajudado, xoxos

LucasBCP: obg pela resposta mas o Brasil é um país não uma cidade.
Perguntas similares