• Matéria: História
  • Autor: yasminlopes330
  • Perguntado 8 anos atrás

O que legitimou o Brasil um Estado Imperial?

Respostas

respondido por: Anônimo
2
O Império do Brasil[3] (denominado pela historiografia também como Brasil ImpérioBrasil Imperial ou Brasil Monárquico) foi um Estado que existiu durante o século XIX e que compreendia grande parte dos territórios que formam o Brasil e o Uruguai atuais. De uma colônia do Reino de Portugal, o Brasil tornou-se a sede do governo do Império Português em 1808, quando o então príncipe regente de Portugal (que futuramente se tornaria o rei D. João VI) fugiu da invasão do território português pelas tropas de Napoleão Bonaparte e estabeleceu-se com a família real e a corte na cidade do Rio de Janeiro. D. João VI elevaria o Brasil à condição de reino unido com Portugal, sua ex-metrópole. Mais tarde, D. João VI retornou para Portugal, deixando seu herdeiro e filho mais velho, D. Pedro, na condição de Príncipe Regente do Brasil.
Perguntas similares