• Matéria: História
  • Autor: kettanyb
  • Perguntado 7 anos atrás

Em 1815 o Brasil ternou se reino unido a Portugal e Algarves , o que isto significou para o país ?

Respostas

respondido por: trojaneroficial
3
Com isso, o Brasil deixou de ser colônia e foi elevado à categoria de reino. Embora não tivesse se tornado um país independente, passava a ter condição de igualdade com a antiga metrópole do reino, Portugal.
Perguntas similares