• Matéria: História
  • Autor: Sophie111
  • Perguntado 9 anos atrás

Em 1815 o Brasil tornou se Reino Unido a Portugal e algarves o que isso significou para o país

Respostas

respondido por: delayofgame2009
80
Olá,

Tem relação a importância pois representou uma grande promoção em relação a metrópole, o Brasil era basicamente a capital, onde o rei estava e onde tudo era feito.

Abraço.
Perguntas similares