• Matéria: História
  • Autor: evellybeatriz2pdtmgj
  • Perguntado 7 anos atrás

o que aconteceu com o Brasil em 1815

Respostas

respondido por: AlexandreIPS
8

O Brasil foi elevado a condição de reino unido, tinha praticamente o mesmo status de Portugal, que outrora fora sua metrópole. Surgia assim o Reino Unido de Brasil, Portugal e Algarves.

Espero ter ajudado! :)

Perguntas similares