• Matéria: História
  • Autor: leo201575
  • Perguntado 7 anos atrás

O que significa dizer que o Brasil se tornou independente de Portugal?

Respostas

respondido por: Hipácia
18

Significa que o Brasil deixou de ser administrado por Portugal e passou a se auto-governar.

respondido por: Ninjago74
4
Que o Brasil se tornou um país independente, ou seja, que ele não dependerá mas de Portugal para tomar decisões, que ele poderá fazer o que quiser como por exemplo determinar um método de governo sem nenhuma permissão de Portugal. Independente significa ser livre para fazer as escolhas que quiser.
Perguntas similares