• Matéria: História
  • Autor: Bobby111
  • Perguntado 9 anos atrás

por que é comum afirmar que o brasil deixou de ser colônia de portugal para se tornar "colônia" da Inglaterra?

Respostas

respondido por: ErynL
8
Após a emancipação do Brasil colônia, a Inglaterra começou a explorar nossa matéria prima e cobrar impostos, já que havia feito um acordo com Portugal. Portugal parou de nos "sugar" para dar lugar a Inglaterra.
Perguntas similares