por que é comum afirmar que o brasil deixou de ser colônia de portugal para se tornar "colônia" da Inglaterra?
Respostas
respondido por:
8
Após a emancipação do Brasil colônia, a Inglaterra começou a explorar nossa matéria prima e cobrar impostos, já que havia feito um acordo com Portugal. Portugal parou de nos "sugar" para dar lugar a Inglaterra.
Perguntas similares
7 anos atrás
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás