Respostas
respondido por:
2
Com o fim do dominio de portugal o Brasil conquistou sua autonomia. E com isso a inglaterra começou a comercializar com o brasil já que não tinha mais o Pacto Colonial. O Brasil começou a vender materia prima pra Inglaterra e em troca eles vendiam seus produtos. Enfraquecendo assim, o poder que portugal detinha sobre a colônia, o que culminou mais tarde com a independência
Perguntas similares
7 anos atrás
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás