Respostas
respondido por:
7
O Brasil era colônia de Portugal, e gerava lucro por conta de suas terras, mas após a insatisfação e as elites brasileiras perceberem que Portugal apenas os tratava com fins colonias.
De forma resumida seria isso.
feijaobarato:
obrigado !
Perguntas similares
3 anos atrás
3 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás