Respostas
respondido por:
2
Resposta:
Antes o Brasil era uma colônia de exploração, era roubado, espoliado. Quando a Família Real veio, trouxe o estatos de Reino, logo depois virou Império. ... A vinda da família real portuguesa foi o início da descolonizaçao, uma maior autonomia econômica de mais destaque facilitou o caminho rumo a independência
Explicação:
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás