Respostas
respondido por:
7
Resposta:
antes o Brasil era uma colonia de exploração,era roubado,espoliado
laifomotopecas:
brigado
respondido por:
13
Resposta:
Antes o Brasil era uma colônia de exploração, era roubado, espoliado. Quando a Família Real veio, trouxe o estatos de Reino, logo depois virou Império. ... A vinda da família real portuguesa foi o início da descolonizaçao, uma maior autonomia econômica de mais destaque facilitou o caminho rumo a independência.
Explicação:
estava em meu caderno, vê se tá certo. bons estudos!
Perguntas similares
5 anos atrás
5 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás