• Matéria: História
  • Autor: vit2834
  • Perguntado 7 anos atrás

o Brasil se tornou realmente um país independe?justifique sua resposta​

Respostas

respondido por: RenegadeThomaz
1

Sim, tornou-se independente de Portugal no dia 7 de Setembro de 1822, proclamado por Dom Pedro. Depois da Independência ele continuou tendo seus problemas sociais inflamados pelo descaso do governo que ainda era regido por oligárquicos e que favoreciam os grande comerciantes, dono de terras e a segregação negra continuava em crescente avanço, as melhorias vieram depois da abolição da escravatura, onde ocorreu uma súbita entrada de negros na sociedade, mas, também houve melhorias na independência

brasileira, como liberdade econômica e política, mas tirando essas, a mudança não foi significativa, principalmente no âmbito social.

Espero ter ajudado!


vit2834: obg,mas era pra dizer se algo mudou desde o grito do Ipiranga,e se sim onde ocorreu essas mudanças
RenegadeThomaz: mudou em que sentido?
vit2834: se o nosso país melhorou,no meio de trabalho,na política...
Perguntas similares