• Matéria: Sociologia
  • Autor: matheusmdsl15
  • Perguntado 9 anos atrás

Como o Brasil se tornou um país unificado ?

Respostas

respondido por: SrTrindade
0
Bom dia Matheus!
Vamos lá...
O Brasil se tornou unificado.. após ele avançar para frente..afim de se tornar independente! Assim que ele se tronou unificado! A independência fez com que ele se livrasse dos impostos que pagava para os Portugueses.. o que os colonizaram..
Espero ter te ajudado e Bons estudos!
Perguntas similares