• Matéria: História
  • Autor: lucia7451
  • Perguntado 4 anos atrás

o que mudou desde que o Brasil
se tornou a República?​

Respostas

respondido por: kailcavmarini
1

Resposta:

Com a Proclamação da República, o Brasil tornou-se um país federalista, isto é, as províncias (renomeadas agora de estados) passaram a ter mais autonomia em relação ao Governo Federal, e foi adotado o presidencialismo, como determinou a Constituição de 1891.

Perguntas similares