• Matéria: História
  • Autor: luis112rrr
  • Perguntado 9 anos atrás

que significa afirmar que o Brasil é uma República Federativa

Respostas

respondido por: romulomendes10
6
Significa afirmar que o Brasil é um estado composto por determinado número de regiões com governo próprio (chamados de estados) e unidos sob um governo federal. Numa federação, ao contrário do que acontece num estado unitário, o direito de autogoverno de cada região autônoma está consignado constitucionalmente e não pode ser revogado por uma decisão unilateral do governo central.
Perguntas similares