• Matéria: Sociologia
  • Autor: MaryanaCabral04
  • Perguntado 9 anos atrás

O que significa dizer que o Brasil é uma República Federativa

Respostas

respondido por: emilyfuly
66
Significa que o Brasil ao mesmo que tempo é uma República é uma Federação.
Como assim? Significa que por mais que haja um Presidente, os estados, entidades e afins possuem alguma autonomia governativa. 

Perguntas similares