• Matéria: Biologia
  • Autor: lorraynegatinh2
  • Perguntado 8 anos atrás

O que significa dizer que o brasil vive em estado democrático de direito?

Respostas

respondido por: mylennacrystiap8fe52
5
O Brasil viver em um Estado democrático, por que o regime de governo em que o poder de tomar importantes decisões políticas está com os cidadãos (direta ou indiretamente)
Mas não é isso que se ver na praticar no Brasil...
Perguntas similares