• Matéria: Geografia
  • Autor: YURILEAH
  • Perguntado 5 anos atrás


Explique o que significa dizer que o Brasil é um "estado democrático de direito".

Respostas

respondido por: amadia778899u
4

Resposta:

O Estado democrático de direito é um conceito que se refere a um Estado em que existe o respeito pelos direitos humanos e pelas e garantias fundamentais. ... Isso significa que as decisões não podem ser contrárias ao que diz a lei e, dessa maneira, os direitos fundamentais dos cidadãos são protegidos.

Perguntas similares