• Matéria: Filosofia
  • Autor: cassiaMyrele
  • Perguntado 9 anos atrás

O que é direito positivo?

Respostas

respondido por: joaohenrique2001
1
Direito Positivo é direito escrito, gravado nas Leis, Códigos e na Constituição Federal em determinados países como por o exemplo o Brasil que adotam este sistema (diferentemente do direito comum (adotado por exemplo em países de origem britânica), do direito natural (jusnaturalismo) e consuetudinário. O Direito Positivo deve ser respeitado pela sociedade como um todo, e quando da violação destas normas deve ser aplicado pelo juiz na condição de intérprete e aplicador da lei, o direito que normatiza, tipifica determinado conduta com uma sanção pelo Estado, não podendo o juiz afastar-se da determinação legal em respeito aos princípios constitucionais do devido processo legal e da ampla defesa e do contraditório.
Perguntas similares