• Matéria: Direito
  • Autor: natana1611
  • Perguntado 7 anos atrás

O que é direito positivo é direito natural

Respostas

respondido por: Medusa0br
1

O direito natural,é o direito inerente a todo ser humano, desde quando nascido.

Este direito se baseia nos princípios humanos e na moral.

Perguntas similares