• Matéria: Sociologia
  • Autor: kally91
  • Perguntado 7 anos atrás

O que significa direito civil?

Respostas

respondido por: thaata2307
1
Direito civil é um ramo do Direito que trata do conjunto de normas reguladoras dos direitos e obrigações de ordem privada concernente às pessoas, aos seus direitos e obrigações, aos bens e às suas relações.
Perguntas similares