Respostas
respondido por:
1
Olá! O direito positivo é aquele direito que tem origem política ou social e é um direito coletivo, ou seja, é específico de uma sociedade e só é válido apenas nas comunidades em que foi criado. Espero ter ajudado, bjs
Perguntas similares
6 anos atrás
6 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás