• Matéria: Sociologia
  • Autor: joselansone
  • Perguntado 3 anos atrás

quais sao os direitos do trabalhador garantidos por lei​

Respostas

respondido por: Anônimo
0

Resposta:

Direito do trabalho é o ramo jurídico que estuda as relações de trabalho. Esse direito é composto de conjuntos de normas, princípios e outras fontes jurídicas que regem as relações de trabalho, regulamentando a condição jurídica dos trabalhadores.

Perguntas similares