Respostas
respondido por:
1
Direito do trabalho no Brasil se refere ao modo como o Estado brasileiro regula as relações de trabalho e as normas e conceitos importantes para o seu entendimento. As normas do direito do trabalho brasileiro estão regidas pela CLT (Consolidação das Leis do Trabalho), pela Constituição Federal e por várias leis esparsas (como a lei que define o trabalho do estagiário, dentre outras).
Perguntas similares
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás