• Matéria: Sociologia
  • Autor: paivacarolina1oy6b6u
  • Perguntado 8 anos atrás

Conquista do trabalho no Brasil? ME AJUDEM É URGENTE, POR FAVOR

Respostas

respondido por: aportamagica
1
 Direito do trabalho no Brasil se refere ao modo como o Estado brasileiro regula as relações de trabalho e as normas e conceitos importantes para o seu entendimento. As normas do direito do trabalho brasileiro estão regidas pela CLT (Consolidação das Leis do Trabalho), pela Constituição Federal e por várias leis esparsas (como a lei que define o trabalho do estagiário, dentre outras).
Perguntas similares