Le droit du travail est né d’une volonté de protéger les enfants soumis à des conditions de vie au travail insupportables. Il est devenu un outil de régulation des relations entre employeurs et salariés afin de préserver ces derniers du déséquilibre inhérent au contrat de travail.
Le droit du travail englobe notamment la formation du contrat de travail, son exécution et sa rupture ainsi que les relations collectives du travail.

