Le droit du travail est un ensemble de règles qui visent à régir la relation entre un salarié et l’employeur. Cela veut dire que c’est faux de croire qu’il s’agit d’un domaine juridique réservé aux employés. En effet, il...