Définition du droit du travail

Qu’est ce que : Définition du droit du travail

Le droit du travail est le nom donné à l’ensemble des lois et des règles qui visent à réglementer et à ordonner les différents systèmes de travail qui caractérisent les êtres humains. Contrairement à de nombreux autres corps de droit, le droit du travail n’a sans doute pas de base coutumière ou établie antérieurement, puisqu’il n’est apparu à la suite des demandes des travailleurs et des ouvriers qu’aux XIXe et XXe siècles.L’objectif principal du droit du travail est d’établir et d’organiser l’ensemble des circonstances, des phénomènes et des situations qui peuvent survenir dans un tel domaine afin que l’activité en question puisse être exercée de manière sûre et appropriée pour les deux parties concernées : le travailleur et l’employeur. Or, l’un des principaux éléments que le droit du travail cherche à établir est la sécurité du travailleur, qui se trouve en position de minorité vis-à-vis de son employeur. La justice du travail s’attache à faire en sorte que le travailleur (mais pas seulement lui) voit ses droits satisfaits et respectés, tels que les congés payés, les congés, le nombre d’heures de travail, la fixation d’un salaire minimum ajustable si nécessaire, les allocations familiales, la sécurité sociale, les conditions de santé et de sécurité, etc. On considère que le droit du travail a commencé à se développer à partir des phénomènes de la révolution industrielle. Face à l’avance disproportionnée des abus des employeurs et aux protestations des grandes masses de travailleurs qui s’ensuivent, les États modernes ont dû établir des réglementations plus ou moins spécifiques visant à garantir le respect de certaines normes par les travailleurs. En mettant ces devoirs par écrit, le travailleur commençait à être officiellement protégé contre tout abus éventuel de la part de son employeur.