Définition de droit
Droit : Le mot droit provient du terme latin directum, qui veut dire « en ligne droite ». Le droit s’inspire des postulats de justice et constitue l’ensemble des règles qui régissent la conduite de l’homme en société. La base du droit sont les rapports sociaux, lesquels déterminent son contenu et son caractère. Vu sous cet angle, le droit est l’ensemble des règles permettant de résoudre les conflits au sein d’une société.