Définition
Droit positif

Le droit positif recouvre toutes les règles qu’instaure une société après sa création. Il s’agit donc du système juridique tel qu’on le connaît. Le droit naturel précède le droit positif. Le droit positif est différent suivant les États, le temps et le lieu.