Médaille
N°1 pour apprendre & réviser du collège au lycée.
Droit positif
Définition

Définition

Le droit positif recouvre toutes les règles qu’instaure une société après sa création. Il s’agit donc du système juridique tel qu’on le connaît. Le droit naturel précède le droit positif. Le droit positif est différent suivant les États, le temps et le lieu.