Médaille
N°1 pour apprendre & réviser du collège au lycée.
Droit naturel
Définition

Définition

Le droit est créé afin de régler les relations entre les hommes. Le droit naturel serait un ensemble de règles formées nécessairement pour que l’homme puisse vivre et se développer. Ce serait donc un processus naturel, une action de la raison pour permettre à l’homme de vivre en société. Ce sont des lois préalables au fondement d’une société et indispensables à la vie de l’homme.