Médaille
N°1 pour apprendre & réviser du collège au lycée.
Contrat social
Définition

Définition

Le contrat social est un accord par lequel les hommes constituent le pouvoir commun de manière libre, consentie et volontaire. Cette association dans et par laquelle tous les hommes peuvent coexister de manière pacifique se nomme État civil.