Définition
Empire colonial français

Il s’agit de l’ensemble des territoires colonisés par la France.