Définition
Le Nord

Le Nord désigne l’ensemble des pays industriels et développés. Il regroupe l’Amérique du Nord, l’Europe, l’Australie, la Nouvelle-Zélande et le Japon. On l’appelle ainsi car la majorité des pays qui le composent sont situés au nord de l’équateur (tous, sauf l’Australie et la Nouvelle-Zélande).