Médaille
N°1 pour apprendre & réviser du collège au lycée.
Le Nord
Définition

Définition

Le Nord désigne l’ensemble des pays industriels et développés. Il regroupe l’Amérique du Nord, l’Europe, l’Australie, la Nouvelle-Zélande et le Japon. On l’appelle ainsi car la majorité des pays qui le composent sont situés au nord de l’équateur (tous, sauf l’Australie et la Nouvelle-Zélande).