Médaille
N°1 pour apprendre & réviser du collège au lycée.
Loi des grands nombres et concentration

Déjà plus de

1 million

d'inscrits !

Les images ne sont pas encore disponibles pour ce cours.

Celles présentes sont juste des « brouillons »
afin de permettre une meilleure compréhension du cours,
jusqu’à ce que les définitives soient prêtes.

Nos graphistes font tout leur possible pour les réaliser au plus vite.

😉

Ce cours s’inscrit dans la continuité du précédent sur les sommes de variables aléatoires, et il est fondé sur une propriété, très utile « techniquement » en probabilité et en statistique, appelée inégalité de Bienaymé-Tchebychev.
Celle-ci donne un moyen de contrôler l’écart entre les valeurs prises par une variable aléatoire et son espérance, en fonction de sa variance. Plus précisément, elle donne une majoration de la probabilité que l’écart soit grand. Elle sera donc l’objet de la première partie de ce cours.
Dans la deuxième partie, nous parlerons de l’inégalité de concentration, qui est obtenue grâce à l’inégalité de Bienaymé-Tchebychev appliquée à l’échantillon d’une variable aléatoire. Cette inégalité permet de déterminer la taille d’un échantillon en fonction de la précision (de l’écart) et du risque.
Elle permet également de donner une démonstration de la loi des grands nombres, qui sera étudiée dans la troisième partie.

Inégalité de Bienaymé-Tchebychev

Commençons donc par exprimer l’inégalité de Bienaymé-Tchebychev.

bannière propriete

Propriété

Inégalité de Bienaymé-Tchebychev :

Soit XX une variable aléatoire d’espérance μ\mu et de variance VV.
Pour tout réel δ\delta strictement positif, on a :

p(Xμδ)Vδ2p\big(\vert X-\mu \vert \geq \delta \big) \textcolor{FF4500} \leq \dfrac{V}{\delta^2}

  • La probabilité que l’écart entre XX et son espérance soit supérieur ou égal à δ\delta, est inférieure ou égale à Vδ2\frac V{\delta^2}.

Donnons une petite représentation graphique pour bien comprendre ce que nous dit cette inégalité ; nous pourrons ainsi savoir quand et comment l’utiliser.

  • Xμ\vert X-\mu \vert exprime la distance, ou l’écart, de XX à μ\mu.

Alt texte Image temporaire

Et nous nous intéressons au cas où cet écart est supérieur ou égal à δ\delta :

Xμδ{Xμδou : Xμδ{Xμδou : Xμ+δ\begin{aligned} \vert X-\mu \vert \geq \delta&\Leftrightarrow \begin{cases} X-\mu\leq -\delta \ \textcolor{#A9A9A9}{\text{ou\ :\ }} \ X-\mu\geq \delta \end{cases} \ &\Leftrightarrow \begin{cases} X \leq \mu - \delta \ \textcolor{#A9A9A9}{\text{ou\ :\ }} \ X\geq \mu + \delta \end{cases} \end{aligned}

Xμδ\vert X-\mu\vert\geq \delta signifie donc que XX appartient alors aux intervalles représentés par les demi-droites rouges.

  • L’inégalité de Bienaymé-Tchebychev majore ainsi la probabilité que l’écart entre XX et μ\mu soit supérieur à δ\delta.
  • Considérons maintenant l’événement suivant :

Xμ<δδ<Xμ<δμδ<X<μ+δ\begin{aligned} \vert X-\mu \vert < \delta &\Leftrightarrow -\delta < X -\mu < \delta \ &\Leftrightarrow \mu-\delta < X < \mu+\delta \end{aligned}

Nous voyons sur le schéma que cela correspond au cas où XX appartient à l’intervalle ouvert ]μδ ;μ+δ[]\mu-\delta\ ;\, \mu+\delta[ (en vert).
Nous nous rendons aussi compte qu’il s’agit de l’événement contraire de Xμδ\vert X-\mu \vert \geq \delta. Nous pouvons donc écrire :

p(Xμδ)=1p(Xμ<δ) p\big(\vert X-\mu \vert \geq \delta\big)= 1-p\big(\vert X-\mu\vert <\delta\big)

bannière à retenir

À retenir

Nous obtenons donc :

1p(Xμ<δ)Vδ2p(Xμ<δ)1Vδ2p(μδ<X<μ+δ)1Vδ2 p(X ]μδ ;μ+δ[)1Vδ2\begin{aligned} 1-p\big(\vert X-\mu\vert <\delta\big) &\textcolor{FF4500}\leq \dfrac{V}{\delta^2} \ \Leftrightarrow p\big(\vert X-\mu\vert <\delta\big) &\textcolor{FF4500}\geq 1-\dfrac{V}{\delta^2} \ \Leftrightarrow p\big(\mu-\delta < X < \mu+\delta\big) &\textcolor{FF4500}\geq 1-\dfrac{V}{\delta^2} \ \Leftrightarrow\ p\big(X\in\ ] \mu-\delta\ ;\, \mu+\delta[\big) &\textcolor{FF4500}\geq 1-\dfrac{V}{\delta^2} \end{aligned}

  • Grâce à l’inégalité de Bienaymé-Tchebychev, nous pouvons aussi minorer par 1Vδ21-\frac V{\delta^2} la probabilité que l’écart entre XX et μ\mu soit inférieur à un nombre donné δ\delta.

Nous allons prendre un exemple pour voir comment interpréter un résultat obtenu avec l’inégalité de Bienaymé-Tchebychev.

bannière exemple

Exemple

La consommation d’eau quotidienne, en litres, d’un·e Français·e pris·e au hasard dans la population est donnée par la variable aléatoire CC d’espérance μ=130\mu= 130 et de variance V=750V=750.
Nous nous intéressons à la probabilité que l’écart entre CC et l’espérance soit supérieur à 5050 litres.

On applique l’inégalité de Bienaymé-Tchebychev avec δ=50\delta = 50 :

p(Cμ50)V502p(C13050)750502=0,3p\big(\vert C-\mu\vert \geq 50\big) \textcolor{FF4500}\leq \dfrac{V}{50^2} \Leftrightarrow p\big(\vert C-130\vert \geq 50\big) \textcolor{FF4500}\leq \dfrac{750}{50^2}= 0,3

Pour bien comprendre ce que cela signifie, donnons l’équivalence suivante :

C13050{C13050ou : C13050={C80ou : C180\begin{aligned} \vert C-130 \vert \geq 50&\Leftrightarrow \begin{cases} C-130\leq -50 \ \textcolor{#A9A9A9}{\text{ou\ :\ }} \ C-130 \geq 50 \end{cases} \ &=\begin{cases} C\leq 80 \ \textcolor{#A9A9A9}{\text{ou\ :\ }} \ C\geq 180 \end{cases} \end{aligned}

  • Ainsi, la probabilité qu’un·e Français·e pris·e au hasard ait une consommation inférieure à 8080 litres ou supérieure à 180180 litres est inférieure ou égale à 0,30,3.
  • Autrement dit, la probabilité qu’un·e Français·e pris·e au hasard ait une consommation comprise entre 8080 et 180180 litres est supérieure à 0,70,7.
  • Ou encore, si nous choisissons au hasard un·e Français·e, il y a au moins 70%70\,\% de chance pour qu’il ou elle consomme entre 8080 et 180180 litres d’eau par jour.

De ce que nous venons de dire, retenons les points suivants, auxquels il faudra penser lors de la résolution d’exercices.

bannière à retenir

À retenir

  • Pour majorer une probabilité d’un événement du type XE(X)δ\vert X-E(X)\vert \geq \delta, on pense à appliquer l’inégalité de Bienaymé-Tchebychev.
  • On calcule, si elles ne sont pas données, l’espérance et la variance de la variable aléatoire.
  • De manière équivalente, on peut avoir une minoration de la probabilité que XX appartienne à un intervalle centré en E(X)E(X).
  • On peut interpréter concrètement les résultats dans les termes de l’énoncé en regardant l’intervalle ]E(X)δ ;E(X)+δ[]E(X)-\delta\ ;\,E(X)+ \delta[.

Allons maintenant un peu plus loin : nous savons que l’écart-type σ\sigma d’une variable aléatoire XX donne une indication sur la dispersion de XX autour de son espérance μ\mu.

  • Il est donc logique d’étudier des écarts entre XX et son espérance inférieurs ou supérieurs à quelques σ\sigma.

C’est ce que nous allons faire dans l’exemple suivant, en nous servant de l’inégalité de Bienaymé-Tchebychev.

bannière exemple

Exemple

Soit la variable aléatoire XX qui suit une loi binomiale de paramètres n=150n=150 et p=0,45p=0,45.

  • Commençons par calculer son espérance μ\mu, sa variance VV et son écart-type σ\sigma grâce aux propriétés de la loi binomiale que nous avons découvertes dans le cours précédent :

μ=np=150×0,45=67,5V=np(1p)=150×0,45×0,55=37,125σ=V=37,125\begin{aligned} \mu&=np \ &=150\times 0,45 \ &=67,5 \ \ V&=np(1-p) \ &=150\times 0,45\times 0,55 \ &=37,125 \ \ \sigma&=\sqrt{V} \ &=\sqrt{37,125} \end{aligned}

  • Appliquons l’inégalité de Bienaymé-Tchebychev avec δ=2σ\delta=2\sigma, en remarquant que V=σ2V=\sigma^2 :

p(Xμ2σ)σ2(2σ)2p(X67,5237,125)37,1252(237,125)214=0,25\begin{aligned} p\big(\vert X-\mu \vert \geq 2\sigma \big) &\textcolor{FF4500} \leq \dfrac{\sigma^2}{(2\sigma)^2} \ \Leftrightarrow p\big(\vert X-67,5 \vert \geq 2\sqrt{37,125} \big) &\textcolor{FF4500} \leq \dfrac{\sqrt{37,125}^2}{(2\sqrt{37,125})^2} \ &\textcolor{FF4500} \leq \dfrac{1}{4}=0,25 \end{aligned}

  • Cela signifie que la probabilité que l’écart entre XX et μ\mu soit supérieur à 2σ2\sigma est inférieure à 0,250,25, ce qui revient à dire que la probabilité que l’écart entre XX et μ\mu soit inférieur à 2σ2\sigma est supérieure à 0,750,75.
  • Continuons maintenant d’appliquer cette inégalité avec des écarts de 3σ3\sigma, 4σ4\sigma, 5σ5\sigma.

p(X67,5337,125)37,1252(337,125)2190,111p(X67,5437,125)37,1252(437,125)2116=0,0625p(X67,5537,125)37,1252(537,125)2125=0,04\begin{aligned} p\big(\vert X-67,5 \vert \geq 3\sqrt{37,125} \big) &\textcolor{FF4500} \leq \dfrac{\sqrt{37,125}^2}{(3\sqrt{37,125})^2} \ &\textcolor{FF4500} \leq \dfrac{1}{9}\approx 0,111 \ \ p\big(\vert X-67,5 \vert \geq 4\sqrt{37,125} \big) &\textcolor{FF4500} \leq \dfrac{\sqrt{37,125}^2}{(4\sqrt{37,125})^2} \ &\textcolor{FF4500} \leq \dfrac{1}{16}=0,0625 \ \ p\big(\vert X-67,5 \vert \geq 5\sqrt{37,125} \big) &\textcolor{FF4500} \leq \dfrac{\sqrt{37,125}^2}{(5\sqrt{37,125})^2} \ &\textcolor{FF4500} \leq \dfrac{1}{25}=0,04 \end{aligned}

  • Nous voyons que la probabilité d’avoir un écart supérieur à quelques σ\sigma ira en diminuant si on augmente le nombre de δ\delta.
bannière à retenir

À retenir

Ainsi, de cet exemple, nous pouvons déduire que des écarts entre XX et μ\mu supérieurs à quelques σ\sigma deviennent improbables.

bannière attention

Attention

Nous avons aussi vu que la probabilité que l’écart entre XX et μ\mu soit supérieur à 2σ2\sigma est majorée par 0,250,25.
Toutefois, si l’on simule une telle expérience, on se rend compte que la probabilité d’avoir un écart supérieur à 2σ2\sigma est souvent majorée par 0,050,05.

  • L’inégalité de Bienaymé-Tchebychev est vraie, mais elle n’est pas optimale car on peut encadrer/majorer plus précisément cette probabilité.

Inégalité de concentration

Nous allons maintenant appliquer l’inégalité de Bienaymé-Tchebychev à la moyenne d’un échantillon d’une variable aléatoire.

Considérons un échantillon de taille nn de la variable aléatoire XX, d’espérance μ\mu et de variance VV.
Et considérons MnM_n la variable aléatoire moyenne de cet échantillon.

En appliquant l’inégalité de Bienaymé-Tchebychev à MnM_n, avec δ\delta un réel strictement positif, nous obtenons :

p(MnE(Mn)δ)V(Mn)δ2p\big(\vert Mn-E(Mn) \vert \geq \delta \big) \textcolor{FF4500} \leq \dfrac{V(M_n)}{\delta^2}

Or, par les propriétés vues dans le cours précédent, nous avons :

E(Mn)=μV(Mn)=Vn\begin{aligned} E(Mn)&=\mu \ V(Mn)&=\dfrac Vn \end{aligned}

Nous avons donc :

p(Mnμδ)Vnδ2Vnδ2\begin{aligned} p\big(\vert M_n-\mu \vert \geq \delta \big) &\textcolor{FF4500} \leq \dfrac{\frac Vn}{\delta^2} \ &\textcolor{FF4500} \leq \dfrac{ V}{n\delta^2} \end{aligned}

  • Nous obtenons une inégalité dite de concentration.
bannière propriete

Propriété

Inégalité de concentration :

Soit (X1,X2,...,Xn)(X1,\,X2,\,…,\,Xn) un échantillon de taille nn de la variables aléatoire XX, d’espérance μ\mu et de variance VV.
Soit MnM
n la variable aléatoire moyenne de cet échantillon :

Mn=X1+X2+...+XnnMn=\dfrac{X1+X2+…+Xn}n

Alors, pour tout réel δ\delta strictement positif, on a :

p(Mnμδ)Vnδ2p\big(\vert M_n-\mu\vert \geq\delta\big) \textcolor{#FF4500}\leq \dfrac V{n\delta^2}

  • À partir de cette inégalité, on dit qu’on obtient pour MnM_n une précision de δ\delta et un risque de Vnδ2\frac V{n\delta^2}.

Comme dans la première partie, nous pouvons considérer l’événement contraire de Mnμδ\vert Mn-\mu\vert \geq\delta, à savoir : Mnμ<δ\vert Mn-\mu\vert <\delta.

bannière à retenir

À retenir

L’inégalité de concentration peut alors être écrite de la façon suivante :

p(Mnμ<δ)1Vnδ2p(μδ<Mn<μ+δ)1Vnδ2p(Mn ]μδ ;μ+δ[)1Vnδ2\begin{aligned} p(\vert Mn-\mu\vert <\delta) &\textcolor{#FF4500}\geq 1-\dfrac V{n\delta^2} \ \Leftrightarrow p\big(\mu-\delta < Mn <\mu+\delta\big) &\textcolor{FF4500}\geq 1-\dfrac{V}{n\delta^2} \ \Leftrightarrow p(M_n\in\ ]\mu-\delta\ ;\, \mu+\delta[\big)&\textcolor{#FF4500}\geq 1-\dfrac V{n\delta^2} \end{aligned}

Concrètement, l’inégalité de concentration nous dit :

  • que nous pouvons majorer la probabilité que l’écart entre MnM_n et μ\mu soit supérieur à un nombre donné δ\delta ;
  • que nous pouvons minorer la probabilité que l’écart entre MnM_n et μ\mu soit inférieur à un nombre donné δ\delta.

L’inégalité de concentration permet notamment de déterminer la taille d’un échantillon en fonction d’une précision et d’un risque fixés.
L’exemple suivant va nous donner une méthodologie pour résoudre de tels problèmes.

bannière exemple

Exemple

Un institut politique a pour projet de constituer un échantillon de personnes tirées au sort parmi celles inscrites sur les listes électorales. Il s’intéresse plus particulièrement à leur participation au premier tour des dernières élections.
Sachant que la participation était de 45%45\,\% et afin d’avoir une représentativité la plus fidèle du corps électoral, l’institut souhaite connaître la taille minimale de l’échantillon à constituer pour être sûr, au moins à 95 %95\ \%, que le taux de participation en son sein sera compris entre 41%41\,\% et 49%49\,\%.
Nous considérons en outre que le nombre d’inscrits sur les listes électorales est suffisamment grand pour que la constitution de l’échantillon soit assimilée à un tirage avec remise.

  • Soit la variable aléatoire XX qui, pour chaque personne tirée au sort, prend la valeur 11 si elle a voté et 00 si elle s’est abstenue.

La variable XX suit une loi de Bernoulli, de paramètre p=0,45p=0,45.

  • Nous en déduisons l’espérance μ\mu et la variance VV :

μ=p=0,45V=p(1p)=0,45×0,55=0,2475\begin{aligned} \mu&=p \ &=0,45 \ V&=p(1-p) \ &=0,45\times 0,55 \ &=0,2475 \end{aligned}

  • Traduisons mathématiquement l’énoncé.

Considérons d’abord (X1,X2,,Xn)(X1,\,X2,\,…,\,Xn) un échantillon de taille nn de la variable aléatoire XX.
Considérons ensuite MnM
n, la variable aléatoire moyenne de l’échantillon.

  • Elle donnera le taux de participation dans cet échantillon.

Nous souhaitons donc trouver nn tel que la probabilité que MnM_n soit comprise entre 0,410,41 (41%41\,\%) et 0,490,49 (49%49\,\%) est supérieure ou égale à 0,950,95 (95%95\,\%) :

p(0,41<Mn<0,49)0,95p\big(0,41< M_n < 0,49\big) \textcolor{#FF4500}\geq 0,95

  • Cela doit nous faire penser immédiatement à l’inégalité de concentration.

Il faut donc commencer par faire apparaître l’écart entre MnM_n et l’espérance μ=0,45\mu=0,45 de XX :

0,41<Mn<0,490,41μ<Mnμ<0,49μ0,410,45<Mn0,45<0,490,450,04<Mn0,45<0,04Mn0,45<0,04\begin{aligned} 0,41< Mn < 0,49 &\Leftrightarrow 0,41-\mu< Mn-\mu < 0,49-\mu \ &\Leftrightarrow 0,41-0,45< Mn-0,45 < 0,49-0,45 \ &\Leftrightarrow -0,04< Mn-0,45 < 0,04 \ &\Leftrightarrow\vert M_n-0,45\vert < 0,04 \end{aligned}

  • Nous obtenons donc :

p(0,41<Mn<0,49)=p(Mn0,45<0,04)0,95p\big( 0,41< Mn < 0,49\big) = p\big(\vert Mn-0,45\vert < 0,04\big) \textcolor{#FF4500}\geq 0,95

  • Ensuite, pour nous rapprocher de l’inégalité de concentration, nous allons nous intéresser à l’événement contraire : Mn0,450,04\vert M_n-0,45\vert \geq 0,04 :

p(Mn0,45<0,04)=1p(Mn0,450,04)p\big(\vert Mn-0,45\vert < 0,04\big)=1- p\big(\vert Mn-0,45\vert \geq 0,04\big)

Nous obtenons alors :

p(Mn0,45<0,04)0,951p(Mn0,450,04)0,95p(Mn0,450,04)0,05\begin{aligned} p\big(\vert Mn-0,45\vert < 0,04\big) &\textcolor{#FF4500}\geq 0,95 \ \Leftrightarrow 1- p\big(\vert Mn-0,45\vert \geq 0,04\big) &\textcolor{#FF4500}\geq 0,95 \ \Leftrightarrow p\big(\vert M_n-0,45\vert \geq 0,04\big) &\textcolor{#FF4500}\leq 0,05 \end{aligned}

  • MnM_n est obtenu avec une précision de 0,040,04 et un risque de 5%5\,\%.
  • Nous pouvons donc maintenant appliquer l’inégalité de concentration (avec δ=0,04\delta=0,04) :

p(Mn0,450,04)Vn×0,042 p\big(\vert M_n-0,45\vert \geq 0,04\big) \textcolor{#FF4500}\leq \dfrac V{n\times 0,04^2}

Pour que cette probabilité soit inférieure à 0,050,05, il suffit que Vn×0,042\frac V{n\times 0,04^2} soit inférieur à 0,050,05.
On résout donc cette dernière inégalité pour estimer la taille nn de l’échantillon qui correspond aux conditions de l’énoncé.

Vn×0,0420,050,2475n×0,0420,05n0,24750,042×0,05n3093,75\begin{aligned} \dfrac {V}{n\times 0,04^2} \leq 0,05 &\Leftrightarrow \dfrac {0,2475}{n\times 0,04^2} \leq 0,05 \ &\Leftrightarrow n \geq \dfrac{0,2475}{0,04^2\times 0,05} \ &\Leftrightarrow n\geq 3\,093,75 \ \end{aligned}

  • nn doit donc être un entier supérieur ou égal à 3093,753\,093,75, soit :

n3094n\geq 3\,094

  • Pour être sûr au moins à 95%95\,\% que, dans l’échantillon, le taux de participation au premier tour des élections les plus récentes sera compris entre 41%41\,\% et 49%49\,\%, l’institut devra constituer un échantillon d’au moins 30943\,094 personnes.

Vérifions notre résultat en prenant un échantillon de 31003\,100 personnes. L’inégalité de concentration donne alors :

p(M31000,450,04)0,24753100×0,042p\big(\vert M_{3\,100}-0,45\vert \geq 0,04\big) \textcolor{#FF4500}\leq \dfrac {0,2475}{3\,100\times 0,04^2}

Ce qui est équivalent à :

p(M31000,45<0,04)10,24753100×0,0420,9501p\big(\vert M_{3\,100}-0,45\vert < 0,04\big) \textcolor{#FF4500}\geq 1-\dfrac {0,2475}{3\,100\times 0,04^2}\approx 0,9501

  • Dans un échantillon de 31003\,100 personnes, le taux de participation sera compris entre 41%41\,\% et 49%49\,\% avec un degré de confiance d’au moins 95%95\,\%.

Remarquons que, si l’institut considérait que l’échantillon était trop grand à constituer, pour des raisons économiques ou d’organisation, il devrait accepter soit d’agrandir l’intervalle possible pour la moyenne – au risque d’avoir une majorité de votants dans l’échantillon, ce qui ne refléterait pas la réalité –, soit d’avoir un degré de confiance moindre.

bannière astuce

Astuce

Dans l’exemple ci-dessus, nous sommes revenus à la majoration de la probabilité que l’écart soit grand, et ce afin de bien montrer toutes les étapes du raisonnement.
Nous aurions toutefois pu utiliser la deuxième écriture que nous avons donnée pour arriver directement à :

p(Mnμ<0,04)10,2475n×0,042p(\vert M_n-\mu\vert <0,04) \textcolor{#FF4500}\geq 1-\dfrac {0,2475}{n\times 0,04^2}

Si on veut que cette probabilité soit supérieure à 0,950,95, il suffit que 10,2475n×0,0421-\frac {0,2475}{n\times 0,04^2} soit supérieur à 0,950,95.

  • C’est cette dernière inéquation que l’on résout, et elle est équivalente à celle que nous avions obtenue :

10,2475n×0,0420,950,2475n×0,0420,051-\dfrac{0,2475}{n\times 0,04^2}\geq 0,95 \Leftrightarrow \dfrac{0,2475}{n\times 0,04^2}\leq 0,05

Loi des grands nombres

Ce que nous venons de voir nous ramène à la loi des grands nombres, qui a été évoquée en seconde mais dont nous allons donner une expression plus formelle.

bannière propriete

Propriété

Loi des grands nombres :

Soit (X1,X2,...,Xn)(X1,\,X2,\,…,\,Xn) un échantillon de taille nn de la variables aléatoire XX, d’espérance μ\mu.
Soit MnM
n la variable aléatoire moyenne de cet échantillon.
Alors, pour tout réel strictement positif δ\delta :

limn+p(Mnμδ)=0\lim\limits{n \to +\infty} p\big( \vert Mn-\mu \vert \geq \delta \big)=0

Donnons une démonstration de cette loi grâce à l’inégalité de concentration.

bannière demonstration

Démonstration

Soit VV la variance de la variable aléatoire XX.
Nous avons alors :

p(Mnμδ)Vnδ2p\big(\vert M_n-\mu\vert \geq\delta\big) \textcolor{#FF4500}\leq \dfrac V{n\delta^2}

Par quotient des limites, VV et δ\delta étant des constantes :

limn+Vnδ2=0\lim\limits_{n \to +\infty} \dfrac V{n\delta^2}=0

Or, p(Mnμδ)p\big(\vert M_n-\mu\vert \geq\delta\big) est une probabilité, elle est donc supérieure ou égale à 00.
Nous avons ainsi l’encadrement suivant :

0p(Mnμδ)Vnδ20\textcolor{#FF4500}\leq p\big(\vert M_n-\mu\vert \geq\delta\big) \textcolor{#FF4500}\leq \dfrac V{n\delta^2}

  • Finalement, par le théorème d’encadrement (ou des gendarmes), nous obtenons :

limn+p(Mnμδ)=0\lim\limits{n \to +\infty} p\big( \vert Mn-\mu \vert \geq \delta \big)=0

bannière à retenir

À retenir

Concrètement, la loi des grands nombres, fondamentale en probabilité et en statistique, nous dit que la moyenne d’un échantillon d’une variable aléatoire XX se rapproche d’autant plus de son espérance que la taille nn de l’échantillon est grande.

Pour conclure ce cours, précisons que nous avons donné la loi « faible » des grands nombres.

  • Il existe une loi « forte » des grands nombres, que nous n’avons pas abordée car elle dépasse le cadre de la terminale, et vous la découvrirez sans doute durant vos études supérieures.

Conclusion :

Ce cours nous a permis de découvrir des formules d’une importance majeure en probabilité : l’inégalité de Bienaymé-Tchebychev, dont nous avons déduit l’inégalité de concentration.
Et nous avons conclu notre chapitre avec la loi fondamentale de la théorie des probabilités : la loi des grands nombres. Celle-ci ouvre la porte à des applications très nombreuses, notamment en statistique, par exemple pour élaborer des sondages les plus fiables possibles.