Loi des grands nombres et concentration

information-icon

Si tu es un lycéen en terminale, tu dois déjà avoir planifié tes révisions pour ton baccalauréat 2024. Si ce n’est pas le cas, tu peux te baser sur notre programme de révision en le planifiant en fonction des dates du bac 2024 ou des coefficients des matières … 💪

Inégalité de Bienaymé-Tchebychev

  • Soit $X$ une variable aléatoire d’espérance $\mu$ et de variance $V$.
  • Pour tout réel $\delta$ strictement positif, on a :

$$\begin{aligned} p\big(\vert X-\mu \vert \geq \delta \big) &\textcolor{FF4500} \leq \dfrac{V}{\delta^2} \\ \Leftrightarrow p\big(\vert X-\mu\vert <\delta\big) &\textcolor{FF4500}\geq 1-\dfrac{V}{\delta^2} \end{aligned}$$

  • La probabilité que l’écart entre $X$ et son espérance soit supérieur ou égal à $\delta$, est inférieure ou égale à $\frac V{\delta^2}$.
  • La probabilité que l’écart entre $X$ et son espérance soit strictement inférieur à $\delta$, est supérieure ou égale à $1-\frac V{\delta^2}$.

Représentation de la distance de X à µ Représentation de la distance de X à µ

  • Pour majorer une probabilité d’un événement du type $\vert X-E(X)\vert \geq \delta$, on pense à appliquer l’inégalité de Bienaymé-Tchebychev.
  • On calcule, si elles ne sont pas données, l’espérance et la variance de la variable aléatoire.
  • De manière équivalente, on peut avoir une minoration de la probabilité que $X$ appartienne à un intervalle centré en $E(X)$.
  • On peut interpréter concrètement les résultats dans les termes de l’énoncé en regardant l’intervalle $]E(X)-\delta\ ;\,E(X)+ \delta[$.
  • En appliquant l’inégalité de Bienaymé-Tchebychev avec l’écart-type $\sigma$ de $X$, nous remarquons que des écarts entre $X$ et $\mu$ supérieurs à quelques $\sigma$ deviennent improbables.

Inégalité de concentration

  • Soit $(X_1,\,X_2,\,…,\,X_n)$ un échantillon de taille $n$ de la variable aléatoire $X$, d’espérance $\mu$ et de variance $V$.
    Soit $M_n$ la variable aléatoire moyenne de cet échantillon.
  • Pour tout réel $\delta$ strictement positif :

$$\begin{aligned} p\big(\vert M_n-\mu\vert \geq\delta\big) &\textcolor{#FF4500}\leq \dfrac V{n\delta^2} \\ \Leftrightarrow p(\vert M_n-\mu\vert <\delta) &\textcolor{#FF4500}\geq 1-\dfrac V{n\delta^2} \end{aligned}$$

  • La probabilité que l’écart entre $M_n$ et $\mu$ soit supérieur ou égal à $\delta$, est inférieure ou égale à $\frac V{\delta^2}$.
  • La probabilité que l’écart entre $M_n$ et $\mu$ soit strictement inférieur à $\delta$, est supérieure ou égale à $1-\frac V{\delta^2}$.
  • On dit qu’on obtient pour $M_n$ une précision de $\delta$ et un risque de $\frac V{n\delta^2}$.
  • L’inégalité de concentration permet notamment de déterminer la taille d’un échantillon en fonction d’une précision et d’un risque fixés.

Loi des grands nombres

  • Soit $(X_1,\,X_2,\,…,\,X_n)$ un échantillon de taille $n$ de la variable aléatoire $X$, d’espérance $\mu$.
    Soit $M_n$ la variable aléatoire moyenne de cet échantillon.
  • Pour tout réel strictement positif $\delta$ :

$$\lim\limits_{n \to +\infty} p\big( \vert M_n-\mu \vert \geq \delta \big)=0$$

  • Concrètement, la loi des grands nombres nous dit que la moyenne d’un échantillon d’une variable aléatoire $X$ se rapproche d’autant plus de son espérance que la taille $n$ de l’échantillon est grande.