Sommes de variables aléatoires

information-icon

Si tu es un lycéen en terminale, tu dois déjà avoir planifié tes révisions pour ton baccalauréat 2024. Si ce n’est pas le cas, tu peux te baser sur notre programme de révision en le planifiant en fonction des dates du bac 2024 ou des coefficients des matières … 💪

  • $\Omega$ désigne l’univers associé à une expérience aléatoire et $p$ une probabilité sur $\Omega$.

Transformation de variables aléatoires

  • Une variable aléatoire réelle définie sur l’univers $\Omega$ est une fonction, notée $X$, qui associe un réel à chaque éventualité de l’univers $\Omega$.
  • Soit $X$ une variable aléatoire discrète sur $\Omega$ qui prend les valeurs $x_1$, $x_2$, …, $x_n$.
  • Définir la loi de probabilité de $X$, c’est donner les valeurs de probabilités $p(X=x_i)$ pour tout entier $i$, avec $1\leq i\leq n$.
  • On appelle espérance de $X$ le nombre réel  :

$$E(X)= \sum_{i=1}^{n}x_ip_i$$

  • La variance de la variable aléatoire $X$ est le réel positif :

$$V(X)= \sum_{i=1}^n p_i\big(x_i-E(X)\big)^2$$

  • L’écart-type de la variable aléatoire $X$ est le réel positif :

$$\sigma(X)=\sqrt{V(X)}$$

  • Soit deux variables aléatoires $X$ et $Y$ respectivement définies sur les univers $\Omega_1$ et $\Omega_2$.
  • $X$ et $Y$ sont dites indépendantes si tout événement lié à la variable aléatoire $X$ est indépendant de tout événement lié à la variable aléatoire $Y$. Pour tout $x\in X(\Omega_1)$ et pour tout $y\in Y(\Omega_2)$ :

$$p\big((X=x)\cap (Y=y)\big)=p(X=x)\times p(Y=y)$$

  • $n$ variables aléatoires $X_1$, …, $X_n$, respectivement définies sur les univers $\Omega_1$, …, $\Omega_n$, sont indépendantes si, pour tous $x_1\in X_1(\Omega_1)$, …, $x_n\in X_n(\Omega_n)$ :

$$p\big((X_1=x_1)\cap…\cap (X_n=x_n)\big)=p(X_1=x_1) \times …\times p(X_n=x_n)$$

  • Soit $X$ une variable aléatoire définie sur un univers $\Omega$, qui prend les valeurs $x_1$, $x_2$, …, $x_n$.
    Et soit $a$ et $b$ deux réels.
  • La variable aléatoire $Y$ définie par $Y=aX+b$ est aussi une variable aléatoire, qui prend, pour tout $i$ allant de $1$ à $n$, les valeurs $y_i=ax_i+b$.
  • $E(Y)=aE(X)+b$.
  • $V(Y)=a^2 V(X)$.
  • Soit $X$ et $Y$ deux variables aléatoires.
  • La variable aléatoire $Z$ définie par $Z=X+Y$ prend pour valeurs les sommes possibles des valeurs prises par $X$ et $Y$.
  • $E(Z)=E(X)+E(Y)$.
  • Si de plus $X$ et $Y$ sont indépendantes : $V(Z)=V(X)+V(Y)$.

Espérance, variance et écart-type de la loi binomiale

  • Soit $X_1$, $X_2$, …, $X_n$ des variables aléatoires indépendantes définies sur le même univers et suivant toutes la même loi de Bernoulli de paramètre $p$, notée $\mathcal B(p)$.
  • Leur somme $X_1+X_2+…+X_n$ suit une loi binomiale de paramètres $n$ et $p$, notée $\mathcal B(n,\,p)$.
  • Soit $X$ une variable aléatoire suivant une loi binomiale $\mathcal B(n,p)$.
  • $X$ peut s’écrire comme une somme de variables aléatoires indépendantes suivant la même loi de Bernoulli :

$$\begin{aligned} &X=X_1+X_2+…+X_n \\ &\footnotesize{\textcolor{#A9A9A9}{\text{[avec $X_1$, $X_2$, …, $X_n$ des variables aléatoires}}} \\ &\footnotesize{\textcolor{#A9A9A9}{\text{ suivant la loi $\mathcal B(p)$]}}} \end{aligned}$$

  • $E(X)=np$.
  • $V(X)=np(1-p)$.
  • $\sigma(X)=\sqrt{V(X)}=\sqrt{np(1-p)}$.
  • Il est plus pratique d’utiliser ces dernières propriétés pour calculer l’espérance, la variance et l’écart-type d’une variable aléatoire suivant une loi binomiale.

Somme de variables aléatoires identiques

  • Soit $n$ un entier naturel non nul.
  • On appelle échantillon de taille $n$ d’une loi de probabilité une liste $(X_1,\,X_2,\,…,\,X_n)$ de variables aléatoires indépendantes suivant toutes cette loi.
  • Soit $(X_1,\,X_2,\,…,\,X_n)$ un échantillon de taille $n$ d’une loi de probabilité.
    Soit $E$, $V$ et $\sigma$ respectivement l’espérance, la variance et l’écart-type de la variable suivant celle loi.
  • On note $S_n$ la somme de ces variables aléatoires :

$$S_n=X_1+X_2+ …+X_n$$

  • On note $M_n$ la moyenne de ces variables aléatoires :

$$M_n=\dfrac {X_1+X_2+ …+X_n}n =\dfrac{S_n}n $$

Espérance $E(S_n)=nE$ $E(M_n)=E$
Variance $V(S_n)=nV$ $V(M_n)=\dfrac Vn$
Écart-type $\sigma(S_n)=\sqrt n\,\sigma$ $\sigma(M_n)=\dfrac{\sigma}{\sqrt n}$