Médaille
N°1 pour apprendre & réviser du collège au lycée.
Sommes de variables aléatoires

Déjà plus de

1 million

d'inscrits !

  • Ω\Omega désigne l’univers associé à une expérience aléatoire et pp une probabilité sur Ω\Omega.

Transformation de variables aléatoires

  • Une variable aléatoire réelle définie sur l’univers Ω\Omega est une fonction, notée XX, qui associe un réel à chaque éventualité de l’univers Ω\Omega.
  • Soit XX une variable aléatoire discrète sur Ω\Omega qui prend les valeurs x1x1, x2x2, …, xnx_n.
  • Définir la loi de probabilité de XX, c’est donner les valeurs de probabilités p(X=xi)p(X=x_i) pour tout entier ii, avec 1in1\leq i\leq n.
  • On appelle espérance de XX le nombre réel  :

E(X)=i=1nxipiE(X)= \sum{i=1}^{n}xip_i

  • La variance de la variable aléatoire XX est le réel positif :

V(X)=i=1npi(xiE(X))2V(X)= \sum{i=1}^n pi\big(x_i-E(X)\big)^2

  • L’écart-type de la variable aléatoire XX est le réel positif :

σ(X)=V(X)\sigma(X)=\sqrt{V(X)}

  • Soit deux variables aléatoires XX et YY respectivement définies sur les univers Ω1\Omega1 et Ω2\Omega2.
  • XX et YY sont dites indépendantes si tout événement lié à la variable aléatoire XX est indépendant de tout événement lié à la variable aléatoire YY. Pour tout xX(Ω1)x\in X(\Omega1) et pour tout yY(Ω2)y\in Y(\Omega2) :

p((X=x)(Y=y))=p(X=x)×p(Y=y)p\big((X=x)\cap (Y=y)\big)=p(X=x)\times p(Y=y)

  • nn variables aléatoires X1X1, …, XnXn, respectivement définies sur les univers Ω1\Omega1, …, Ωn\Omegan, sont indépendantes si, pour tous x1X1(Ω1)x1\in X1(\Omega1), …, xnXn(Ωn)xn\in Xn(\Omegan) :

p((X1=x1)(Xn=xn))=p(X1=x1)××p(Xn=xn)p\big((X1=x1)\cap…\cap (Xn=xn)\big)=p(X1=x1) \times …\times p(Xn=xn)

  • Soit XX une variable aléatoire définie sur un univers Ω\Omega, qui prend les valeurs x1x1, x2x2, …, xnx_n.
    Et soit aa et bb deux réels.
  • La variable aléatoire YY définie par Y=aX+bY=aX+b est aussi une variable aléatoire, qui prend, pour tout ii allant de 11 à nn, les valeurs yi=axi+byi=axi+b.
  • E(Y)=aE(X)+bE(Y)=aE(X)+b.
  • V(Y)=a2V(X)V(Y)=a^2 V(X).
  • Soit XX et YY deux variables aléatoires.
  • La variable aléatoire ZZ définie par Z=X+YZ=X+Y prend pour valeurs les sommes possibles des valeurs prises par XX et YY.
  • E(Z)=E(X)+E(Y)E(Z)=E(X)+E(Y).
  • Si de plus XX et YY sont indépendantes : V(Z)=V(X)+V(Y)V(Z)=V(X)+V(Y).

Espérance, variance et écart-type de la loi binomiale

  • Soit X1X1, X2X2, …, XnX_n des variables aléatoires indépendantes définies sur le même univers et suivant toutes la même loi de Bernoulli de paramètre pp, notée B(p)\mathcal B(p).
  • Leur somme X1+X2++XnX1+X2+…+X_n suit une loi binomiale de paramètres nn et pp, notée B(n,p)\mathcal B(n,\,p).
  • Soit XX une variable aléatoire suivant une loi binomiale B(n,p)\mathcal B(n,p).
  • XX peut s’écrire comme une somme de variables aléatoires indépendantes suivant la même loi de Bernoulli :

X=X1+X2++Xn[avec X1X2Xn des variables aleˊatoires suivant la loi B(p)]\begin{aligned} &X=X1+X2+…+X_n \ &\footnotesize{\textcolor{#A9A9A9}{\text{[avec $X_1$, $X_2$, …, $X_n$ des variables aléatoires}}} \ &\footnotesize{\textcolor{#A9A9A9}{\text{ suivant la loi $\mathcal B(p)$]}}} \end{aligned}

  • E(X)=npE(X)=np.
  • V(X)=np(1p)V(X)=np(1-p).
  • σ(X)=V(X)=np(1p)\sigma(X)=\sqrt{V(X)}=\sqrt{np(1-p)}.
  • Il est plus pratique d’utiliser ces dernières propriétés pour calculer l’espérance, la variance et l’écart-type d’une variable aléatoire suivant une loi binomiale.

Somme de variables aléatoires identiques

  • Soit nn un entier naturel non nul.
  • On appelle échantillon de taille nn d’une loi de probabilité une liste (X1,X2,,Xn)(X1,\,X2,\,…,\,X_n) de variables aléatoires indépendantes suivant toutes cette loi.
  • Soit (X1,X2,,Xn)(X1,\,X2,\,…,\,X_n) un échantillon de taille nn d’une loi de probabilité.
    Soit EE, VV et σ\sigma respectivement l’espérance, la variance et l’écart-type de la variable suivant celle loi.
  • On note SnS_n la somme de ces variables aléatoires :

Sn=X1+X2++XnSn=X1+X2+ …+Xn

  • On note MnM_n la moyenne de ces variables aléatoires :

Mn=X1+X2++Xnn=SnnMn=\dfrac {X1+X2+ …+Xn}n =\dfrac{S_n}n

Espérance E(Sn)=nEE(Sn)=nE E(Mn)=EE(Mn)=E
Variance V(Sn)=nVV(Sn)=nV V(Mn)=VnV(Mn)=\dfrac Vn
Écart-type σ(Sn)=nσ\sigma(Sn)=\sqrt n\,\sigma σ(Mn)=σn\sigma(Mn)=\dfrac{\sigma}{\sqrt n}