Lois discrètes

Rappels

  • Soit $A_1,\,A_2,\,…,\,A_n$ une partition de l’univers $\Omega$ et $B$ un événement quelconque de $\Omega$.
  • Alors la probabilité de $B$ est donnée par la formule :

$$p(B)=p(A_1\cap B)+p(A_2\cap B)+⋯+p(A_n\cap B)$$

  • Soit $A$ et $B$ deux événements de l’univers $\Omega$. Supposons non nulle la probabilité de $A$.
  • On appelle probabilité conditionnelle de $B$ sachant $A$ le nombre, noté $p_A (B)$, défini par :

$$p_A (B)=\dfrac{p(A\cap B)}{p(A)}$$

  • Soit $A$ et $B$ deux événements associés à une expérience aléatoire.
  • $A$ et $B$ sont indépendants :
  • si et seulement si : $p(A\cap B)=p(A)\times p(B)$ ;
  • si et seulement si : $p_A(B)=p(B)$, avec $p(A)\neq 0$ ;
  • si et seulement si : $p_B(A)=p(A)$, avec $p(B)\neq 0$.
  • On considère une expérience aléatoire dont l’univers est un ensemble fini $\Omega$.
  • Définir une variable aléatoire consiste à associer un réel à chaque issue de l’expérience aléatoire.
  • Soit $X$ une variable aléatoire définie sur un univers $\Omega$ et qui prend les valeurs $x_1$, $x_2$, …, $x_n$.
  • Définir la loi de probabilité de $X$ consiste à donner les probabilités $p(X=x_i)$, pour tout entier $i$ compris entre $1$ et $n$.
  • Soit $X$ une variable aléatoire qui prend les valeurs $x_1$, $x_2$, …, $x_n$ , avec respectivement les probabilités $p_1$, $p_2$, …, $p_n$.

Espérance $$E(X)=\sum_{i=1}^n x_ip_i$$

L’espérance s’interprète comme la valeur moyenne prise par $X$ lorsqu’on répète un grand nombre de fois l’expérience aléatoire.

Variance $$V(X)=\sum_{i=1}^n p_i\big(x_i-E(X)\big)^2$$

La variance et l’écart-type mesurent la dispersion des valeurs prises par $X$ autour de l’espérance. Plus ils sont grands, plus les valeurs sont dispersées.

Écart-type $$\sigma(X)=\sqrt{V(X)}$$

Loi uniforme discrète

  • Soit $X$ une variable aléatoire définie sur $\Omega$ et qui prend ses valeurs dans $\lbrace 1,\,2,\,…,\,n\rbrace$.
  • On dit que $X$ suit une loi uniforme sur $\lbrace 1,\,2,\,…,\,n\rbrace$ si, pour tout entier $i\in \lbrace 1,\,2,\,…,\,n\rbrace$ :

$$p(X=i)=\dfrac 1n$$

  • Et les indicateurs se calculent avec les formules suivantes :

Loi uniforme
Espérance $$E(X)=\dfrac{n+1}2$$
Variance $$V(X)=\dfrac{n^2-1}{12}$$
Écart-type $$\sigma(X)=\sqrt{\frac{n^2-1}{12}}$$

Épreuve, loi et schéma de Bernoulli

  • Une épreuve de Bernoulli est une expérience aléatoire qui ne comporte que deux issues, appelées généralement succès ($S$) et échec ($E$).
  • Si on note $p$ la probabilité d’obtenir $S$, alors, comme $S$ et $E$ sont deux événements contraires ($E=\bar S$), la probabilité d’obtenir $E$ est donc $1-p$.

Alt texte Image temporaire

  • On considère une épreuve de Bernoulli avec une probabilité $p$ d’obtenir un succès.
    Soit $X$ la variable aléatoire qui ne prend que deux valeurs :
  • la valeur $1$ si l’issue est un succès ;
  • la valeur $0$ si l’issue est un échec.
  • Alors la loi de probabilité de la variable aléatoire $X$ est appelée loi de Bernoulli de paramètre $p$.

$x_i$ $1$ $0$
$p(X=x_i)$ $p$ $1-p$
  • Les indicateurs se calculent avec les formules suivantes :

Loi de Bernoulli
Espérance $$E(X)=p$$
Variance $$V(X)=p(1-p)$$
Écart-type $$\sigma(X)=\sqrt{p(1-p)}$$
  • On appelle schéma de Bernoulli la répétition de $n$ épreuves de Bernoulli identiques et indépendantes.
  • Pour s’assurer que les conditions « identiques » et « indépendantes » sont vérifiées :
  • les issues des épreuves doivent être les mêmes ;
  • ces issues doivent avoir les mêmes probabilités d’une épreuve à l’autre.
  • Considérons un arbre pondéré représentant un schéma de Bernoulli de paramètres $n$ et $p$. Soit $k$ un entier naturel tel que $0\leq k\leq n$.
  • On appelle coefficient binomial, noté $\binom nk$, le nombre de chemins correspondant à $k$ succès.

Propriétés du coefficient binomial
Symétrie $$\begin{aligned} \binom n0&=\binom nn=1 \\ \binom n k&=\binom n {n-k} \\ &\footnotesize{\textcolor{#A9A9A9}{\text{[avec $n\in \mathbb N$}}} \\ &\footnotesize{\textcolor{#A9A9A9}{\text{et $0\leq k\leq n$]}}} \end{aligned}$$
Formule de Pascal $$\begin{aligned} \binom nk &=\binom {n-1}k+\binom{n-1}{k-1} \\ &\footnotesize{\textcolor{#A9A9A9}{\text{[avec $n\geq 2$}}} \\ &\footnotesize{\textcolor{#A9A9A9}{\text{et $1\leq k\leq n-1$]}}} \end{aligned}$$

Loi binomiale

  • Soit $X$ la variable aléatoire qui compte le nombre de succès obtenus lors de $n$ épreuves d’un schéma de Bernoulli, et $p$ la probabilité de succès à chaque épreuve.
  • La variable aléatoire $X$ suit une loi de probabilité appelée loi binomiale de paramètres $n$ et $p$, et notée généralement $\mathcal B(n,\, p)$.
  • Pour tout entier naturel $k$ (avec $0\leq k\leq n)$, la probabilité d’obtenir $k$ succès sur les $n$ épreuves est donnée par la formule :

$$p(X=k)=\binom nk p^k (1-p)^{n-k}$$

  • Représentation graphique de la loi binomiale ($n=40$ et $p=0,45$) :

Alt texte Image temporaire

  • Les indicateurs sont donnés par les formules suivantes :

Loi binomiale
Espérance $$E(X)=np$$
Variance $$V(X)=np(1-p)$$
Écart-type $$\sigma(X)=\sqrt{np(1-p)}$$
  • Pour prouver qu’une variable aléatoire $X$ suit une loi binomiale, on justifie que les conditions suivantes sont vérifiées :
  • il faut avoir $n$ expériences identiques ;
  • chaque expérience a $2$ issues possibles (épreuve de Bernoulli) ;
  • ces expériences sont indépendantes les unes des autres ;
  • la variable aléatoire $X$ compte le nombre de succès obtenus lors des $n$ épreuves.

Loi géométrique

  • On considère une épreuve de Bernoulli où la probabilité de succès est $p$.
  • Si $X$ comptabilise le nombre de répétitions (identiques et indépendantes) de l’épreuve nécessaires pour obtenir le premier succès, alors on dit que $X$ suit la loi géométrique de paramètre $p$.
  • Nous avons alors, pour tout entier naturel $k$ non nul :

$$p(X=k)=p\times (1-p)^{k-1}$$

  • Les indicateurs sont donnés par les formules suivantes :

Loi géométrique
Espérance $$E(X)=\dfrac 1p$$
Variance $$V(X)=\dfrac{1-p}{p^2}$$
Écart-type $$\sigma(X)=\dfrac{\sqrt{1-p}}p$$
  • La loi géométrique est dite « sans mémoire » et nous avons, pour tous entiers naturels non nuls $k$ et $k^{\prime}$ :

$$p_{X > k}(X>k+k^{\prime})=p(X > k^{\prime})$$

  • Il s’agit donc de s’intéresser au nombre d’épreuves supplémentaires $k^{\prime}$ par rapport à $k$. La probabilité ne dépend que de $k^{\prime}$.
Ce contenu est réservé à nos inscrits. Il reste 50% à lire.
Inscrivez-vous gratuitement pour lire la suite
Inscrivez-vous pour lire la suite et accéder à nos vidéos, quiz, exercices, méthodes… Tout ce qu’il faut pour augmenter sa moyenne. 😉