Rappels sur les variables aléatoires

Définition

Nous allons rappeler quelques notions vues en classe de Première sur les variables aléatoires.

Une variable aléatoire $X$ est une fonction qui, à chaque événement élémentaire de l'univers $\Omega$ y associe un nombre réel. C'est-à-dire : $X : \Omega \rightarrow \mathbb{R}$.

Loi de probabilité

Soit $X$ une variable aléatoire. La loi de probabilité de $X$ attribue à chaque valeur $x_i$ la probabilité $p_i = p(X = x_i)$ de l'événement $X = x_i$ constitué de tous les événements élémentaires dont l'image par $X$ est $x_i$.

On représente généralement les lois de probabilité par un tableau.

Soit $X$ une variable aléatoire.

$x_i$$x_1$$x_2$...$x_n$
$p_i$
$= p(X = x_i)$
$p_1$
$= p(X = x_1)$
$p_2$
$= p(X = x_2)$
...$p_n$
$= p(X = x_n)$

On a $p_1 + p_2 + \text{ ... } + p_n = 1$.

Cette définition peut sembler un peu compliquée mais elle signifie juste qu'une loi de probabilité assigne une probabilité à chaque valeur prise par notre variable aléatoire.

Espérance, variance et écart-type

L'espérance $E(X)$ d'une variable aléatoire $X$ est le réel :

$E(X) = x_1 \times p_1 + x_2 \times p_2 + \text{ ... } + x_n \times p_n$.

La variance $V(X)$ et l'écart-type $\sigma(X)$ d'une variable aléatoire $X$ sont les réels positifs suivants :

  • $V(X) = E(X^2) - E(X)^2$
  • $\sigma(X) = \sqrt{V(X)}$

Calcul de l'espérance, de la variance et de l'écart-type. Soit $X$ une variable aléatoire suivant la loi de probabilité donnée par le tableau ci-dessous :

$x_i$$-1$$0$$2$$6$
$p_i$$\frac{1}{4}$$\frac{1}{2}$$\frac{1}{8}$$\frac{1}{8}$

On a :

  • $E(X) = -1 \times \frac{1}{4} + 0 \times \frac{1}{2} + 2 \times \frac{1}{8} + 6 \times \frac{1}{8} = \frac{3}{4}$
  • $V(X) = ((-1)^2 \times \frac{1}{4} + 0^2 \times \frac{1}{2} + 2^2 \times \frac{1}{8} + 6^2 \times \frac{1}{8}) - (\frac{3}{4})^2 = \frac{75}{16}$
  • $\sigma(X) = \sqrt{\frac{75}{16}} \approx 2.165$

Chacun de ces paramètres a une utilité bien précise. En effet :

  • L'espérance est la valeur moyenne prise par $X$.
  • La variance et l'écart-type mesurent la dispersion des valeurs prises par $X$. Plus ces valeurs sont grandes, plus les valeurs sont dispersées autour de l'espérance.

Loi de Bernoulli

Succession d'épreuves indépendantes

Soit une succession de $n$ épreuves indépendantes (c'est-à-dire que le résultat de l'une n'a pas d'incidence sur le résultat de la suivante). On note les univers associés à chaque expérience respectivement par $\Omega_1$, $\Omega_2$, ... , $\Omega_n$.

Alors l'univers associé à cette succession d'épreuves indépendantes est le produit cartésien $\Omega_1 \times \Omega_2 \times \text{ ... } \times \Omega_n$.

On effectue deux lancers de dé équilibrés à $6$ faces. Ces lancers sont indépendants et admettent $\Omega_1 = \{1; \text{ ... }; 6\} = \Omega_2$ pour univers.

Ainsi, l'univers associé à cette succession de $2$ épreuves indépendantes est $\Omega_1 \times \Omega_2 = \{1; \text{ ... }; 6\} \times \{1; \text{ ... }; 6\}$.

Par exemple, une issue possible à cette succession d'épreuves est $(1; 6)$ (qui correspond au fait de faire un $1$ avec le premier dé et de faire un $6$ avec le deuxième dé).

Il est tout-à-fait possible de modéliser ce type d'expérience à l'aide d'un arbre de probabilité. Cependant, cela peut devenir compliqué dès lors que le nombre d'épreuves dépasse $2$ ou que le nombre d'issues possibles dépasse $3$.

Un arbre de probabilité permet également de représenter une succession d'épreuves non-indépendantes.

Soit une succession de $n$ épreuves indépendantes et soit $(x_1, \text{ ... }, x_n)$ une issue de cette succession d'épreuves. Alors $p((x_1, \text{ ... }, x_n)) = p(x_1) \times \text{ ... } \times p(x_n)$.

En reprenant les notations de l'exemple précédent, on a $p((1; 6)) = p(1) \times p(6) = \frac{1}{36}$.

D'ailleurs, on se trouve dans une situation d'équiprobabilité car toutes les issues ont une probabilité de $\frac{1}{36}$ de se produire.

Épreuve et schéma de Bernoulli

Derrière ces noms qui peuvent sembler compliquer, se cache une notion finalement simple, et que l'on rencontre souvent dans la vie quotidienne.

Une épreuve de Bernoulli est une expérience aléatoire qui n'admet que deux issues possibles : le succès et l'échec.

Tout choix aléatoire binaire est une épreuve de Bernoulli. On peut donner l'exemple d'un lancer de pièce, obtenir un résultat durant un lancer de dé, ou même le fait que vous décidiez de laisser une bonne note ou non à l'application Bacomathiques !

Il est souvent possible de répéter plusieurs fois une épreuve de Bernoulli. C'est ce qu'on appelle un schéma de Bernoulli.

Soit une succession d'épreuves de Bernoulli indépendantes. On appelle cette succession un schéma de Bernoulli.

Qu'est-ce qu'une loi de Bernoulli ?

Soient $X$ une variable aléatoire et $p \in ]0; 1[$. On dit que $X$ suit une \text{loi de Bernoulli} de paramètre $p$ (qui se note $\mathcal{B}(p)$) si la loi de $X$ est la suivante :

$x_i$$0$$1$
$p_i$$1 - p$$p$

C'est-à-dire, qu'on a une probabilité $p$ d'obtenir un succès (représenté par $1$) et une probabilité de $1-p$ d'obtenir un échec (représenté par $0$).

Il est possible de calculer facilement l'espérance, la variable et l'écart-type d'une variable aléatoire suivant ce type de loi.

Soit $X$ une variable aléatoire suivant une loi de Bernoulli $\mathcal{B}(p)$. Alors :

  • $E(X) = p$.
  • $V(X) = p(1-p)$.
  • $\sigma(X) = \sqrt{p(1-p)}$.

Plaçons-nous dans le cadre d'un lancer de pièce truquée qui a deux chances sur trois de tomber sur Pile. Supposons que nous souhaitons tomber sur Face (on a donc une chance sur trois de réussir).

Soit $X$ la variable aléatoire modélisant cette situation. On a que $X$ suit une loi de Bernoulli $\mathcal{B}\left(\frac{1}{3}\right)$. Donc :

  • $p(X = 0) = 1 - \frac{1}{3} = \frac{2}{3}$ (on a deux chances sur trois de tomber sur Pile).
  • $p(X = 1) = \frac{2}{3}$ (on a deux chances sur trois de tomber sur Face).

Et enfin on a $E(X) = \frac{2}{3}$, $V(X) = \frac{2}{9}$ et $\sigma(X) = \frac{\sqrt{2}}{3}$.

Loi binomiale

Définition

Une loi de Bernoulli permet de modéliser ce qui se passe dans le cas d'une seule épreuve de Bernoulli. Cependant, il peut arriver que l'on souhaite voir ce qu'il se passe dans le cadre d'un schéma de Bernoulli (c'est-à-dire, en répétant indépendamment plusieurs fois une épreuve de Bernoulli).

Soient $n \in \mathbb{N}^*$ et $p \in ]0; 1[$. On se place dans le cadre d'un schéma de Bernoulli à $n$ répétitions et où la probabilité de succès des épreuves est $p$.

La loi de probabilité donnant le nombre de succès sur ces $n$ répétitions est la loi binomiale de paramètres $n$ et $p$ (notée $\mathcal{B}(n; p)$).

Il s'agit en fait d'une généralisation de la loi de Bernoulli dans le cas où l'on répète plusieurs fois l'expérience.

Calculs de probabilités

Soit $X$ une variable aléatoire suivant une loi $\mathcal{B}(n; p)$. Alors pour tout entier $k$ compris entre $0$ et $n$, on a $\displaystyle{p(X = k) = \binom{n}{k} p^k (1-p)^{n-k}}$.

En représentant la situation dans un arbre de probabilité, chaque chemin correspondant à $k$ succès contient $k$ branches pondérées par $p$ (car, pour rappel, un succès a une probabilité de $p$ de se produit). Ces chemins contiennent aussi $n-k$ branches pondérées par $1-p$ (correspondantes à un échec) car chaque chemin est de taille $n$. Ainsi, la pondération totale de ce type de chemin est :

$\underbrace{p \times \text{ ... } \times p}_{k \text{ succès}} \times \underbrace{(1-p) \times \text{ ... } \times (1-p)}_{n-k \text{ échecs}} = p^k(1-p)^{n-k}$.

De plus, il y a $\displaystyle{\binom{n}{k}}$ chemins de ce type (cela correspond au nombre de façons de placer la pondération $p$ $k$ fois sur les $n$ branches).

D'où $\displaystyle{p(X = k) = \underbrace{p^k(1-p)^{n-k} + \text{ ... } + p^k(1-p)^{n-k}}_{\binom{n}{k} \text{ branches}} = \binom{n}{k} p^k(1-p)^{n-k}}$.

On lance $5$ fois un dé équilibré à $6$ faces et on souhaite savoir quelle est la probabilité d'obtenir au plus $2$ fois un nombre pair.

Soit $X$ la variable aléatoire modélisant cette situation. Comme la probabilité d'obtenir un nombre pair est de $\frac{1}{2}$, on a que $X$ suit une loi binomiale $\mathcal{B}(5; 0,5)$.

On cherche donc à calculer $p(X \leq 2)$. Il suffit pour cela de décomposer l'événement :

La probabilité d'obtenir au plus $2$ fois un nombre pair est égale à la probabilité d'obtenir $0$, $1$ ou $2$ fois un nombre pair. D'où :

$p(X \leq 2) = p(X = 0) + p(X = 1) + p(X = 2)$.

Il ne reste qu'à appliquer la formule :

  • $\displaystyle{p(X = 0) = \binom{5}{0}(0,5)^0(1-0,5)^5 = 0,03125}$
  • $\displaystyle{p(X = 1) = \binom{5}{1}(0,5)^1(1-0,5)^4 = 0,15625}$
  • $\displaystyle{p(X = 2) = \binom{5}{2}(0,5)^2(1-0,5)^3 = 0,3125}$

Finalement, on trouve $p(X \leq 2) = 0,5$.

Petite remarque supplémentaire : comme $p(X \geq 3) = p(X \gt 2) = 1 - p(X \leq 2) = 1 - 0,5 = 0,5$, on a qu'il y a autant de chance d'obtenir $2$ fois ou moins un nombre pair, qu'il y en a d'en obtenir un nombre pair $3$ fois ou plus.

Comme on l'a dit précédemment, il est tout-à-fait possible d'utiliser des arbres de probabilités pour répondre à ce genre de questions. Cependant, essayez de représenter la situation donnée dans l'exemple précédent à l'aide d'un tel arbre et vous vous rendrez vite compte qu'il est beaucoup plus facile d'utiliser les propriétés de la loi binomiale.

Espérance, variance et écart-type

Soit $X$ une variable aléatoire suivant $\mathcal{B}(n; p)$. Alors :

  • $E(X) = np$.
  • $V(X) = np(1-p)$.
  • $\sigma(X) = \sqrt{np(1-p)}$.

En se replaçant dans l'exemple du lancer de dé vu dans la sous-section précédente, on a $E(X) = 2,5$, $V(x) = 1,25$ et $\sigma(X) \approx 1,118$.

Vous avez aimé ce cours ?

Faîtes-le nous savoir dans les commentaires !

Avatar (prévisualisation)
Votre commentaire a été envoyé avec succès. Veuillez cependant noter qu'il ne sera publié qu'après modération 😉
Impossible de poster votre commentaire. Veuillez réessayer plus tard.
Il n'y a pas de commentaire sur ce cours pour le moment.