Somme de deux variables aléatoires

Définition

Il arrive que, on ne puisse pas modéliser une situation donnée à l’aide d’une seule variable aléatoire simple. C’est pourquoi il est parfois utile d’en additionner plusieurs ou bien d’en multiplier par un réel.

Définition

Soient XX et YY deux variables aléatoires définies sur un univers Ω\Omega et soit λ\lambda un réel. On définit :

  • X+YX + Y la variable aléatoire somme de XX et YY définie pour tout ωΩ\omega \in \Omega par (X+Y)(ω)=X(ω)+Y(ω)(X + Y)(\omega) = X(\omega) + Y(\omega).

  • λX\lambda X la variable aléatoire produit de λ\lambda et XX définie pour tout ωΩ\omega \in \Omega par (λX)(ω)=λX(ω)(\lambda X)(\omega) = \lambda X(\omega).

Exemple

Encore une fois, il s’agit d’une définition un peu compliquée. Illustrons ceci par un exemple.

On lance deux dés différents, équilibrés, et numérotés de 11 à 66. On note par XX la variable aléatoire donnant le résultat sur lequel tombe le premier dé, et par YY la variable aléatoire donnant le résultat sur lequel tombe le second dé.

Dans cette situation, la variable aléatoire somme X+YX + Y donne la somme obtenue en additionnant le nombre sur lequel le premier dé est tombé avec celui sur lequel le deuxième dé est tombé.

Espérance, variance et écart-type

Une somme de variable aléatoire reste une variable aléatoire. Donc il est tout à fait possible de calculer l’espérance, la variance, l’écart-type, ... d’une somme de variables aléatoires.

Voyons dans un premier temps une propriété de l’espérance permettant de calculer plus facilement l’espérance d’une combinaison linéaire de variables aléatoires.

Linéarité de l’espérance

Soient XX et YY deux variables aléatoires définies sur un univers Ω\Omega et soit λ\lambda un réel. Alors :

  • E(X+Y)=E(X)+E(Y)E(X + Y) = E(X) + E(Y).

  • E(λX)=λE(X)E(\lambda X) = \lambda E(X).

Applications

Appliquons la première formule à l’exemple de la partie précédente.

On a E(X)=E(Y)=1×16+2×16+3×16+4×16+5×16+6×16=3,5E(X) = E(Y) = 1 \times \frac{1}{6} + 2 \times \frac{1}{6} + 3 \times \frac{1}{6} + 4 \times \frac{1}{6} + 5 \times \frac{1}{6} + 6 \times \frac{1}{6} = 3,5.

Donc E(X+Y)=E(X)+E(Y)=3,5+3,5=7E(X+Y) = E(X) + E(Y) = 3,5 + 3,5 = 7.

L’interprétation de ces calculs est, qu’en moyenne, sur un grand nombre de lancers, la somme obtenue lorsque l’on additionne le résultat des deux dés vaut 77.

Voyons désormais des formules permettant de calculer la variance et l’écart-type d’une combinaison linéaire de variables aléatoires.

Variance et écart-type

Soient XX et YY deux variables aléatoires définies sur un univers Ω\Omega et soit λ\lambda un réel. Alors :

  • V(X+Y)=V(X)+V(Y)V(X + Y) = V(X) + V(Y) si XX et YY sont indépendantes (c’est-à-dire si le résultat de l’une n’a pas d’incidence sur le résultat de l’autre).

  • V(λX)=λ2V(X)V(\lambda X) = \lambda^2 V(X).

  • σ(λX)=λ2σ(X)\sigma(\lambda X) = \sqrt{\lambda^2} \sigma(X).

Somme de plusieurs variables aléatoires

Définition et propriétés

Nous allons tenter de généraliser un petit peu le concept vu dans la section précédente. En effet, au lieu d’étudier la somme de deux variables aléatoires, on va étudier la somme de nn variables aléatoires.

En classe de Terminale, on se limite au cas où ces variables aléatoires suivent une même loi.

Échantillon aléatoire

Un nn-uplet de variables aléatoires (X1,X2,,Xn)(X_1, X_2, \dots, X_n) qui sont toutes indépendantes et qui suivent une même loi de probabilité est appelé échantillon aléatoire de taille nn associé à cette loi.

Espérance de variables aléatoires de même loi

Soit (X1,X2,,Xn)(X_1, X_2, \dots, X_n) un échantillon aléatoire de taille nn. On pose Sn=X1+X2++XnS_n = X_1 + X_2 + \dots + X_n et Mn=SnnM_n = \frac{S_n}{n}. Alors :

  • E(Sn)=nE(X1)E(S_n) = nE(X_1) et V(Sn)=nV(X1)V(S_n) = nV(X_1).

  • E(Mn)=E(Snn)=E(Sn)n=E(X1)E(M_n) = E\left(\frac{S_n}{n}\right) = \frac{E(S_n)}{n} = E(X_1) et V(Mn)=V(Sn)n2=V(X1)nV(M_n) = \frac{V(S_n)}{n^2} = \frac{V(X_1)}{n}.

Note

Petite note sur le nom des variables aléatoires précédentes :

  • SnS_n est la somme des nn variables aléatoires.

  • MnM_n est la moyenne empirique des nn variables aléatoires.

Somme / décompositions de certaines variables aléatoires

Nous allons maintenant énoncer une propriété utile qui permet de trouver la loi suivie par une somme de variables aléatoires indépendantes suivant une loi de Bernoulli.

Somme de variables aléatoires indépendantes suivant une même loi de Bernoulli

Soit (X1,X2,,Xn)(X_1, X_2, \dots, X_n) un échantillon aléatoire de taille nn associé à une loi de Bernoulli de paramètre pp.

Alors X1+X2++XnX_1 + X_2 + \dots + X_n suit une loi binomiale B(n;p)\mathcal{B}(n; p).

Exemple

On lance en même temps deux pièces équilibrées en l’air. On suppose qu’un succès est représenté par Pile.

On modélise le résultat de la première par une variable aléatoire XX qui suit une loi de Bernoulli B(0,5)\mathcal{B}(0,5). De même, on modélise le résultat de la seconde par une variable aléatoire YY suivant la même loi que XX.

Alors X+YX + Y (qui modélise le nombre de Pile obtenus au total par les deux pièces) suit une loi binomiale B(2;0,5)\mathcal{B}(2; 0,5).

Enfin, signalons qu’il existe une réciproque de la première propriété qui permet de transformer une variable aléatoire suivant une loi binomiale en somme de variables aléatoires suivant une loi de Bernoulli.

Décomposition d’une variable aléatoire suivant une loi binomiale

Soit XX une variable aléatoire suivant une loi binomiale B(n;p)\mathcal{B}(n; p).

Alors il existe nn variables aléatoires indépendantes X1X_1, X2X_2, ... , XnX_n suivant toutes une loi de Bernoulli B(p)\mathcal{B}(p), et telles que X=X1+X2++XnX = X_1 + X_2 + \dots + X_n.

Exemple

Soit XX suivant une loi binomiale B(3;16)\mathcal{B}\left(3; \frac{1}{6}\right). Alors par la propriété précédente, il existe X1X_1, X2X_2 et X3X_3, indépendantes et suivant une loi B(16)\mathcal{B}\left(\frac{1}{6}\right) telles que X=X1+X2+X3X = X_1 + X_2 + X_3.

Concentration et loi des grands nombres

Inégalité de Bienaymé-Tchebychev

Inégalité de Bienaymé-Tchebychev

Soit XX une variable aléatoire d’espérance E(X)=μE(X) = \mu et de variance V(X)=VV(X) = V. Alors pour tout réel strictement positif δ\delta, P(Xμδ)Vδ2P(|X-\mu| \geq \delta) \leq \frac{V}{\delta^2}.

Autre formulation

Une autre formulation de cette inégalité est la suivante : P(X]μδ;μ+δ[)V(X)δ2P(X \notin ]\mu - \delta; \mu + \delta[) \leq \frac{V(X)}{\delta^2}.

Cette inégalité est un peu abstraite, donnons tout de suite un exemple.

Exemple

Le poids moyen d’un bébé en kilogrammes à la naissance peut être modélisé par une variable aléatoire XX d’espérance μ=3,3\mu = 3,3 et de variance V=0,25V = 0,25.

Un bébé est considéré de poids normal si son poids est compris entre 2,42,4 et 4,24,2 kilogrammes. Nous allons calculer une majoration pour la probabilité qu’un bébé ne soit pas de poids normal à la naissance (c’est-à-dire, si X]3,30,9;3,3+0,9[X \notin ]3,3 - 0,9; 3,3 + 0,9[ ou encore si X3,30,9|X - 3,3| \geq 0,9).

On a P(X3,30,9)0,250,92=0,2025P(|X - 3,3| \geq 0,9) \leq \frac{0,25}{0,9^2} = 0,2025 par l’inégalité de Bienaymé-Tchebychev.

La probabilité qu’un bébé ne soit pas de poids normal à la naissance ne dépasse pas 0,20250,2025.

C’est majoration n’est pas très satisfaisante, mais elle vient principalement du fait que la variance est trop élevée.

Inégalité de concentration

Inégalité de concentration

Soit (X1,X2,,Xn)(X_1, X_2, \dots, X_n) un échantillon aléatoire de taille nn associé à une loi d’espérance μ\mu et de variance VV. On pose Mn=X1+X2++XnnM_n = \frac{X_1 + X_2 + \dots + X_n}{n}, la moyenne empirique de cet échantillon.

Alors pour tout réel strictement positif δ\delta, P(Mnμδ)Vnδ2P(|M_n - \mu| \geq \delta) \leq \frac{V}{n \delta^2}.

Loi des grands nombres

Loi faible des grands nombres

Soit (X1,X2,,Xn)(X_1, X_2, \dots, X_n) un échantillon aléatoire de taille nn associé à une loi d’espérance μ\mu et de variance VV. On pose Mn=X1+X2++XnnM_n = \frac{X_1 + X_2 + \dots + X_n}{n}, la moyenne empirique de cet échantillon.

Alors pour tout réel strictement positif δ\delta, limn+P(Mnμδ)=0\lim_{n \rightarrow +\infty} P(|M_n - \mu| \geq \delta) = 0.

Ce théorème signifie que la moyenne de l’échantillon se rapproche des moyennes des variables aléatoires quand la taille de l’échantillon augmente.

Prenons l’exemple d’une maternité au 1 janvier et supposons que le premier-né soit un garçon. Il est tout à fait possible que le deuxième bébé soit également un garçon, alors que, statistiquement, on aurait pu s’attendre à une fille.

Mais l’année peut très bien commencer par une dizaine de naissances de garçons à la suite !

Cependant, si on fait un nouveau point au 3131 décembre, on va se rendre compte, qu’effectivement, il y a eu environ 50 % de naissances de garçons et 50 % de naissances de filles. Il s’agit là d’un cas d’application de la loi des grands nombres.

Vous avez aimé ce cours ?

Faîtes-le nous savoir dans les commentaires !

Avatar (prévisualisation)
avatar

Skyost Modérateur

Merci beaucoup, je viens de corriger cette erreur ! 😉

09/10/2020 17:46:54
avatar

MARCHAND

Ce cours est très clair et m'a permis de lever plusieurs ambigüités. il semblé remarquer une erreur 0.25/0.9² = 0.3086

09/10/2020 13:54:41