Variables aléatoires
Cours

retour

1. Variable aléatoire

Déf. Définir une variable aléatoire $X$ sur une expérience aléatoire donnée, c'est associer un nombre réel à chaque issue de l'expérience.
On peut alors définir des événements tels que $\{X=a\}$ (la variable aléatoire prend la valeur $a$) ou $\{X\geqslant a\}$ (la variable aléatoire prend une valeur supérieure ou égale à $a$) etc…

Ex. Jeu : Vous lancez un dé cubique classique.

Si $X$ est la variable aléatoire qui donne votre gain : \[ P(X= 2) = \frac 1 6\;;\quad P(X = 0) =\frac 4 6\;;\quad P(X < 0) = \frac 1 6. \]

Déf. Établir la loi d'une variable aléatoire $X$, c'est :

On présente souvent ces probabilités sous forme de tableau.

Ex. Si l'on reprend l'exemple précédent : $X\in\{-2;0;2\}$.
La loi de $X$ est \[\begin{array}{|r|c|c|c|} \hline x_i & -2 & 0 & 2\\ \hline \rule[-.5em]{0em}{1.6em}P(X=x_i) & \dfrac 1 6 & \dfrac 2 3 & \dfrac 1 6 \\ \hline \end{array} \]

Rem. Puisque toutes les valeurs possibles de $X$ figurent dans la loi de $X$, la somme des probabilités doit être égale à 1.

2. Résumés d'une variable aléatoire

Dans cette section, on considère une variable $X$ de loi : \[\begin{array}{|l||c|c|c|c|} \hline x_i &x_1 & x_2 & \cdots & x_n \\ \hline P(X=x_i) & p_1 & p_2 & \cdots & p_n \\ \hline \end{array}\]

Déf. On appelle espérance de $X$ le réel $\operatorname E(X)$ (ou $\mu$) défini par : \[\mu = \operatorname E(X) = \sum_{i=1}^n p_ix_i = p_1x_1 + p_2x_2 + \cdots + p_nx_n.\]

Si l'on répète l'expérience un très grand nombre de fois, la moyenne des valeurs obtenues pour $X$ se rapproche de plus en plus de l'espérance (c'est la loi des grands nombres).

Ex. Si l'on reprend l'exemple du jeu, son espérance est \[\operatorname E(X) = \frac 1 6 \times (-2) + \frac 4 6 \times 0 + \frac 1 6 \times 2 = 0.\] Donc si vous jouez un grand nombre de fois à ce jeu, en moyenne vous n'aurez (presque) rien gagné ou perdu.
Dans ce cas, on dit que le jeu est équitable.

Déf. On appelle variance de $X$ le réel $\operatorname V(X)$ défini par : \[\operatorname V(X) = \sum_{i=1}^n p_i\left(x_i - \mu\right)^2 = p_1\left(x_1 - \mu\right)^2 + \cdots + p_n\left(x_n - \mu\right)^2.\]

La variance est l'espérance des carrés des écarts par rapport à l'espérance.
Elle estime si $X$ a tendance à se disperser loin de son espérance ou pas.

Ex. Considérons deux variables $X$ et $Y$ de lois respectives \[ \begin{array}{|c|c|c|} \hline x_i & -10 & 10 \\ \hline P(X=x_i) & 0,5 & 0,5 \\ \hline \end{array} \] et \[ \begin{array}{|c|c|c|} \hline y_i & -100 & 100 \\ \hline P(Y=y_i) & 0,5 & 0,5 \\ \hline \end{array} \] Il est clair que $\operatorname E(X) = \operatorname E(Y) = 0$.
Par contre : \[\begin{aligned} \operatorname V(X) &=0,5(-10-0)^2 + 0,5(10-0)^2 = 100\;;& \\ \operatorname V(Y) &=0,5(-100-0)^2 + (100-0)^2 = 10000.& \end{aligned}\] Les valeurs de $X$ s'éloignent "en moyenne" moins de l'espérance que celles de $Y$.

Les valeurs données par la variance peuvent sembler excessives. Dans l'exemple précédent, on aurait pû vouloir obtenir 10 et 100 comme valeurs pour mesurer les dispersions de $X$ et $Y$.
Cela est dû au fait que nous avons mis les écarts au carré dans la définition de la variance.
C'est pourquoi on définit un autre indicateur de dispersion.

Déf. On appelle écart type de $X$ le réel $\sigma(X) = \sqrt{V(X)}$.