Variables aléatoires
Cours
retour
Déf.
Définir une variable aléatoire $X$ sur une expérience aléatoire donnée, c'est associer un
nombre réel à chaque issue de l'expérience.
On peut alors définir des événements tels que $\{X=a\}$
(la variable aléatoire prend la valeur $a$)
ou $\{X\geqslant a\}$ (la variable aléatoire prend une valeur supérieure ou égale à $a$)
etc…
Ex. Jeu : Vous lancez un dé cubique classique.
Déf. Établir la loi d'une variable aléatoire $X$, c'est :
Ex.
Si l'on reprend l'exemple précédent :
$X\in\{-2;0;2\}$.
La loi de $X$ est
\[\begin{array}{|r|c|c|c|} \hline
x_i & -2 & 0 & 2\\ \hline
\rule[-.5em]{0em}{1.6em}P(X=x_i) & \dfrac 1 6 & \dfrac 2 3 & \dfrac 1 6 \\ \hline
\end{array}
\]
Rem. Puisque toutes les valeurs possibles de $X$ figurent dans la loi de $X$, la somme des probabilités doit être égale à 1.
Dans cette section, on considère une variable $X$ de loi : \[\begin{array}{|l||c|c|c|c|} \hline x_i &x_1 & x_2 & \cdots & x_n \\ \hline P(X=x_i) & p_1 & p_2 & \cdots & p_n \\ \hline \end{array}\]
Déf. On appelle espérance de $X$ le réel $\operatorname E(X)$ (ou $\mu$) défini par : \[\mu = \operatorname E(X) = \sum_{i=1}^n p_ix_i = p_1x_1 + p_2x_2 + \cdots + p_nx_n.\]
Si l'on répète l'expérience un très grand nombre de fois, la moyenne des valeurs obtenues pour $X$ se rapproche de plus en plus de l'espérance (c'est la loi des grands nombres).
Ex.
Si l'on reprend l'exemple du jeu, son espérance est
\[\operatorname E(X) = \frac 1 6 \times (-2) + \frac 4 6 \times 0 + \frac 1 6 \times 2 = 0.\]
Donc si vous jouez un grand nombre de fois à ce jeu, en moyenne vous n'aurez (presque)
rien gagné ou perdu.
Dans ce cas, on dit que le jeu est équitable.
Déf. On appelle variance de $X$ le réel $\operatorname V(X)$ défini par : \[\operatorname V(X) = \sum_{i=1}^n p_i\left(x_i - \mu\right)^2 = p_1\left(x_1 - \mu\right)^2 + \cdots + p_n\left(x_n - \mu\right)^2.\]
La variance est l'espérance des carrés des écarts par rapport à l'espérance.
Elle estime si $X$ a tendance à se disperser loin de son espérance ou pas.
Ex.
Considérons deux variables $X$ et $Y$ de lois respectives
\[
\begin{array}{|c|c|c|} \hline
x_i & -10 & 10 \\ \hline
P(X=x_i) & 0,5 & 0,5 \\ \hline
\end{array}
\]
et
\[ \begin{array}{|c|c|c|} \hline
y_i & -100 & 100 \\ \hline
P(Y=y_i) & 0,5 & 0,5 \\ \hline
\end{array}
\]
Il est clair que $\operatorname E(X) = \operatorname E(Y) = 0$.
Par contre :
\[\begin{aligned}
\operatorname V(X) &=0,5(-10-0)^2 + 0,5(10-0)^2 = 100\;;&
\\
\operatorname V(Y) &=0,5(-100-0)^2 + (100-0)^2 = 10000.&
\end{aligned}\]
Les valeurs de $X$ s'éloignent "en moyenne" moins de l'espérance que celles de $Y$.
Les valeurs données par la variance peuvent sembler excessives.
Dans l'exemple précédent, on aurait pû vouloir obtenir 10 et 100 comme valeurs
pour mesurer les dispersions de $X$ et $Y$.
Cela est dû au fait que nous avons mis les écarts au carré dans la définition de la variance.
C'est pourquoi on définit un autre indicateur de dispersion.
Déf. On appelle écart type de $X$ le réel $\sigma(X) = \sqrt{V(X)}$.