Comme dans le cas précédent, nous ne considérons ici que des variables aléatoires à valeurs réelles.
Pour ce qui concerbe la motivation, nous encourageons le lecteur à commencer par lire ou relire la page consacrée aux paramètres de dispersion en statistique descriptive.
Une approche 'globalisante' du sujet suppose connue la théorie générale de l'intégration de Lebesgue, nous adopterons donc, cette fois encore, une approche progressive au cas par cas.

Cas des univers finis

Soit donc Ω un univers fini et X une v.a. sur cet univers. Soit E(X) l'espérance de X et soient x1,x2, ... ,xp les valeurs distinctes que prend la variable X.
On appelle 'variance' de X, le nombre :
v ( X ) = i = 1 p ( x i E ( x ) ) 2 P ( X = x i )
Une formule équivalente est :
v ( X ) = i = 1 n ( x i E ( X ) ) 2 p i
où Ω={ω1, ω2, ... ,ωn}
pi=P({ωi})
xi=X(ωi).

Exemple de calcul

Reprenons l'exemple du lancer des deux dés et de la variable somme des deux faces.
Voici un tableau récapitulatif
de toutes les situations possibles
Voici la loi de X :
d2\d1
1
2
3
4
5
6
1
2
3
4
5
6
7
2
3
4
5
6
7
8
3
4
5
6
7
8
9
4
5
6
7
8
9
10
5
6
7
8
9
10
11
6
7
8
9
10
11
12
P(X=2)
1/36
P(X=3) 2/36
P(X=4) 3/36
P(X=5) 4/36
P(X=6) 5/36
P(X=7) 6/36
P(X=8) 5/36
P(X=9) 4/36
P(X=10) 3/36
P(X=11) 2/36
P(X=12) 1/36
Nous avons vu à la page précédente que l'espérance est 7.
Le calcul donne
5 2 × 1 + 4 2 × 2 + 3 2 × 3 + 2 2 × 4 + 1 2 × 5 + 0 2 × 6 + 1 2 × 5 + 2 2 × 4 + 3 2 × 3 + 4 2 × 2 + 5 2 × 1 36 = 105 18

Cas des univers discrets dénombrables

On suppose qu'on a une distribution de probabilité sur l'ensemble avec une suite P(n)=pn de sorte que :
n = 0 p n = 1
On suppose également qu'on a une v.a. X sur possédant une espérance mathématique E(X).
Dans ces conditions si la série
n = 0 ( X ( n ) E ( x ) ) 2 p n
sa somme notée v(X) s'apelle la variance de X.

Exemple de calcul

Reprenons l'exemple de la distribution géométrique.
Pour tout n ≥ 1 posons X(n)=kn où k est un nombre vérifiant -p < k < p.
On sait que l'espérance est :
E ( X ) = kpq p k
En utilisant le résultat ci-dessous (Théorème de König-Huygens) on trouve :
v ( X ) = pq k 2 p k 2 p 2 q 2 k 2 ( p k ) 2

Cas des v.a. à densité

Si X est une variable absolument continue de densité f, la variance de X sera définie par : v ( X ) = + ( x E ( x ) ) 2 f ( x ) dx

Exemple de calcul

Reprenons l'exemple de la page précédente.
La densité est représentée par la fonction :

Sachant que E(X)=2/3, on a donc :
v ( X ) = 0 1 ( x 2 3 ) 2 2 xdx = 1 18

Propriétés

Dans tous les cas, il résulte des défiitions de l'eséparance et de la variance que :
On peut définir la variance comme l'espérance de la variable (X-E(X))2
Théorème de König-Huygens :
La variance de X peut être calculée par la formule v(X)=E(X²)-E(X)²
Ceci s'obtient en développant le carré (X-E(X))2 et en appliquant les propriétés de l'espérance.
Les deux propriétés suivantes résultent des définitions :
Var(X+b)=Var(X) pour toute constante b.
Var(aX)=a²var(X) pour toute constante réelle a.

Ecart-type

Comme en statistique descriptive, l'écart-type est défini comme la racine carrée de la variance :
σ(X)=√v(X)

Variables réduites

On dit que la variable X est 'réduite' si elle est de variance 1.
Il est facile de réduire une variable quelconque de varance non nulle. En effet, il résulte de ce qui précède que si v(X) est non nulle la variable X/σ(X) est réduite.
En outre la variable (X-E(X))/σ(X) est à la fois centrée et réduite.

Café Python

Voici un petit programme qui calcule l'espérance et la variance dans le cas de variables aléatoires définies sur un ensemble fini.
Ce programme vérifie l'exactitude des calculs d'espérance et de variance donnés dans l'exemple de cette page.