La première question qui se pose quand on connait les paramètres de position comme la moyenne est : La moyenne est-elle significative ?
Par exemple, si la moyenne générale d'une classe d'élève en mathématiques est 10, s'agit-il d'une classe moyenne ?
Voici 3 histogrammes correspondant à des profils distincts de classes pour lesquelles la moyenne générale est exactement 10/20 :
On voit clairement que, sur le premier diagramme, les notes sont uniformément réparties (il y a de tout).
Dans le troisième cas il y a un groupe d'élèves extrêmement faible et un groupe d'élève extrêmement fort. Les mauvais résultats des uns sont compensés par les performances des autres, ce qui explique une moyenne générale de 10, mais cette classe est tout sauf 'moyenne'.
Enfin pour le second cas (diagramme du milieu) les notes se concentrent autour de la moyenne. Il semble bien que dans ce cas précis on ait affaire à un groupe vraiment moyen.
Nous nous fixons pour but ici de définir des critères quantitatifs précis nous permettant de dire si une population est homogène ou non du point de vue d'un caractère particulier.
Nous pourrons donc mesurer l'homogénéité ou son contraire l'hétérogénéité.

Étendue

La première mesure qui peut venir à l'esprit est de mesurer la différence entre les extrêmes.
On appelle 'amplitude' (ou 'étendue') d'une série statistique S la différence max(S)-min(S) entre les modalités extrêmes.
A coup sûr, une faible amplitude est la garantie d'un groupe homogène.
Mais peut-on dire réciproquement que si l'amplitude est élevée le groupe n'est pas homogène ?
Considérons cet histogramme :

L'amplitude est manifestement forte, mais ceci est dû à deux exceptions.
Si l'on excepte l'unique élève ayant obtenu un résultat brillant et celui ayant obtenu des résultats catastophiques, le reste du groupe est homogène.
Ainsi si l'étendue est une bonne mesure de l'homogénéité lorsqu'elle est faible, elle n'est pas significative lorsqu'elle est élevée.
Il nous faut donc d'autres instruments de mesure pour affiner notre diagnostic.

Écart absolu moyen

La première idée qui peut venir est de constituer à partir de la série S=(x0, x1, ... ,xn-1) la série des écarts yi=xi-μ (0≤i≤n-1) où μ est la moyenne de la série.
Cependant, si nous faisons la moyenne de ces écarts elle sera toujours nulle les écarts positifs étant compensés exactement par les écarts négatifs.
Il existe une première façon de remédier à cet état de chose, c'est de considérer les valeurs absolues de ces écarts. C'est ainsi qu'on définit l'écart absolu moyen.
"L'écart absolu moyen" est la moyenne de la série |xi-μ|
e = i = 0 n 1 x i μ n
L'écart absolu moyen est peu utilisé, on lui préfère une autre mesure définie ci-après.

Variance

Au lieu de prendre la valeur absolue des écarts on peut tout aussi bien élever ces écarts au carré et faire la moyenne des résultats, c'est précisément ce qu'on appelle la variance de la série statistique.
La 'variance' d'une série est la moyenne de la série (xi-μ)2
v = i = 0 n 1 ( x i μ ) 2 n
Autre formule pour la variance (théorème de König-Huygens):
La variance peut également être calculée par la formule suivante (plus simple) :
v = i = 0 n 1 x i 2 n μ 2
Soit encore :
v ( X ) = X 2 ¯ ( X ¯ ) 2
La variance est donc la différence entre la moyenne des carrés et le carré de la moyenne.
La preuve est instantanée en développant (xi-μ)2 =xi2-2μxi2.
Voyons ce que deviennent ces formules dans le cas d'une série triée et regroupée avec les effectifs des modalités S=((xi,ei)) 0≤i≤p-1.
Un calcul rapide nous donne :
v = i = 0 p 1 f i ( x i μ ) 2 = i = 0 p 1 f i x i 2 μ 2
où chaque fi=ei/n est la fréquence de xi.

Écart-type

De par la mise au carré des écarts, l'unité de la variance est le carré de celle du caractère (si le caractère est en kg, sa moyenne est en kg mais sa variance est en kg2) d'où l'impossibilité d'additionner la moyenne et la variance.
L'écart type (noté σ) est la racine de la variance (son unité est donc la même que celle de la moyenne).
σ=√v
Cela a l'air anecdotique mais la possibilité d'additionner moyenne et écart type est fondamentale, en particulier pour le calcul d'intervalle de confiance.
Par exemple, lorsque le caractère statistique a une distribution particulière assez courante dite 'normale gaussienne' (nous verrons en probabilités de quoi il s'agit), grossièrement en forme de cloche, l'écart type prend tout son sens.
Image wikipédia

Propriétés

Les propriétés suivantes se vérifient immédiatement sur la définition.
Invariance par translation :
L'écart type n'est pas modifié si on ajoute ou retranche une constante à la série statistique.
Si yi = xi + C alors σy = σx.
Stabilité par multiplication par une constante :
Si on multiplie une série par une constante positive, l'écart type est multiplié par la même constante.
Si yi = Kxi alors σy = Kσx.
L'écart type est toujours positif et est nul si et seulement si la série statistique est constante.
Cela résulte du fait qu'on peut évidemment dire la même chose de la variance.

Ecart-type relatif

Un écart-type fort ne révèle une grande hétérogénéité que pour des valeurs moyennes faibles du caractère.
Pour une mesure relative de l'hétérogénéité (ou de son contraire) on introduit donc, quand la moyenne n'est pas nulle, l'écart-type relatif :
"L'écart-type relatif" ou "coefficient de variation" est le rapport σ/μ

Café Python

Voici un programme qui génère une série statistique et qui calcule le maximum, le minimum et l'étendue de la série :

Le programme suivant fait la même chose en utilisant les fonctions prédéfinies max et min.

Le programme suivant calcule l'écart absolu moyen.

Pour un calcul de variance, écart-type, voir cet exercice.