Nous nous proposons maintenant de réduire, autant que faire se peut, les matrices et les endomorphismes associés, dans le cas où E est un espace vectoriel de dimension finie sur un corps K algébriquement clos (comme ℂ par exemple).
Nous allons d'abord définir les 'matrices de Jordan' qui sont des matrices bandes morphologiquement très voisines des matrices diagonales, puis nous montrerons que dans les conditions ci-dessus, relativement à une base bien choisie, toute matrice peut être décomposée en 'blocs de Jordan'.

Camille Jordan - Image:http://fr.wikipedia.org/wiki/Fichier:Jordan_3.jpeg

Matrices de Jordan

Ce sont les matrices de la forme:
λ 1 0 0 ... 0 0
0 λ 1 0 ... 0 0
0 0 λ 1 ... 0 0
.. .. .. .. ... .. ..
0 0 0 0 ... λ 1
0 0 0 0 ... 0 λ
Exemples selon l'ordre
Matrices de Jordan d'ordre 1 Matrices de Jordan d'ordre 2 Matrices de Jordan d'ordre 3
(λ)
( λ 1 )
0 λ
( λ 1 0 )
0 λ 1
0 0 λ

Théorème de décomposition

Soit u un endomorphisme de E. Supposons que
pu(X)=(λ1-X)r12-X)r2...(λq-X)rq
soit la décomposition du polynôme caractéristique de u en facteurs du premier degré.
Posons Ei= Ker(u-λi)ri pour 1≤i≤q
Dans ces conditions: E = E1⊕E2⊕...⊕Eq
Chaque Ei est de dimension ri

La démonstration utilise un résultat d'algèbre non démontré ici, mais dont on pourra trouver un analogue dans le modules 'Nombres' (chapitre 'Entiers Relatifs'). Il s'agit du 'théorème de Bezout', que nous énonçons ci-après:
Soient p1(X), ..., pq (X) q polynômes premiers entre eux, alors il existe des polynômes h1(X), ... ,hq(x) tels que: 1 = p1(X)h1(X) +...+pq(X)hq(X)
Posons fi(X)=(λi-X) ri
et gi(X)=u(X)/fi(X)
Alors les gi sont premiers entre eux. Il existe donc des polynômes hi(X) tels que: 1 = h1(X)g1(X)+...+hq(X)gq(X)
Posons maintenant ui=fi(u) vi=gi(u) wi=hi(u)
On définit ainsi 3q endomorphismes qui commutent 2 à deux parce que ce sont tous des polynômes en u.
Le théorème de Bezout peut donc s'écrire en remplaçant l'inconnue X par u et 1 par l'unité i de GL(E):
w1ov1+...+wqovq=i
Ce qui peut encore s'écrire:
x=w1(v1(x)+...+ wq(vq(x)) ∀ x ∈ E
Cela dit on a d'après le théorème de Hamilton-Cayley
pu(u)=fi(u)gi(u)=uiovi=0
Donc à plus forte raison wiouiovi = uiowiovi=0
Ce qui prouve que pour tout x wi(vi(x)) ∈ Ei
donc que tout vecteur x peut s'écrire sous la forme:
x=x1+...+xq où chaque xi ∈ Ei donc que E= E1+...+Eq
Sachant que r1+...+rq=n, pour montrer que la somme est directe il suffit de montrer que:
dim(Ei) ≤ ri pour chaque i 1≤i≤q
Comme u commute avec ui, il est clair que pour chaque i u(Ei) ⊆ Ei. Désignons par u'i l'endomorphisme de Ei induit par u. On voit que le polynôme caractéristique de u'i divise pu(X).
Il existe une base de Ei par rapport à laquelle la matrice de u'i est triangulaire. Mais comme on a (u'ii)ri=0 par définition des Ei et des u'i.
Les coefficients diagonaux de la matrice de u'i par rapport à la base en question sont donc les λi de sorte que pu'i(X)=(λi-X)dim(Ei).
L'inégalité dim(Ei) ≤ ri résulte donc du fait que pu'i divise pu.

Réduction à la forme de Jordan

Sous les hypothèses de ce début de paragraphe, pour tout endomorphisme u de E, il existe une base de E par rapport à laquelle la matrice de u s'écrit sous forme de blocs:
U1 0 0 ... 0
0 U2 0 ... 0
.. .. .. ... ..
0 0 0 ... Ur
où chaque matrice Ui est une matrice de Jordan

La démonstration utilise le résultat précédent conjointement avec les résultats du paragraphe précédent sur les endomorphismes nilpotents.
Soient donc λ1, ..., λq les diverses valeurs propres de u avec des multiplicités respectives r1, ..., rq. Soit Ei les q sous-espaces Ker(u-λi)ri.
On sait que les sous espaces Ei sont en somme directe et sont de dimensions ri.
Puisque u commute à (u-λi)ri chaque Ei est stable par u.
Soit ui la restriction de u à Ei . Alors uii est nilpotent par définition des Ei.
Il suffit donc d'appliquer le théorème de structure à chacun des endomorphismes uii sur les sous-espaces Ei.
Considérons alors une base de E formée d'une réunion de bases des Ei pour lesquelles chaque endomorphisme nilpotent ui- λi a une matrice réduite.
Supposons, par exemple, que la matrice de u11 soit :
0 1 0 0 0 0 0
0 0 1 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 1 0
0 0 0 0 0 0 1
0 0 0 0 0 0 0
Cette matrice peut être réécrite:
U1 0 0
0 U2 0
0 0 U3
avec:
U1 = U2 = U3 =
0 1 0
0 0 1
0 0 0
(0)
0 1 0
0 0 1
0 0 0
La matrice de la restriction de u à E1 sera donc:
V1 0 0
0 V2 0
0 0 V3
avec:
V1 = V2 = V3 =
λ1 1 0
0 λ1 1
0 0 λ1
1 )
λ1 1 0
0 λ1 1
0 0 λ1
où l'on reconnaît trois matrices de Jordan.

Exemple pratique de décomposition

Cherchons à réduire:
3 1 0 0
-4 -1 0 0
7 1 2 1
-17 -6 -1 0
Le programme suivant établit que 1 est valeur propre de multiplicité 4 et que A-I est nilpotente d'indice 2. Les calculs peuvent très bien être faits à la main.

Il nous faut maintenant calculer la dimension de Ker(u-i).
On trouve 2.
Il faut donc partir d'une base d'un supplémentaire de Ker(u-i).
On peut prendre x1 =(1,0,0,0) et x2 =(0,1,0,0)
On les transforme par u-i en :
x3 =(2,-4,7,-17) x4 =(1,-2,1,-6)
On prendra donc la base: B=(x3,x1,x4,x2)
L'inverse P-1 de la matrice de passage est donc:
2 1 1 0
-4 0 -2 1
7 0 1 0
-17 0 -6 0
La matrice de passage P est:
0 0 6/25 1/25
1 0 1/5 1/5
0 0 -17/25 -7/25
0 1 -2/5 -2/5
Le produit PAP-1 vaut :
1 1 0 0
0 1 0 0
0 0 1 1
0 0 0 1
qui est la réduite de Jordan cherchée.

Utilité pratique

Il va de soi qu'une telle décomposition ne se fait pas dans un but uniquement esthétique. De fait ce résultat est très lié à la théorie des équations différentielles linéaires à coefficients constants. Cette théorie est la généralisation à n fonctions de l'équation différentielle classique:
y'=ay dont la forme générale de la solution est y=keat. La généralisation donc s'écrit:
Y'=AY où Y est en fait une fonction d'une variable à valeurs dans ℝn ou bien ℂn
Y=(y1(t),...,yn(t)) La théorie dit que la solution générale est de la forme Y=exp(tA)Y0 où Y0 est le vecteur (y1(0),...,yn(0)).
Tout revient donc à calculer l'exponentielle d'une matrice définie à priori comme la somme d'une série infinie:
exp(A)= Σ Ak /k!
k=1
Or il advient que l'exponentielle d'une matrice de Jordan est facile à calculer.
Pour une telle matrice on a:
J=D+N où D est diagonale et N nilpotente D et N commutant.
On a donc exp(J)=exp(D)×exp(N).
Or l'exponentielle d'une matrice diagonale est la matrice diagonale des exponentielles des éléments diagonaux.
L'exponentielle d'une matrice nilpotente est un simple polynôme puisque tous les termes de la série sont nuls à partir d'un certain rang.