Cours Alg4
Cours Alg4
Cours Alg4
Rami Youssef
Université Moulay Ismail
Faculté des Sciences, Meknès
Filière Mathématiques et Applications.
2021-2022
0.0
Rami Youssef 2
Table des matières
0.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1 Rappels 5
1.1 Système d’équations linéaires : traitement matriciel . . . . . . . . . . . . . . . . 5
1.1.1 Équation linéaire versus équation matricielle . . . . . . . . . . . . . . . . 5
1.1.2 Forme échelonnée réduite . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2 Autres propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . 14
4 Applications 45
4.1 Systèmes différentiels linéaires à coefficients constants . . . . . . . . . . . . . . . 45
4.2 Équation différentielle à coefficients constants . . . . . . . . . . . . . . . . . . . 46
3
TABLE DES MATIÈRES 0.1
0.1 Introduction
L’ Algèbre 4 fait partie des modules de Algèbre linéaire, il est une suie naturelle du module
Algèbre 3 enseigné au semestre 2. L’objectif principal est d’élaborer des méthodes plus pratiques
dans la résolution des systèmes d’équations linéaires. Rappelons qu’une équation linéaire est de
la forme f (x) = y où f : E −→ F désigne une application linéaire entre deux espaces vectoriels
à coefficients dans un même corps K que l’on prendra en général égal à R ou C. Quand E et F
sont de dimensions finies respectives égales à m et n, l’équation f (x) = y est remplacée par une
équation matricielle M X = Y avec M = M (f ; BE , BF ) ; la matrice représentative de f dans les
bases BE et BF , X =t x et Y =t y les vecteurs transposés respectifs de x et y.
L’équation M X = Y est souvent appelée un système linéaire à n = dim F équations et
m = dim E inconnues. Compte tenu des correspondances biunivoques entre les applications
linéaires, les matrices et les systèmes linéaires ; la résolution de M X = Y utilise en général des
transformations sur M (la matrice associée au système). Parmi les méthodes ayant été utilisées
en Algèbre 3, nous citons celle de Gauss, appelée aussi, la méthode des matrices échelonnées.
Elle utilise les opérations sur les lignes ainsi que la possibilité d’interchanger celles-ci pour
transformer le système du départ en un système plus simple à partir duquel on détermine
l’ensemble des solutions par substitutions. Cet ensemble est soit vide, soit réduit à un seul
élément (quand la solution est unique) soit infini et dans ce cas il n’est autre qu’un sous espace
affine de E qui exige un travail supplémentaire pour déterminer sa base. Notons au passage
que la méthode de Gauss induit une matrice (celle du système linéaire final) dépendante des
opérations choisies. Néanmoins, la réduction par la méthode de Gauss engendre une relation
d’équivalence et par conséquent, assure l’indépendance de la solution des opérations choisies.
Une extension élaborée de cette méthode, appelée méthode de Gauss-Jordan, permet lorsqu’elle
est accompagnée des opérations sur les lignes (ou sur les colonnes) d’obtenir une matrice appelée
forme réduite échelonnée qui est représentative de sa classe d’équivalence. On dit aussi qu’elle
est canonique. Les deux méthodes décrites ci-dessus deviennent difficiles à traiter au fur et
à mesure que n et m prennent des valeurs assez grandes. Les notions principales de ce cours
sont : la trigonalisation, la diagonalisation et la jordanisation de matrices carrées et donc des
endomorphismes d’espaces vectoriels de dimensions finies.
Dans le premier chapitre de ce cours, en plus d’un bref aperçu sur les méthodes de Gauss et
de Gauss-Jordan, nous rappellerons les principaux outils indispensables pour tout ce qui suivra
ainsi qu’une introduction résumé des propriétés de l’ingrédient incontournable : déterminant
d’une matrice carré. Au second chapitre, on introduira les invariants de similitude (valeur propre,
vecteur propre, ...) et on donnera les critères essentiels de trigonalisation et de diagonalisation.
Le troisième chapitre sera consacré à la réduction des matrices carrées par les méthodes du
Dunford-Jordan et de Jordan. Le dernier chapitre sera réservé à certaines applications notamment
en Analyse.
Rami Youssef 4
Chapitre 1
Rappels
i=n j=m
yj e0j .
X X
xi f (ei ) = (1.2)
i=1 j=1
Pj=m
Posons f (ei ) = j=1 aji e0j pour tout i ∈ J1, nK := {1, 2, . . . , n}. La dernière formule devient
alors :
i=n j=m X j=m
i=n j=m
X i=n j=m
aji e0j aji xi e0j ] aji xi ]e0j yj e0j .
X X X X X
xi = [ = [ = (1.3)
i=1 j=1 i=1 j=1 j=1 i=1 j=1
Par conséquent, on obtient le système d’équations linéaires suivant, avec une forme explicite
et une forme matricielle (c’est à dire, exprimer d’une façons simplifiée en terme des matrice)
comme suit :
a11 x1 + a12 x2 + . . . + a1n xn
= y1
a21 x1 + a22 x2 + . . . + a2n xn = y2
(S) : ⇔ MX = Y (1.4)
· · · · ··
am1 x1 + am2 x2 + . . . + amn xn = ym
5
CHAPITRE 1. RAPPELS 1.1
avec
a11 a12 . . . a1n x1 y1
a a22 . . . a2n x2 y2
M = 21 , X = = t x et Y = = t y. (1.5)
··· ··· ··· ··· · · · · · ·
am1 am2 . . . amn xn yn
Définition 1.1.2
La matrice M est appelée matrice de f dans les bases B et B 0 .
Notez que, pour tout i ∈ J1, nK, f (ei ) = (a1i , a2i , . . . , ami ) dans la base canonique B 0 . On note
alors
M = M (f, B, B 0 ).
Réciproquement, étant donné une matrice M à coefficients dans un corps K ayant n colonnes
et m lignes ; ses vecteurs colonnes définissent une application linéaire f : Kn → Km tel que
M = M (f, B, B 0 );
M 0 = P −1 M P
Rami Youssef 6
CHAPITRE 1. RAPPELS 1.1
rg(S) = rg(M ) = rg(f ) = dim Im(f ) = rg(f (e1 ), f (e2 ), . . . , f (en )).
Proposition 1.1.5
1- rg(S) est égale à l’ordre de (n’importe quelle) sous-matrice carrée inversible maximale de M .
2- rg(S) ≤ inf(m, n).
3- Les nombres d’équations et d’inconnues principales sont identiques et valent rg(S).
4- La solution de système (S) est donnée en fonction des inconnues non principales (quand elles
existent).
Rami Youssef 7
CHAPITRE 1. RAPPELS 1.1
Exemple 1.1.8
Considérons le système linéaire suivant :
x + y − 2z = −2
y + 3z = 7
x + −z = −1
z = 2 ⇒ y = 7 − 3z = 1 ⇒ x = −2 − y + 2z = 1.
Remarque 1.1.9
En résumé, la méthode de Gauss utilise les opérations sur les lignes pour configurer un système
jusqu’à arriver au stade permettant d’utiliser la substitution ascendante susceptible de déterminer
la solution. Néanmoins, si une étape montre une équation contradictoire, nous devons nous
arrêter avec la conclusion que le système n’a pas de solutions. Si nous atteignons la forme
échelonnée sans équation contradictoire, et chaque variable est une variable principale dans sa
ligne, alors le système a une solution unique et nous la trouvons par substitution ascendante.
Enfin, si nous atteignons la forme échelonnée sans équation contradictoire, et qu’au moins une
variable n’est pas principale, alors le système a une infinité de solutions.
Exercice 1.1.10
En appliquant la méthode de Gauss, déterminer la matrice échelonnée et l’ensemble des solutions
de chacun des systèmes linéaires suivants et en tirer des conclusions :
x−y
= 0
x+y = 0
2x − 2y + z + 2w = 4
2x − y + 3z = 3
y+w = 0
x − 2y − z = 3
2z + w = 5
2x − 2z
= 6
x + 3y = 1 x + 3y = 1
y+z = 1
2x + y = −3 2x + y = −3
2x + y − z = 7
2x + 2y = −2
2x + 2y = 0
3y + 3z = 0
Rami Youssef 8
CHAPITRE 1. RAPPELS 1.2
Exemple 1.1.11
Reprenons le système linéaire déjà vu à l’exemple 1.2.7 :
x + y − 2z = −2
y + 3z = 7
x + −z = −1
La solution, comme trouvée par la méthode de Gauss, s’affiche en la colonne des coefficients :
x = y = 1 et z = 2.
Définition 1.1.12
Soit A et B deux matrices m × n. On dira que A se réduit en B si B s’obtient à partir de A
par application des opérations élémentaires. On notera A ∼op−el B.
Théorème 1.1.13
1. ∼op−el est une relation d’équivalence sur l’ensemble des matrices à m lignes et n colonnes.
2. Chaque classe d’équivalence contient au moins une matrice échelonnée.
3. Dans chaque classe d’équivalence, il y’a une matrice échelonnée réduite unique.
Remarque 1.1.14
La méthode de réduction par opérations élémentaires est utilisée également pour chercher l’ordre
d’une matrice carrée et par suite, connaitre si elle est inversible ou non. Elle donne directement
l’inverse quand il existe.
Rami Youssef 9
CHAPITRE 1. RAPPELS 1.2
1.2 Déterminants
1.2.1 Définitions et propriétés
Rappel sur le groupe symétrique
Notons par Sn l’ensemble des bijections de J1, nK := {1, 2, . . . , n} vers lui même. Muni de la
composition des applications ◦, cet ensemble est un groupe (non commutatif dés que n dépasse
3) appelé, groupe symétrique d’ordre n. Attention, son ordre (en tant que groupe) est n!.
Un élément quelconque de Sn est noté comme suit :
!
1 2 3 ... n−1 n
σ=
σ(1) σ(2) σ(3) . . . σ(n − 1) σ(n)
Définition 1.2.1
Soit σ ∈ Sn et i, j ∈ J1, nK. on dit que le couple (i, j) présente une inversion pour σ si :
i < j ⇒ σ(i) > σ(j). Le nombre de tels couples est noté l(σ).
Définition 1.2.2
On appelle signature de σ ∈ Sn , le nombre ε(σ) = (−1)l(σ) .
Remarque 1.2.3
Comme il n’est pas pratique de calculer ε(σ) en utilisant strictement la définition, tout un cours
sur les groupes symétriques (partie du module Algèbre 6) a parmi ses objectifs d’élaborer des
méthodes simples pour faire ce calcul.
On rappelle en particulier
Définition 1.2.4
1- Une permutation γ ∈ Sn est un cycle d’ordre p si il existe {i1 , i2 , . . . ip } ⊆ J1, nK tel que :
σ(ik ) = ik+1 , ∀1 ≤ k ≤ p − 1, σ(ip ) = i1 et σ(i) = i, ∀i ∈ / {i1 , i2 , . . . ip }. On note alors
γ = (i1 , i2 , . . . ip ).
2- Une transposition τ est un cycle d’ordre deux, c’est à dire, une permutation préservant tous
les éléments de J1, nK sauf deux, i et j, qu’elle permute. On note alors τ = (i, j).
La proposition suivante résume les propriétés essentielles du groupe symétrique :
Proposition 1.2.5
1- Toute permutation se décompose, d’une façon unique à permutation près, en un produit de
cycles qui commutent deux à deux.
2- Toute permutation se décompose en produit de transpositions. Une telle décomposition n’est
pas unique, mais sa parité est préservée.
3– ε : Sn → {−1, 1} ; ε(σ) = (−1)l(σ) où {−1, 1} est muni de sa structure multiplicative, est un
morphisme surjectif de groupes.
4– Pour tout σ ∈ Sn , ε(σ) = (−1)n où n est le nombre de transpositions dans une décomposition
arbitraire (en produit de transpositions).
Rami Youssef 10
CHAPITRE 1. RAPPELS 1.2
Exemple 1.2.6
(i) (Décomposition en produit de cycles) :
!
1 2 3 4 5 6
1- Soit dans S6 , σ = On fait opérer G =< σ >= {σ i , i ≥ 0} sur
4 6 5 1 3 2
J1, 6K on trouve σ(1) = 4, σ 2 (1) = σ(4) = 1 (on s’arrête !) ; σ(2) = 6, σ 2 (2) = σ(6) = 2
(on s’arrête !) et σ(3) = 5, σ 2 (3) = σ(5) = 3 (on s’arrête !) et c’est terminé : Donc
σ = (1, 4) ◦ (2, 6) ◦ (3, 5) et ε(σ) = (−1)3 = −1. Dans ce cas, on obtient en fait une
décomposition en produit de transpositions !.
!
1 2 3 4 5 6
2- Soit dans S6 , σ = On fait opérer G =< σ > sur J1, 6K on
5 3 2 6 4 1
trouve σ(1) = 5, σ 2 (1) = σ(5) = 4, σ 3 (1) = σ(4) = 6, σ 4 (1) = σ(6) = 1 (on s’arrête !) ;
σ(2) = 3, σ 2 (2) = σ(3) = 2 (on s’arrête !). Dons σ = (1, 5, 4, 6) ◦ (2, 3).
(ii) : (Décomposition en produit de transpositions) :
En pratique, pour avoir une décomposition en produit de transposition, il suffit, une fois
celle en produit de cycles obtenue, de décomposer chaque cycle en produit de transpositions
en utilisant la formule suivante :
Définition du déterminant
Définition 1.2.7
Soit E et F deux espaces vectoriels sur un même corps K et f : E p −→ F une application (tout
court). On dit que f est multilinéaire (ou p-linéaire) si : ∀i ∈ J1, nK, ∀(x1 , . . . , xi−1 , xi+1 , . . . , xp ) ∈
E p−1 , l’application
E −→ F
x 7−→ f (x1 , . . . , xi−1 , x, xi+1 , . . . , xp )
est linéaire.
Plus explicitement, f est p-linéaire si ∀i ∈ J1, nK, ∀(x1 , . . . , xi−1 , xi+1 , . . . , xp ) ∈ E p−1 , ∀λ ∈
K, ∀x, y ∈ E :
f (x1 , . . . , xi−1 , x+λy, xi+1 , . . . , xp ) = f (x1 , . . . , xi−1 , x, xi+1 , . . . , xp )+λf (x1 , . . . , xi−1 , y, xi+1 , . . . , xp ).
xi = xj =⇒ f (x1 , x2 , . . . , xp ) = 0.
Rami Youssef 11
CHAPITRE 1. RAPPELS 1.2
On note ensemble des formes p-linéaire alternées par Λp (E, K). C’est en fait un espace vectoriel
sur K.
Soit E un espace vectoriel de dimension n sur K et B = {e1 , e2 , . . . en } une base de E. Si
u1 = (x11 , . . . , xn1 ), u2 = (x12 , . . . , xn2 ), . . . , un = (x1n , . . . , xnn )
désignent des vecteurs dans E exprimés dans la base B, l’application :
ω: En −→ K
(u1 , u2 , . . . , un ) 7−→ ω(u1 , u2 , . . . , un ) = σ∈Sn ε(σ) ni=1 xσ(i)i .
P Q
avec xσ(j)j = xσ(j)i . Notons ensuite τ = (i, j) la transposition de i et j, de sorte que xσ(τ (j))j =
xσ(τ (j))i . Ainsi :
X n
Y
ω(u1 , u2 , . . . , ui , . . . , uj , . . . , un ) = ε(σ) xσ(τ (i))i
σ∈Sn i=1
et par conséquent :
ω(u1 , u2 , . . . , ui , . . . , uj , . . . , un ) = 0.
Revenons aux propriétés :
(1) vient du fait que si σ 6= IdJ1,nK , alors eσ(j)j = 0 pour au moins un certain j et eii = 1.
Pour (2), ν étant multilinéaire, on a
X n
Y
ν(u1 , u2 , . . . , un ) = xik k ν(ei1 , ei2 , . . . , ein ).
(ik )1≤k≤n k=1
Rami Youssef 12
CHAPITRE 1. RAPPELS 1.2
Mais toute suite (ik )1≤k≤n définie une permutation et une seule σ ∈ Sn donnée par σ(k) = ik et
donc : n X Y
ν(u1 , u2 , . . . , un ) = xσ(i)i ν(eσ(1) , eσ(2) , . . . , eσ(n) ).
σ∈Sn i=1
ν(e1 , . . . ei + ej , . . . , ei + ej , . . . en ) = 0
et donc
Rami Youssef 13
CHAPITRE 1. RAPPELS 1.2
Preuve.
D’après le corollaire précédent, ∀(v1 , . . . , vn ) ∈ E n ,
Définition 1.2.14
- On appelle déterminant d’une matrice M = (aij )1≤i,j≤n ∈ M (n, K), le déterminant de ses
vecteurs colonnes.
- Soit E espace vectoriel de dimension finie n muni de la base canonique B et f : E → E un
endomorphisme de E. On appelle déterminant de f dans B le scalaire
Proposition 1.2.15
Si B 0 est une autre base de E, alors detB (M (f, B)) = detB0 (M (f, B 0 )). Par conséquent, ce scalaire
ne dépend pas de B. On l’appelle déterminant de f et on le note det(f ).
Preuve.
Utilisant l’application ν(v1 , . . . vn ) = detB (f (v1 ), . . . , f (vn )) qui est multilinéaire alternée (du
fait que f est linéaire), on obtient pour (v1 , . . . , vn ) = (e01 , . . . , e0n ) :
detB (f (e01 ), . . . , f (e0n )) = detB (f (e1 ), . . . , f (en ))detB (e01 , . . . , e0n ) = detB (M (f, B))detB (B 0 ).
D’autre part ν 0 (v1 , . . . , vn ) = detB0 (v1 , . . . , vn ) est multilinéaire alternée et implique pour
(v1 , . . . , vn ) = (f (e01 ), . . . , f (e0n )) :
Par suite
detB0 (f, B 0 ) = detB0 (B)detB (B 0 )detB (M (f, B)) = detB (M (f, B)).
Proposition 1.2.16
Avec les mêmes notations précédentes, on a :
Rami Youssef 14
CHAPITRE 1. RAPPELS 1.2
Mais, comme σ est bijective, on peut écrire ni=1 aiσ(i) = ni=1 aσ−1 (i)i et comme ε est un
Q Q
Rami Youssef 15
CHAPITRE 1. RAPPELS 1.2
0
Notons Sn−m l’ensemble des permutations de Jm + 1, nK qu’on peut identifier à Sn−m .
C’est à dire, les σ1 (resp. les σ2 ) décrivent effectivement Sm (resp. Sn−m ) et par suite
X m
Y X n
Y
det M = [ ε(σ1 ) aσ1 (i)i ][ ε(σ2 ) aσ2 (i)i ] = det(A) det(C).
σ1 ∈Sm i=1 σ2 ∈Sn−m i=m+1
Les deux dernières propriétés (e) et (f) sont des techniques utilisées dans le calcul du
déterminant ; elles servent à réduire les calculs en se reposant sur le résultat suivant :
Proposition 1.2.17
Soit M = (aij )1≤i,j≤n ∈ M (n, K) et Mpq = (aij )1≤i,j≤n;i6=p,j6=q la sous-matrice de M obtenue on
éliminant la ligne p et la colonne q. Alors
n n
det(M ) =(1) (−1)i+j aij det(Mij ) =(2) (−1)i+j aij det(Mij ).
X X
(∗)
i=1 j=1
(=(1) : développement par rapport à la colonne j et =(2) : développement par rapport à la ligne i).
Preuve.
Notons par vj ; 1 ≤ j ≤ n les vecteurs colonne de M . Par définition, on a det(M ) =
detB (v1 , . . . , vn ) et donc par n-linéarité au niveau du vj , on a det(M ) = ni=1 aij det(v1 , . . . , vj−1 , ei , vj+1 , . . . ,
P
Pn 0 0 eme
i=1 aij det(M ) avec M la matrice obtenue à partir de M en remplaçant le j vecteur colonne
vj par le vecteur (0, . . . , 0, 1, 0, . . . 0). Ensuite, on effectue i − 1 déplacement à gauche de la j eme
colonne et j − 1 déplacement en haut de la ieme ligne de M 0 et on obtient alors la matrice
!
001 ai1 . . . aij−1 aij+1 . . . ain
M =
0 Mij
qui est une matrice triangulaire par bloc et par suite det(M 0 ) = (−1)i+j det(M 00 ) = (−1)i+j det(Mij ).
D’où le première égalité de la formule (*) (la deuxième, s’obtient d’une façon similaire).
Définition 1.2.18
Avec les notation ci-dessus, la co-matrice de M est la matrice M 0 = (a0ij ) avec a0ij = (−1)i+j det(Mij ).
On note sa transposée par M ∗ . Ainsi
Théorème 1.2.19
Si M ∈ M (n, K) alors M M ∗ = M ∗ M = det(M )In . En particulier si det(M ) 6= 0 alors M est
inversible et M −1 = det(M
1
)
M ∗.
Rami Youssef 16
CHAPITRE 1. RAPPELS 1.2
Preuve.
Avec les notations ci-dessus M M ∗ = (βij )1≤i,j≤n avec
n n
aik a00kj (−1)j+k aik det(Mjk ).
X X
βij = =
k=1 k=1
On distingue alors deux cas : (1) si i 6= j on remarque alors que βij n’est autre que le
déterminant obtenu à partir de M en remplaçant la ligne j par la ligne i et en développant
suivant la ligne j. Et comme celle-ci est formée de deux lignes identiques, βij = 0. (2) si i = j,
on a alors βij = βii = nk=1 (−1)i+k aik det(Mik ) qui n’est autre que det(M ). Par conséquent
P
M M ∗ = det(M )In . Pour l’autre égalité, raisonner de la même manière en considérant cette
fois-ci les colonnes au lieu des lignes.
En termine ce paragraphe par le résultat très utile suivant :
Proposition 1.2.20
Soit f un endomorphisme de E, alors les propriétés suivantes sont équivalentes
1. f est injective (⇔ ker(f ) = {0}).
2. f est surjective (⇔ Im(f ) = E).
3. det(f ) 6= 0.
4. det M (f, B) 6= 0 (B est une base quelconque de E).
5. M (f, B) est inversible.
Preuve.
Par le théorème du rang (dim E = dim ker(f ) + rg(f )), on a (1) ⇔ (2).
Par Proposition 1.2. 13, (2) ⇔ (f (e1 ), . . . , f (en )) est une base de E ⇔ (3).
Par définition, (3) ⇔ (4).
D’après le théorème précédent, (4) ⇔ (5).
Rami Youssef 17
CHAPITRE 1. RAPPELS 1.2
Rami Youssef 18
Chapitre 2
Dans tout le chapitre, on considère un espace vectoriel E de dimension finie, dim E = n, sur
un corps K quelconque en général et souvent égale à R ou C. L’ensemble des endomorphismes
EndK (E), de E sera noté LK (E).
19
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.1
∀x ∈ Eλ , ∀j ≥ 0, uj (x) = λj x.
C. à. d. Si λ est une valeur propre de u associée à x ∈ E, alors λj est une valeur
propre de uj associée au même x.
Le résultat suivant donne une propriété des valeurs propres quand elles sont prises toutes
ensemble.
Théorème 2.1.6
Si λ1 , λ2 , . . . , λk sont des valeurs propres distinctes deux à deux de u, alors
Eλ1 + Eλ2 + . . . + Eλk = Eλ1 ⊕ Eλ2 + . . . ⊕ Eλk .
Preuve.
On raisonne par récurrence sur k. C’est évident pour k = 1.
Supposons donc k = 2. Il faut montrer que Eλ1 ∩ Eλ2 = {0}. Soit x ∈ Eλ1 ∩ Eλ2 . x ∈ Eλ1 ⇒
u(x) = λ1 x et x ∈ Eλ2 ⇒ u(x) = λ2 x. Par suite λ1 x = λ2 x ce qui entraine (λ1 − λ2 )x = 0 et
puisque λ1 6= λ2 , alors x = 0.
Supposons, par récurrence, que c’est vrais pour un certain k ≥ 2 et soit λ1 , λ2 , . . . , λk+1
des valeurs propres distinctes deux à deux de u. Il faut montrer (sans perte de généralité)
que Eλk+1 ∩ (Eλ1 + Eλ2 + . . . Eλk ) = {0}. Soit donc x ∈ Eλk+1 ∩ (Eλ1 + Eλ2 + . . . ⊕ Eλk ) ;
x = xk+1 = i=k i avec xk+1 ∈ Eλk+1 et xi ∈ Eλi (1 ≤ i ≤ k). On a alors u(x) = λk+1 xk+1 =
P
Pi=k i=1 xP
i=k Pi=k Pi=k Pi=k Pi=k
i=1 λi xi ⇒ λk+1 ( i=1 xi ) = i=1 λi xi ⇒ i=1 λk+1 xi = i=1 λi xi ⇒ i=1 (λk+1 − λi )xi = 0.
Or cette égalité est dans Eλ1 + Eλ2 + . . . + Eλk qui est par hypothèse de récurrence une somme
directe et donc xi = 0, ∀1 ≤ i ≤ k, ce qui entraine que x = 0.
Corollaire 2.1.7
Le nombre de valeurs propres de u est au plus égale à n = dim E : card(Spec(u)) ≤ n.
Rami Youssef 20
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.1
Preuve.
Notons k le nombre de valeurs propres de u. Comme dim Eλ ≥ 1, alors dim(Eλ1 ⊕ Eλ2 + . . . ⊕
Eλk ) ≥ k. Mais Eλ1 ⊕ Eλ2 + . . . ⊕ Eλk étant un sous espace vectoriel de E, on déduit que
dim E = n ≥ k.
Rami Youssef 21
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.1
Proposition 2.1.11
Si u ∈ L(E), alors :
1. Pu (X) = (−1)n X n + (−1)n−1 T r(M )X n−1 + . . . + det(M ).
2. ∀λ ∈ Spec(u), on a : 1 ≤ dim Eλ ≤ om(λ).
Preuve.
On reprend la notation M = M (u, B) = (aij )1≤i,j≤n .
1. A titre explicite, si n = 1, alors M − XI1 = (a11 − X) et donc, par définition du
déterminant et puisque S1 = {Id{1} }, on a alors det(M − XI1 ) = det(a11 − X) =
a11 − X = (−1)1 X + det(M ) (sachant que det(a11 ) = a11 ). On vérifie aussi que pour n = 2
la formule est vraie. Pour le cas général, posons N = M − XIn = (bij )1≤i,j≤n et appliquons
la formule du déterminant :
X n
Y
det(N ) = ε(σ) bσ(i)i .
σ∈Sn i=1
Comme les bσ(i)i sont des polynômes de degré ≤ 1 (seul bjj contient X), on déduit que
deg(Pu ) ≤ n. Le terme constant est donné par Pu (0) qui coïncide, par définition, avec
det(M ), c. à. d. Pu (0) = det(M ). D’autre part, si σ 6= IdJ1,nK , il existe dans ni=1 bσ(i)i au
Q
moins deux termes constants (des scalaires) et donc son degré ≤ n − 2. Il reste le terme
donné par σ = IdJ1,nK qui est exactement ni=1 (aii − X) qui contient en particulier le terme
Q
(−1)n X n de degré n et le terme (−1)n−1 T r(M )X n−1 de degré n − 1. Ceci donne la formule
escomptée.
2. On suppose que dim Eλ = k et on se fixe une de ses base {e1 , e2 , . . . , ek }. On a alors
u(ei ) = λei , ∀1 ≤ i ≤ k. Il en résulte que la matrice de u dans n’importe quelle base qui
complète {e1 , e2 , . . . , ek } est de la forme :
!
λIk B
M=
0 C
Exercice 2.1.12
(a) Calculer le polynôme caractéristique de chacune des matrices suivantes :
2 2 −2 2 −2 −1
1 3 −1 −2 −1 −2
−1 1 1 14 25 14
(b) Déterminer le sous espace propre de chacune des valeurs propres associées aux matrices
précédentes.
Rami Youssef 22
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.1
Rami Youssef 23
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.1
1. u est diagonalisable.
2. Il existe une base B de E constituée de vecteurs propres.
3. E est la somme directe des sous espaces propres.
4. Pu est scindé dans K et, pour toute valeur propre λi de u, dim Eλi = om(λi ).
Preuve.
Remarquons tout d’abord que, puisque Pu (X) = det(M (u, B) − XIn ) = i=k di
i=1 (λi − X) et
Q
les λi sont distinctes deux à deux, alors chaque λi est répétée om(λi ) =: di fois. On a alors
avec pour tout 1 ≤ i ≤ k, u(uij ) = λi uij , ∀1 ≤ j ≤ om(λi ). C. à. d. les uij désignent les
vecteurs propres associés à λi . D’où, B est formée par les vecteurs propres de u.
2. [(2) ⇒ (3)] : Supposons (2) vérifiée et considérons la base de vecteurs propres de E
suivante :
B 0 = {u1,1 , u1,2 , . . . , u1,d01 } ∪ . . . ∪ {uk,1 , uk,2 , . . . , uk,d0k }.
Il s’en suit (d’après Théorème 2.1.6) que
et en particulier n = i=k 0 0
i=1 di . En plus, V ect{ui,1 , ui,2 , . . . , ui,d0i } ⊆ Eλi ⇒ di ≤ dim Eλi .
P
Pi=k 0 Pi=k
D’où dim E = n = i=1 di ≤ i=1 dim Eλi = dim(Eλ1 ⊕ . . . ⊕ Eλk ) ≤ n ⇒ E =
Eλ1 ⊕ . . . ⊕ Eλk . C’est à dire que E est somme directe de sous espaces propres.
3. [(3) ⇒ (4)] : Supposons E = Eλ1 ⊕ . . . ⊕ Eλk est somme directe de sous espaces propres
(les λi , des valeurs propres distinctes deux à deux). Si dim Eλi = d”i et {ui,1 , ui,2 , . . . , ui,d00i }
désigne une de ses bases, (1 ≤ i ≤ k), alors
est une base de E. Il en résulte que la matrice de u dans cette base est de la forme
(chaque λi est répétée d00i fois). D’où, puisque Pu est indépendant de la base de E (car c’est
d00
le déterminant d’un endomorphisme), Pu (X) = i=k i=1 (λi − X)
Q
i qui est donc scindé dans K.
D’autre part, puisque les λi sont distinctes deux à deux, on a effectivement d00i = om(λi ).
Rami Youssef 24
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.1
Qi=k
4. [(4) ⇒ (1)] : Supposons que (4) est vérifiée, c’est à dire que Pu (X) = i=1 (λi − X)di avec
di = dim Eλi = om(λi ) . Il s’en suit que
i=k
X i=k
X i=k
X
deg Pu = di = om(λi ) = dim Eλi = dim(Eλ1 ⊕ . . . ⊕ Eλk )
i=1 i=1 i=1
Le résultat suivant donne un critère de trigonalisation qui montre en fait que la diagonalisation
en est un cas particulier.
Théorème 2.1.18
Soit u ∈ LK (E) un endomorphisme d’un K-espace vectoriel de dimension finie n. Alors, les
propriétés suivantes sont équivalentes :
1. u est trigonalisable.
2. Pu est scindé dans K.
Preuve.
Supposons que u est trigonalisable et notons B une base de trigonalisation. Si λ1 , λ2 , . . . , λk
sont les éléments de la diagonale de M (u, B) considérés avec leurs répétitions d1 , d2 , . . . , dk
respectivement, alors, par Proposition 1.2.16, on a
Pu (X) = det(M (u, B) − XIn ) = (λ1 − X)d1 (λ2 − X)d2 . . . (λk − X)dk .
alors chaque λi est une valeur propre de u lequel admet donc au moins un vecteur propre u1
associé à λ1 . Par le théorème de la base incomplète, il existe une famille libre (quitte à changer
la numérotation) {v2 , v3 , . . . , vn } complétant {u1 } en une base B 0 = {u1 , v2 , v3 , . . . , vn } de E. La
matrice de u dans cette base est de la forme :
!
0 λ1 a12 . . . . . . . . . . . . a1n
M =
0 M”
Rami Youssef 25
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.1
En raisonnant par récurrence, on peut supposer que M ” est trigonalisable avec une base
de trigonalisation (quitte à changer la numérotation) {u2 , u3 , . . . , un }. Notons alors B =
{u1 , u2 , u3 , . . . , un }. Il est claire que u1 est linéairement indépendant des ui (2 ≤ i ≤ n) car
V ect{u2 , u3 , . . . , un } = V ect{v2 , v3 , . . . , vn } et donc B est une base de E. La matrice de u dans
cette base est encore de la forme :
!
λ1 a012 . . . . . . . . . . . . a01n
T =
0 T”
mais cette fois-ci avec T ” une matrice triangulaire supérieure pour la raison suivante :
Pour chaque ui , (2 ≤ i ≤ n) on a u(ui ) = a01i u1 + j=n 0
P
j=2 ai,j uj et aussi, pour chaque vi ,
Pj=n
(2 ≤ i ≤ n) on a u(vi ) = a1i u1 + j=2 αi,j vj . D’autre part, on peut voir M ” et T ” comme
matrices des compositions des homomorphismes suivantes :
ι1 u pr
ϑ1 : V ect{v2 , v3 , . . . , vn } ,→ (E, B 0 ) → (E, B 0 ) →2 V ect{v2 , v3 , . . . , vn }
et
ι1 u pr
ϑ2 : V ect{u2 , u3 , . . . , un } ,→ (E, B) → (E, B) →2 V ect{u2 , u3 , . . . , un }.
Mais, ces deux endomorphismes représentent en fait le même endomorphisme exprimé dans des
bases différentes (le deuxième est donné en termes de la base de trigonalisation de premier).
Par suite T ” est une matrice triangulaire supérieure. Il en résulte que B est une base de
trigonalisation de u.
Le corollaire suivant est très intéressant et découle du fait que tout polynôme à coefficients
dans C est scindé ; autrement dit : C est un corps algébriquement clos.
Corollaire 2.1.19
Tout endomorphisme u ∈ LC (E) et toute matrice carrée M ∈ M (C, n) sont trigonalisables.
On a alors
! !
XIm − AB 0 XIm 0
MN = et NM = .
B XIn XB XIn − BA
Par suite det(M N ) = det(XIm −AB) det(XIn ) = X n PAB (X) et det(N M ) = det(XIm ) det(XIn −
BA) = X m PBA (X) et donc
X n PAB (X) = X m PBA (X).
En particulier, si m = n, alors :
PAB (X) = PBA (X).
Rami Youssef 26
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2
Exercice 2.1.20
1. Montrer que les matrices suivantes sont diagonalisables et trouver leurs bases de diagona-
lisation :
5 −6 −6 −9 4 4
−1 4 2, −8 3 4
3 −6 −4 −16 8 7
2. Sous quelles conditions sur a, b, c ∈ R, la matrice carrée suivante
0 0 0 0
a
0 0 0
0 b 0 0
0 0 c 0
est diagonalisable ?
3. Montrer que la matrice suivante est trigonalisable
1 1 0 0
−1 −1 0 0
−2 −2 2 1
1 1 −1 0
De la même façon, un polynôme annulateur d’une matrice carrée M ∈ M (K, n) est tout
polynôme P ∈ K[X] tel que P (M ) = 0M (n,K) ce qui équivaut à i=p i
P
i=0 ai M = 0M (n,K) , la matrice
Rami Youssef 27
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2
nulle.
Spec(u) ⊆ {racines de P }.
Spec(M ) ⊆ {racines de P }.
De la même façon on montre que (M (n, K), +, ×, .) et (LK (E), +, ◦, .) sont des K-algèbres (mais
non commutatives).
La propriété spécifique à K[X] est la division euclidienne qui fait que tout idéal I de
K[X] (c. à. d. un sous groupe de (K[X], +) tel que ∀A ∈ K[X], ∀B ∈ I, on a AB ∈ I) est
principal, c’est à dire qu’il existe un polynôme Q ∈ I tel que I = QK[X]. On dit alors que K[X]
est un anneau principal.
Le lemme suivant permet de profiter de cette propriété dans la décomposition des endomor-
phismes : Fixons donc u ∈ LK (E) et A ∈ M (n, K) :
Rami Youssef 28
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2
Lemme 2.2.3
Les applications :
i=p
(aai )ui = a(P (u)) et (P Q)(u) = P (u)◦Q(u) = Q(u)◦P (u).
X
(P +Q)(u) = P (u)+Q(u), (aP )(u) :=
i=0
1. On note A = M (u, B) la matrice de u dans une base quelconque de E de sorte que Pu (X) =
det(A − XIn ). D’après Théorème 1.2.19, on a : (A − XIn )∗ (A − XIn ) = det(A − XIn )In
avec (A − XIn )∗ la transposée de la comatrice de (A − XIn ).
Maintenant, en se référant à (2.1) on voit que chaque ligne d’indice i de A − XIn contient
(n − 1) entrées qui sont des scalaires et une entrée de la forme aii − X :
a11 − X
a12 a13 . . . . . . a1n−1 a1n
a21
a22 − X a23 . . . . . . a2n−1 a2n
A − XIn = .. .. .. .. .. .. .. .
. . . . . . .
an1 an2 an3 . . . . . . ann−1 ann − X
Par suite les coefficients de la comatrice de A−XIn sont des polynômes de degrés inférieurs
ou égales à n − 1. De même pour sa transposée, que l’on peut développer alors comme
suit :
(A − XIn )∗ = A0 + XA1 + X 2 A2 + . . . + X n−1 An−1
avec les Ak ∈ M (n, K), (0 ≤ Ak ≤ n − 1).
L’équation (A−XIn )∗ (A−XIn ) = det(A−XIn )In = Pu (X)In devient après développement
du terme à gauche :
A0 A + X(A1 A − A0 ) + X 2 (A2 A − A1 ) + . . . + X n−1 (An−1 A − An−2 ) − X n An−1 = Pu (X)In .
Rami Youssef 29
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2
A0 A = c0 In
A1 A − A0 = c1 In
.. ..
. .
An−1 A − An−2 = cn−1 In
−An−1 = cn In .
Exercice 2.2.6
Cet exercice présente une autre méthode pour démontrer le théorème de Cayley Hamilton.
Avec les notations précédentes, on se fixe un vecteur v ∈ E\{0}. Soit k ∈ J1, nK le plus grand
entier tel que la famille {v, u(v), . . . , uk−1 (v)} soit libre et notons F := V ect{v, u(v), . . . , uk−1 (v)}.
La famille {v, u(v), . . . , uk (v)} étant liée, on a alors :
Rami Youssef 30
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2
Spec(u) ⊆ {racines de mu }
Rami Youssef 31
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2
(car mu (X) est polynôme annulateur de u). La validité de l’autre inclusion est certainement une
question naturelle.
Proposition 2.2.8
Avec les notations précédentes, toute racine de mu (X) est une valeur propre de u : c. à. d.
alors
mu (X) = (X − λ1 )n1 . . . (X − λr )nr
avec 1 ≤ ni ≤ mi , ∀i ∈ J1, rK.
Preuve.
Il reste à montrer que {racines de mu } ⊆ Spec(u) :
Soit λ ∈ K une racine de mu (X). Donc (X − λ)/mu (X) et donc ∃Q ∈ K[X] | mu (X) =
(X − λ)Q(X). Mais alors 0 = mu (u) ⇒ (u − λIdE ) ◦ Q(u) = 0 ⇒ u ◦ Q(u) = λQ(u) et
comme deg Q < deg mu , alors (par définition de mu ) Q(u) 6= 0. Par suite ∃v ∈ E\{0} tel que
Q(u)(v) 6= 0 et u(Q(u)(v)) = λQ(u)(v). Par conséquent, λ est une valeur propre de u associé à
Q(u)(v) et donc λ ∈ Spec(u).
Théorème 2.2.9
Soit (Pi )1≤i≤n une famille de polynômes dans K[X], D = P GCD(Pi ) et M = P P CM (Pi ) leur
PGCD et PPMCM respectivement. Alors, pour tout u ∈ LK (E), on a :
i=n
(a) ker(D(u)) = ∩i=n
X
i=1 ker(Pi (u)), et (b) ker(M (u)) = ker(Pi (u)).
i=1
Rami Youssef 32
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2
Preuve.
Montrons (a) : Puisque D = P GCD(Pi ), ∀i ∈ J1, nK, ∃Qi ∈ K[X] | Pi = Qi D et donc
Pi (u) = Qi (u) ◦ D(u), ∀i ∈ J1, nK. Ce qui entraine ker(D(u)) ⊆ ker(Pi (u)) et donc
ker(D(u)) ⊆ ∩i=n
i=1 ker(Pi (u)).
Pi=n Pi=n
D’autre part, appliquons l’identité de Bezout, on obtient, i=1 Ui Pi = D ⇒ D(u) = i=1 Ui (u)◦
Pi (u). Ainsi,
i=n
x ∈ ∩i=1 ker(Pi (u)) ⇒ ∀i ∈ J1, nK, Pi (u)(x) = 0 ⇒ D(u)(x) = 0 ⇒ x ∈ ker(D(u)).
D’autre part, les Ri , i ∈ J1, nK sont tel que P GCD(Ri ) = 1 et donc, par l’identité de Bezout,
∃Vi , i ∈ J1, nK | i=n
Pi=n Pi=n
i=1 Vi Ri = 1. Ainsi, ∀x ∈ E, x = i=1 Vi (u) ◦ Ri (u)(x) =
P
i=1 xi , avec
xi = Vi (u) ◦ Ri (u)(x). Mais alors, Pi (u)(xi ) = Pi (u)(Vi (u) ◦ Ri (u)(x)) = Pi (u)(Ri (u) ◦ Vi (u)(x)) =
(Pi (u) ◦ Ri (u)) ◦ Vi (u)(x) = M (u) ◦ Vi (u)(x) = Vi (u) ◦ M (u)(x). Par suite
i=n
X i=n
X
x ∈ ker(M (u)) ⇒ xi ∈ ker(Pi (u)) ⇒ x = xi ∈ ker(Pi (u))
i=1 i=1
Le résultat suivant est une conséquence du théorème précédent, on l’appelle Lemme des
noyaux :
Lemme 2.2.10
Soit P1 , P2 , . . . , Pn ∈ K[X] supposés premiers entre eux deux à deux. Alors, pour tout u ∈ LK (E),
on a :
i=n
Pi ) = ⊕i=n
Y
ker( i=1 ker(Pi (u)).
i=1
Preuve.
L’hypothèse, les Pi sont premiers entre eux deux à deux entraine, en particulier qu’il sont premier
dans leur ensemble, ce qui signifie que P P CM (Pi ) = i=n
Q
i=1 Pi et donc par le théorème précédent
Rami Youssef 33
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2
ker(Pi (u)) ∩ ker( j6=i Pj ) = ker(IdE ) = {0} et donc, puisque une fois de plus les Pj sont
Q
premiers entre eux deux à deux et donc dans leur ensemble, on a d’après le théorème précédent :
ker( j6=i Pj ) = j6=i ker(Pj ) et par suite ker(Pi (u)) ∩ j6=i ker(Pj ) = {0}. Ce qu’il fallait
Q P P
démontrer.
Le résultat suivant fait le lien entre les sous espaces caractéristiques, le polynôme caractéristique
et le polynôme minimal de u.
Théorème 2.2.13
Soit u ∈ LK (E) un endomorphisme trigonalisable de polynôme caractéristique Pu (X) = (λ1 −
X)m1 . . . (λr − X)mr et de polynôme minimal mu (X) = (X − λ1 )n1 . . . (X − λr )nr . Alors
1. E = ⊕i=r
i=1 Ei .
2. Ei est stable par u, ∀i ∈ J1, rK.
3. λi est l’unique valeur propre de ui := u|Ei , ∀i ∈ J1, rK.
4. Pui (X) = (λi − X)mi et dim Ei = mi , ∀i ∈ J1, rK.
5. Ei = ker(u − λi IdE )ni , ∀i ∈ J1, rK.
Preuve.
Rami Youssef 34
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2
M (u1 , B1 )
M (u2 , B2 )
M (u, B) = .. .. ..
. . .
M (ur , Br )
Définition 2.2.14
Soit v ∈ LK (E) un endomorphisme d’un espace vectoriel E de dimension finie. On dit que v est
nilpotent d’indice de nilpotence p si v p = 0 et v p−1 6= 0. On notera p = nil(v).
Proposition 2.2.15
Si mu (X) = (X − λ1 )n1 . . . (X − λr )nr est le polynôme minimale d’un endomorphisme trigonali-
sable, alors ∀i ∈ J1, rK, nil(ui − λi IdEi ) = ni .
Rami Youssef 35
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2
Preuve.
D’après le théorème précédent (notamment (2) et (5)), ∀i ∈ J1, rK, Ei = ker(ui − λi IdEi )ni
donc (ui − λi IdEi )ni = 0, ∀i ∈ J1, rK. Supposons que pour un certain j ∈ J1, rK, on ait
(uj − λj IdEj )nj −1 = 0. Il en résultera que Q(X) = (λ1 − X)n1 . . . (λj − X)nj −1 . . . (λr − X)nr est
un polynôme annulateur de u. Ceci est impossible puisque son degré est inférieur strictement à
celui de mu (X). Par conséquent, ∀i ∈ J1, rK, nil(u − λi IdEi ) = ni .
Preuve.
D’après Théorème 2.1.17 et Théorème 2.1.33, u est diagonalisable ssi E = ⊕Ei = ⊕Eλi ssi,
∀i ∈ J1, rK, Ei = Eλi . Par suite, d’après la proposition précédente, ceci équivaut à ni = nil(u −
λi IdE ) = 1, ∀i ∈ J1, rK. Il en résulte que u est diagonalisable ssi mu (X) = (X − λ1 ) . . . (X − λr ),
c. à. d. qu’il est scindé à racine simples.
Rami Youssef 36
Chapitre 3
Décompositions de Dunford-Jordan et
de Jordan
Dans ce chapitre, on donne deux formes particulière de trigonalisation d’une matrice carrée ou
d’un endomorphisme sur un espace vectoriel de dimension finie. La première, dite décomposition
de Dunford est donnée sans démonstration et la deuxième appelée, forme réduite de Jordan est
développée d’une manière algorithmique.
Exercice 3.1.2
1. Calculer la décomposition de Dunford des matrices suivantes :
! ! 1 a 0
1 a 1 a
0 1 b
0 1 0 2
0 0 1
−1 −1 1 2
4 0 −1 4 1 −3 1 −4 1 2
−1 1 3 −1 2 1 .
0 0 −5 4
0 −1 4 0 0 2
0 0 −1 −1
37
CHAPITRE 3. DÉCOMPOSITIONS DE DUNFORD-JORDAN ET DE
JORDAN 3.2
3.2 Réduction à la forme de Jordan
Dans cette section, nous supposons que K = C ou que K = R et u ∈ LR (E) est un
endomorphisme trigonalisable de E. On a alors (dans chacun des cas) :
et
mu (X) = (X − λ1 )n1 . . . (X − λr )nr
avec 1 ≤ ni ≤ mi , ∀i ∈ J1, rK. Rappelons aussi les faits suivants :
1. Chaque sous espace caractéristique Ei := ker(u − λi IdE )mi = ker(u − λi IdE )ni (i ∈ J1, rK),
dim(Ei ) = mi et ui = u|Ei ∈ LK (Ei ) (voir Théorème 2.1.33).
2. La réunion des bases Bi des Ei (i ∈ J1, rK) forme une base B de E = ⊕Ei et
M (u1 , B1 )
M (u2 , B2 )
M (u, B) = .. .. .. (3.1)
. . .
M (ur , Br )
Rami Youssef 38
CHAPITRE 3. DÉCOMPOSITIONS DE DUNFORD-JORDAN ET DE
JORDAN 3.2
Preuve.
Comme v n = 0 et v n−1 6= 0, il existe e ∈ F non nul tel que v n−1 (e) 6= 0. Maintenant, si α0 e +
α1 v(e) + α2 v 2 (e) + . . . + αn−1 v n−1 (e) = 0, alors, en appliquant successivement les v n−1−k (∀k ∈
J0, n−2K), on obtient α0 = α1 = . . . = αn−1 = 0. Par suite {v n−1 (e), v n−2 (e), . . . , v(e), e} =:
BJ est libre donc c’est une base de F (son cardinal est égale à dim F ) et clairement MBF (v) :=
J(n, 0).
Définition 3.2.2
La matrice
0 1 0 0 ... 0
0 0 1 0 ... 0
.. .. .. .. .. ..
. . . . . .
J(n, 0) = (3.2)
0 . . . . . . 0 1 0
0 . . . . . . . . . 0 1
0 . . . . . . . . . . . . λi
Cette matrice s’appelle, la réduite de Jordan de ui , ou bien, le bloc de Jordan associée
à λi .
Mais, en général, puisque l’indice de nilpotence ni ≤ mi , on doit donc étudier les cas où
ni < mi . C’est l’objet de la proposition suivante qui complète la proposition précédente (comme
deuxième clé) :
Proposition 3.2.3
Soit v ∈ LK (F ) un endomorphisme nilpotent d’un espace vectoriel de dimension finie F tel
que l’indice de nilpotence de v soit inférieur strictement à dim F , c. à. d. n =: nil(v) < dim F .
Alors, il existe une base BJ de F dans laquelle la matrice de v est de la forme :
J(s1 , 0)
J(s2 , 0)
.. .. ..
J(v, BJ ) =
. . .
J(sl−1 , 0)
J(sl , 0)
avec s1 ≥ s2 ≥ . . . ≥ sl et s1 + s2 + . . . + sl = dim F .
Rami Youssef 39
CHAPITRE 3. DÉCOMPOSITIONS DE DUNFORD-JORDAN ET DE
JORDAN 3.2
La preuve de cette proposition est divisée en plusieurs étapes lesquelles forment en tous
l’algorithme de réduction de Jordan pour une matrice nilpotente.
Preuve.
Il s’agit de démontrer que F se décompose comme somme directe de sous-espaces stables Fk,j ,
tels que v|Fk,j soit d’indice de nilpotence un certain sk = dim Fk,j − 1, ∀k ∈ J0, nK.
Posons au départ, Nk = ker(v k ) (∀k ∈ J0, nK) de sorte que (puisque n = vil(v) < dim F ) :
{0} = N0 N1 N2 ... Nn = F
Etape (1)
Le lemme suivant donne la première étape de l’algorithme de jordanisation.
Lemme 3.2.4
(a) F = Nn = Nn−1 ⊕ Mn .
(b) v(Mn ) ⊆ Nn−1 .
(c) v(Mn ) ∩ Nn−2 = {0}.
(d) Nn−1 = Nn−2 ⊕ Mn−1 , avec v(Mn ) ⊆ Mn−1 . Autrement dit : v|Mn : Mn → Mn−1 est
injective.
Preuve.
Étape (2)
On suppose, par récurrence que Mk+1 , . . . , Mn sont construits et vérifient les propriétés
(a) et (d) du lemme précédent.
Comme Nk := ker(v k ) est stable, alors v|N
k
k
= 0. On montre alors, en remplaçant, dans la
preuve précédente, v par v|Nk et n par k, que :
Il en résulte, par récurrence, que (∗) est vérifiée pour tout k ∈ J0, nK.
Rami Youssef 40
CHAPITRE 3. DÉCOMPOSITIONS DE DUNFORD-JORDAN ET DE
JORDAN 3.2
Étape (3)
On tire des étapes (1) et (2) que :
F = Mn ⊕ Mn−1 ⊕ Mn−2 ⊕ . . . ⊕ M1
avec
En conséquence, la réunion des bases notées ici Bk des Mk (k ∈ J1, nK) forme une base de F
que l’on ordonne en adoptant ce qui suit : Si
nous notons vk−1,j = v(vk,j ) ∈ Nk−1 donné par l’injection v|Mk : Mk → Mk−1 (voir Lemme 3.2.4
(d)), on a alors :
N.B. la base Bn = {vn,1 , vn,2 , . . . , vn,tn } est arbitraire comme complément de la base de Nk−1
dans Nk = F . On a alors :
Bn = {vn,1 , . . . , vn,tn }
Bn−1 = {v(vn,1 ), . . . , v(vn,tn ), vn−1,tn +1 , . . . , vn−1,tn−1 }
Bn−2 = {v 2 (vn,1 ), . . . , v 2 (vn,tn ), v(vn−1,tn +1 ), . . . , v(vn−1,tn−1 ), vn−2,tn−1 +1 , . . . vn−2,tn−2 }
··· = ···
B1 = {v n−1 (vn,1 ), . . . , v n−1 (vn,tn ), v n−2 (vn−1,tn +1 ), . . . , v n−2 (vn−1,tn−1 ), . . . , v1,t2 +1 . . . v1,t1 }
Étape (4)
k=n
Dans cette étape, on réordonne les éléments de la base BF = ∪k=1 Bk (obtenue en étape
3) colonne après colonnes de gauche à droite et en inversant l’ordre des éléments de chaque
colonne. On obtient ainsi :
avec
BJn = {v n−1 (vn,1 ), v n−2 (vn,1 ), . . . , vn,1 } ∪ . . . ∪ {v n−1 (vn,tn ), v n−2 (vn,tn ), . . . , vn,tn }
Rami Youssef 41
CHAPITRE 3. DÉCOMPOSITIONS DE DUNFORD-JORDAN ET DE
JORDAN 3.2
Corollaire 3.2.5
dim Nn − dim Nn−1
si k = n
Le nombre de blocs J(k, 0) dans M (v, BJ ) = 2 dim Nk − dim Nk−1 − dim Nk+1 si k ∈ J2, n − 1K
2 dim N1 − dim N2 si k = 1.
Remarque 3.2.6
1- Il et important de noter que les deux propositions 3.2.1 et 3.2.2 peuvent être combinées
pour la raison suivante : Si nil(v) = dim F alors dim Ni = i, ∀i ∈ J1, nK et donc d’après le
corollaire précédent, il y aura seulement un seul bloc J(m, 0).
2- Quand on se restreint à Ei , l’endomorphisme restriction vi vérifie vini = (ui −λi Id|Ei )ni = 0. On
peut alors remplacer (suivant les cas) dans les deux propositions 3.2.1 et 3.2.3, l’endomorphisme
v par vi , F par Ei et n par ni , ∀i ∈ J1, rK. Il s’en suit que les noyaux, figurants dans les
algorithmes de jordanisation, relatifs à vi vérifient (s’il y a besoin de les distinguer) {0}
(i)
N1 . . . Nn(i)i = Ei .
Revenons maintenant au cas d’un endomorphisme quelconque u ∈ LK (E) supposé trigonali-
sable sur un K-espace vectoriel E de dimension n ≥ 0 de polynôme caractéristique
et de polynôme minimal
mu (X) = (X − λ1 )n1 . . . (X − λr )nr )
avec 1 ≤ ni ≤ mi , ∀i ∈ J1, rK.
Par application de l’une des propositions, Proposition 3.2.1 ou Proposition 3.2.3 à chacune
des ui = u|Ei ∈ LK (Ei ), avec, en général, ni = nil(vi = ui − λi IdEi ) ≤ mi , alors il existe une
Rami Youssef 42
CHAPITRE 3. DÉCOMPOSITIONS DE DUNFORD-JORDAN ET DE
JORDAN 3.2
base BJi de Ei dite de Jordan pour laquelle la matrice réduite de Jordan de ui , ou bien, le
bloc de Jordan associée à λi est de la forme :
J(s1,i , λi )
J(s2,i , λi )
.. .. ..
J(ui , BJi ) = (3.4)
. . .
J(sl−1,i , λi )
J(sl,i , λi )
J(u1 , BJ1 )
J(u2 , BJ2 )
M (u, BJ ) = .. .. .. (3.5)
. . .
J(ur , BJr )
0 −1 1
0 0 1 0 0 1
Les calculs donnent que Eλ2 = ker(A − I3 ) = V ect(v2,1 = (1, 0, −1)) et par suite Eλ2 E2
ce qui entraine que mA (X) = (X − 1)2 et la matrice A n’est pas diagonalisable, plutôt, elle
se réduit sous la forme de J.
Pour déterminer la base de jordanisation, on calcul E2 et on trouve que
Rami Youssef 43
CHAPITRE 3. DÉCOMPOSITIONS DE DUNFORD-JORDAN ET DE
JORDAN 3.2
Remarquer que, après avoir réaliser que Eλ2 E2 , le vecteur v2,2 est nécessairement
(et donc peut être calculer comme) une solution de l’équation (A − I3 )v2,2 = v2,1 .
Pour voir comment s’applique l’algorithme dans ce cas, on procède comme suit :
- Pour λ1 = 0, on a N1 = ker(A − 0I3 ) = M1 ⊕ {0}, donc F1 = M1 = V ect(v1,1 ). Donc
BJ1 = {v1,1 }.
- Pour λ2 = 1, on a N1 = ker(A − I3 ) N2 = E2 . On a alors
N2 = N1 ⊕ M2 , et N1 = M1 .
Les calculs précédents donnent M1 = V ect(v2,1 ) et M2 = V ect(v2,2 ) et par suite F2 = M2
et F1 = M1 = V ect((A − I3 )v2,2 = v2,1 ). Ainsi, BJ2 = {v2,1 , v2,2 }.
2. On se propose de jordaniser la matrice
0 2 1 0
−4 6 3 1
B= .
7 −8 −4 2
5 −7 −4 2
-Montrer que PB (X) = (1 − X)4 , puis montrer que dim Eλ = ker(B − I4 ) = 2 et que
ker(B − I4 ) ker(B − I4 )2 = R4 et en déduire que mB (X) = (X − 1)2 . On a donc
4
R = N2 = N1 ⊕ M2 et N1 = M1 . Écrire F2 et F1 qui sont nécessairement de dimension 2
chacun et en déduire BJ et J.
Exercice 3.2.8
1. Effectuer la réduction de Jordan des matrices suivantes :
! 3 2 −1 4 1 −1
1 2
, −1 0 1 , −2 1 1 .
−2 −3
1 1 0 1 0 1
2. Même question pour les matrices suivantes :
2 −5 −4 9 2
−2 −1 1 2
2 −4 −3 7 1
1 −4 1 2
,
1 0 −1 1 0
.
0 0 −5 4
−1 −1
1 2 0
0 0 −1 −1
1 −2 −2 4 1
Exercice 3.2.9
1. Soit A une matrice à coefficients réels telle que PA (X) = (X − 2)2 (X − 3)3 et
mA (X) = (X − 2)(X − 3)2 . Quelles sont les formes possibles d’une réduite de Jordan de
A?
2. Même question avec une matrice B vérifiant PB (X) = (X − 1)3 (X + 1)5 et
mB (X) = (X − 1)2 (X + 1)3 .
Rami Youssef 44
Chapitre 4
Applications
Puisque A est supposée trigonalisable, elle admet alors une réduite de Jordan J qui lui est liée
par une matrice de passage P : J = P −1 AP ⇔ A = P JP −1 . En conséquence, on a :
AY = Y 0 ⇔ P JP −1 Y = Y 0 ⇔ J(P −1 Y ) = P −1 Y 0 .
45
CHAPITRE 4. APPLICATIONS 4.2
ce qui équivaut à :
x00 = x1
x01
= x2
.. .. ..
. . .
x0n−2 = xn−1
x0n−1 = a0 x0 + a1 x1 + . . . + an−2 xn−2 + an−1 xn−1
0 1 0 ... 0
x0
0 0 1 0 . . . 0
x1
.. .. .. .. ..
On obtient donc une équation matricielle BX = X 0 avec X = . et B = .
. . . . . .
. 0
0 ... ... 1
xn−1
a0 a1 . . . an−2 an−1
Il revient donc à utiliser la méthode de §4.1 pour les matrices de la forme B pour résoudre (∗).
Rami Youssef 46