Cours Alg4

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 46

Algèbre 4

Rami Youssef
Université Moulay Ismail
Faculté des Sciences, Meknès
Filière Mathématiques et Applications.

2021-2022
0.0

Rami Youssef 2
Table des matières

0.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1 Rappels 5
1.1 Système d’équations linéaires : traitement matriciel . . . . . . . . . . . . . . . . 5
1.1.1 Équation linéaire versus équation matricielle . . . . . . . . . . . . . . . . 5
1.1.2 Forme échelonnée réduite . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2 Autres propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . 14

2 Réduction des endomorphismes 19


2.1 Trigonalisation et Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Sous espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.2 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.1.3 Premiers critères de triangularisation et de diagonalisation . . . . . . . . 23
2.2 Théorème de Caley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1 Relation entre polynôme annulateur et Spectre . . . . . . . . . . . . . . . 28
2.2.2 Polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.3 Sous espaces caractéristiques et deuxième critère de diagonalisation . . . 32

3 Décompositions de Dunford-Jordan et de Jordan 37


3.1 Décomposition de Dunford-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2 Réduction à la forme de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

4 Applications 45
4.1 Systèmes différentiels linéaires à coefficients constants . . . . . . . . . . . . . . . 45
4.2 Équation différentielle à coefficients constants . . . . . . . . . . . . . . . . . . . 46

3
TABLE DES MATIÈRES 0.1

0.1 Introduction
L’ Algèbre 4 fait partie des modules de Algèbre linéaire, il est une suie naturelle du module
Algèbre 3 enseigné au semestre 2. L’objectif principal est d’élaborer des méthodes plus pratiques
dans la résolution des systèmes d’équations linéaires. Rappelons qu’une équation linéaire est de
la forme f (x) = y où f : E −→ F désigne une application linéaire entre deux espaces vectoriels
à coefficients dans un même corps K que l’on prendra en général égal à R ou C. Quand E et F
sont de dimensions finies respectives égales à m et n, l’équation f (x) = y est remplacée par une
équation matricielle M X = Y avec M = M (f ; BE , BF ) ; la matrice représentative de f dans les
bases BE et BF , X =t x et Y =t y les vecteurs transposés respectifs de x et y.
L’équation M X = Y est souvent appelée un système linéaire à n = dim F équations et
m = dim E inconnues. Compte tenu des correspondances biunivoques entre les applications
linéaires, les matrices et les systèmes linéaires ; la résolution de M X = Y utilise en général des
transformations sur M (la matrice associée au système). Parmi les méthodes ayant été utilisées
en Algèbre 3, nous citons celle de Gauss, appelée aussi, la méthode des matrices échelonnées.
Elle utilise les opérations sur les lignes ainsi que la possibilité d’interchanger celles-ci pour
transformer le système du départ en un système plus simple à partir duquel on détermine
l’ensemble des solutions par substitutions. Cet ensemble est soit vide, soit réduit à un seul
élément (quand la solution est unique) soit infini et dans ce cas il n’est autre qu’un sous espace
affine de E qui exige un travail supplémentaire pour déterminer sa base. Notons au passage
que la méthode de Gauss induit une matrice (celle du système linéaire final) dépendante des
opérations choisies. Néanmoins, la réduction par la méthode de Gauss engendre une relation
d’équivalence et par conséquent, assure l’indépendance de la solution des opérations choisies.
Une extension élaborée de cette méthode, appelée méthode de Gauss-Jordan, permet lorsqu’elle
est accompagnée des opérations sur les lignes (ou sur les colonnes) d’obtenir une matrice appelée
forme réduite échelonnée qui est représentative de sa classe d’équivalence. On dit aussi qu’elle
est canonique. Les deux méthodes décrites ci-dessus deviennent difficiles à traiter au fur et
à mesure que n et m prennent des valeurs assez grandes. Les notions principales de ce cours
sont : la trigonalisation, la diagonalisation et la jordanisation de matrices carrées et donc des
endomorphismes d’espaces vectoriels de dimensions finies.
Dans le premier chapitre de ce cours, en plus d’un bref aperçu sur les méthodes de Gauss et
de Gauss-Jordan, nous rappellerons les principaux outils indispensables pour tout ce qui suivra
ainsi qu’une introduction résumé des propriétés de l’ingrédient incontournable : déterminant
d’une matrice carré. Au second chapitre, on introduira les invariants de similitude (valeur propre,
vecteur propre, ...) et on donnera les critères essentiels de trigonalisation et de diagonalisation.
Le troisième chapitre sera consacré à la réduction des matrices carrées par les méthodes du
Dunford-Jordan et de Jordan. Le dernier chapitre sera réservé à certaines applications notamment
en Analyse.

Rami Youssef 4
Chapitre 1

Rappels

1.1 Système d’équations linéaires : traitement matriciel


1.1.1 Équation linéaire versus équation matricielle
Définition 1.1.1
On appelle équation linéaire toute équation de la forme f (x) = y donnée en terme d’une
application linéaire f : E → F (entre espaces vectoriels de dimensions n et m respectivement sur
un même corps K), x ∈ E et y ∈ F . Ainsi, si x = (x1 , x2 , . . . , xn ) ∈ E et y = (y1 , y2 , . . . , ym ) ∈ F ,
l’équation linéaire s’énonce comme suit :

f (x1 , x2 , . . . , xn ) = (y1 , y2 , . . . , ym ). (1.1)

Il est bien connu que E ∼


= Kn et F ∼= Km . Ainsi, si B = {e1 , . . . , en } (resp. B 0 = {e01 , . . . , e0m })
désigne la base canonique de E (resp. F ), on obtient par linéarité :

i=n j=m
yj e0j .
X X
xi f (ei ) = (1.2)
i=1 j=1

Pj=m
Posons f (ei ) = j=1 aji e0j pour tout i ∈ J1, nK := {1, 2, . . . , n}. La dernière formule devient
alors :
i=n j=m X j=m
i=n j=m
X i=n j=m
aji e0j aji xi e0j ] aji xi ]e0j yj e0j .
X X X X X
xi = [ = [ = (1.3)
i=1 j=1 i=1 j=1 j=1 i=1 j=1

Par conséquent, on obtient le système d’équations linéaires suivant, avec une forme explicite
et une forme matricielle (c’est à dire, exprimer d’une façons simplifiée en terme des matrice)
comme suit :

a11 x1 + a12 x2 + . . . + a1n xn

 = y1
a21 x1 + a22 x2 + . . . + a2n xn = y2


(S) : ⇔ MX = Y (1.4)


 · · · · ··
am1 x1 + am2 x2 + . . . + amn xn = ym

5
CHAPITRE 1. RAPPELS 1.1

avec
a11 a12 . . . a1n x1 y1
     
a a22 . . . a2n   x2   y2 
    
M =  21  , X =   = t x et Y =   = t y. (1.5)

··· ··· ··· ···  · · · · · ·
am1 am2 . . . amn xn yn

Définition 1.1.2
La matrice M est appelée matrice de f dans les bases B et B 0 .
Notez que, pour tout i ∈ J1, nK, f (ei ) = (a1i , a2i , . . . , ami ) dans la base canonique B 0 . On note
alors
M = M (f, B, B 0 ).
Réciproquement, étant donné une matrice M à coefficients dans un corps K ayant n colonnes
et m lignes ; ses vecteurs colonnes définissent une application linéaire f : Kn → Km tel que

M = M (f, B, B 0 );

B, B 0 étant les bases canoniques de Kn et Km .


Remarque 1.1.3
Tout système linéaire se réduit en un système ayant même nombre d’équations et d’inconnus et
ce, après avoir choisit les inconnus principaux et les équations principales. Pour cette raison, on
se restreint en général au traitement des systèmes linéaires donnés par des matrices carrées.

Formule de changement de base


On considère le cas particulier où dim E = dim F , c’est à dire n = m. On a alors E ∼
=F ∼
= Kn
et par suite on peut supposer E = F . Si B et B 0 sont deux bases de E, on peut dresser le
diagramme suivant :
f,B
(E, B) −→ (E, B)
IdE , B 0 , B ↑ ↓ IdE , B, B 0
f,B0
(E, B 0 ) −→ (E, B 0 )

Notons M = M (f, B), M 0 = M (f, B 0 ), P = M (IdE , B 0 , B) et donc P −1 = M (IdE , B, B 0 )).


Comme (f, B 0 ) = (IdE , B, B 0 ) ◦ (f, B) ◦ (IdE , B 0 , B), alors

M 0 = P −1 M P

c’est la formule de changement de base.


Le but principal de ce cours est d’élaborer (à partir du chapitre 2), dans le cas des endo-
morphismes, des méthodes pratiques susceptibles de trouver pour chaque f donnée (et donc
pour chaque M = M (f, B)) une nouvelle base B 0 pour que la matrice M 0 = M (f, B 0 ) soit la
plus simple possible. En rappelle dans la section suivante -à titre comparatif- les méthodes de
réduction rencontrées auparavant.

Rami Youssef 6
CHAPITRE 1. RAPPELS 1.1

1.1.2 Forme échelonnée réduite


Dans ce paragraphe, on rappelle certaines méthodes (algorithmes) de résolution des systèmes
linéaires. Rappelons en premier que dans le système (S), donné en (1.4), lorsque m 6= n, il faut
commencer par déterminer les équations et les inconnues principales du système. Pour cela, il
est indispensable de connaitre son rang :
Définition 1.1.4
Le rang de système (S) est égale à celui de sa matrice associée :

rg(S) = rg(M ) = rg(f ) = dim Im(f ) = rg(f (e1 ), f (e2 ), . . . , f (en )).
Proposition 1.1.5
1- rg(S) est égale à l’ordre de (n’importe quelle) sous-matrice carrée inversible maximale de M .
2- rg(S) ≤ inf(m, n).
3- Les nombres d’équations et d’inconnues principales sont identiques et valent rg(S).
4- La solution de système (S) est donnée en fonction des inconnues non principales (quand elles
existent).

Méthode de Gauss : Forme échelonnée


La méthode de Gauss pour résoudre le système d’équations linéaires (S) repose sur les
opérations élémentaires suivantes :
1. Une équation est échangée avec une autre.
2. Les deux membres d’une équation sont multipliés par une constante non nulle.
3. une équation est remplacée par la somme d’elle-même et d’un multiple d’une autre.
L’application des opérations élémentaires transforme le système en un système (S 0 ) dont la
matrice associée est échelonnée :
Définition 1.1.6
Une matrice M est dite échelonnée, si elle est de la forme :
 
0 . . . a1j1 . . .
 0 ... a2j2 . . .
 

 
· · ·
M = · · · · · · · · · · · · · · ·
 (1.6)
 0 ... arjr . . .


0 ... 0
avec
(a) : r ∈ J0, nK,
(b) : pour tout k ∈ J1, rK, akjk est le premier terme non nul de la ligne k,
(c) : j1 < j2 < . . . < jr .
Théorème 1.1.7
Les deux systèmes (S) et (S 0 ) (obtenu après application des opérations élémentaires) ont même
ensemble de solutions.

Rami Youssef 7
CHAPITRE 1. RAPPELS 1.1

Exemple 1.1.8
Considérons le système linéaire suivant :


 x + y − 2z = −2
y + 3z = 7
x + −z = −1

On applique la méthode de Gauss à la matrice "associée" :


     
1 1 −2 | −2 1 1 −2 | −2 1 1 −2 | −2
0 1 3 | 7  −l1 + l3 →l3 0 1 3 | 7  l2 + l3 →l3 0 1 3 | 7 
    

1 0 −1 | −1 0 −1 1 | 1 0 0 4 | 8

On obtient ainsi le système suivant :




 x + y − 2z = −2
y + 3z = 7


4z = 8

Après, on applique la substitution ascendante :

z = 2 ⇒ y = 7 − 3z = 1 ⇒ x = −2 − y + 2z = 1.
Remarque 1.1.9
En résumé, la méthode de Gauss utilise les opérations sur les lignes pour configurer un système
jusqu’à arriver au stade permettant d’utiliser la substitution ascendante susceptible de déterminer
la solution. Néanmoins, si une étape montre une équation contradictoire, nous devons nous
arrêter avec la conclusion que le système n’a pas de solutions. Si nous atteignons la forme
échelonnée sans équation contradictoire, et chaque variable est une variable principale dans sa
ligne, alors le système a une solution unique et nous la trouvons par substitution ascendante.
Enfin, si nous atteignons la forme échelonnée sans équation contradictoire, et qu’au moins une
variable n’est pas principale, alors le système a une infinité de solutions.

Exercice 1.1.10
En appliquant la méthode de Gauss, déterminer la matrice échelonnée et l’ensemble des solutions
de chacun des systèmes linéaires suivants et en tirer des conclusions :

x−y

 = 0
x+y = 0


2x − 2y + z + 2w = 4

 

2x − y + 3z = 3
y+w = 0
x − 2y − z = 3

 


2z + w = 5

2x − 2z

  = 6
x + 3y = 1 x + 3y = 1


y+z = 1

 
 

2x + y = −3 2x + y = −3
2x + y − z = 7
2x + 2y = −2
  

2x + 2y = 0  

3y + 3z = 0

Rami Youssef 8
CHAPITRE 1. RAPPELS 1.2

Méthode de Gauss-Jordan : Forme échelonnée réduite


Laest une extension (c. à. d. amélioration) de celle de Gauss. Elle s’obtient en utilisant
la méthode des pivots de sorte que, contrairement au passage (c. à. d. réduction) de gauche
à droite, on poursuit les opérations élémentaires de droite à gauche jusqu’à obtention d’une
matrice à une seule entrée égale à 1 dans chaque colonne. Cette matrice est appelée matrice
échelonnée réduite.

Exemple 1.1.11
Reprenons le système linéaire déjà vu à l’exemple 1.2.7 :


 x + y − 2z = −2
y + 3z = 7
x + −z = −1

La méthode de Gauss, appliquée à la matrice "associée", donne :


     
1 1 −2 | −2 1 1 −2 | −2 1 1 −2 | −2
0 1 3 | 7  −l1 + l3 →l3 0 1 3 | 7  l2 + l3 →l3 0 1 3 | 7 
    

1 0 −1 | −1 0 −1 1 | 1 0 0 4 | 8

A ce stade, au lieu de terminer par substitution ascendante, on va continuer à appliquer les


opérations élémentaires comme suit :
     
1 1 −2 | −2 1 1 0 | 2 1 0 0 | 1
l3  −3l3 + l2 → l2 
→ l3 0 1 3 | 7 

0 1 0 | 1 −l2 + l1 →l1 0 1 0 | 1
  
4 2l3 + l1 → l1
0 0 1 | 2 0 0 1 | 2 0 0 1 | 2

La solution, comme trouvée par la méthode de Gauss, s’affiche en la colonne des coefficients :
x = y = 1 et z = 2.

Définition 1.1.12
Soit A et B deux matrices m × n. On dira que A se réduit en B si B s’obtient à partir de A
par application des opérations élémentaires. On notera A ∼op−el B.

Théorème 1.1.13
1. ∼op−el est une relation d’équivalence sur l’ensemble des matrices à m lignes et n colonnes.
2. Chaque classe d’équivalence contient au moins une matrice échelonnée.
3. Dans chaque classe d’équivalence, il y’a une matrice échelonnée réduite unique.

Remarque 1.1.14
La méthode de réduction par opérations élémentaires est utilisée également pour chercher l’ordre
d’une matrice carrée et par suite, connaitre si elle est inversible ou non. Elle donne directement
l’inverse quand il existe.

Rami Youssef 9
CHAPITRE 1. RAPPELS 1.2

1.2 Déterminants
1.2.1 Définitions et propriétés
Rappel sur le groupe symétrique
Notons par Sn l’ensemble des bijections de J1, nK := {1, 2, . . . , n} vers lui même. Muni de la
composition des applications ◦, cet ensemble est un groupe (non commutatif dés que n dépasse
3) appelé, groupe symétrique d’ordre n. Attention, son ordre (en tant que groupe) est n!.
Un élément quelconque de Sn est noté comme suit :
!
1 2 3 ... n−1 n
σ=
σ(1) σ(2) σ(3) . . . σ(n − 1) σ(n)

Définition 1.2.1
Soit σ ∈ Sn et i, j ∈ J1, nK. on dit que le couple (i, j) présente une inversion pour σ si :
i < j ⇒ σ(i) > σ(j). Le nombre de tels couples est noté l(σ).

Définition 1.2.2
On appelle signature de σ ∈ Sn , le nombre ε(σ) = (−1)l(σ) .

Remarque 1.2.3
Comme il n’est pas pratique de calculer ε(σ) en utilisant strictement la définition, tout un cours
sur les groupes symétriques (partie du module Algèbre 6) a parmi ses objectifs d’élaborer des
méthodes simples pour faire ce calcul.
On rappelle en particulier

Définition 1.2.4
1- Une permutation γ ∈ Sn est un cycle d’ordre p si il existe {i1 , i2 , . . . ip } ⊆ J1, nK tel que :
σ(ik ) = ik+1 , ∀1 ≤ k ≤ p − 1, σ(ip ) = i1 et σ(i) = i, ∀i ∈ / {i1 , i2 , . . . ip }. On note alors
γ = (i1 , i2 , . . . ip ).
2- Une transposition τ est un cycle d’ordre deux, c’est à dire, une permutation préservant tous
les éléments de J1, nK sauf deux, i et j, qu’elle permute. On note alors τ = (i, j).
La proposition suivante résume les propriétés essentielles du groupe symétrique :

Proposition 1.2.5
1- Toute permutation se décompose, d’une façon unique à permutation près, en un produit de
cycles qui commutent deux à deux.
2- Toute permutation se décompose en produit de transpositions. Une telle décomposition n’est
pas unique, mais sa parité est préservée.
3– ε : Sn → {−1, 1} ; ε(σ) = (−1)l(σ) où {−1, 1} est muni de sa structure multiplicative, est un
morphisme surjectif de groupes.
4– Pour tout σ ∈ Sn , ε(σ) = (−1)n où n est le nombre de transpositions dans une décomposition
arbitraire (en produit de transpositions).

Rami Youssef 10
CHAPITRE 1. RAPPELS 1.2

Exemple 1.2.6
(i) (Décomposition en produit de cycles) :
!
1 2 3 4 5 6
1- Soit dans S6 , σ = On fait opérer G =< σ >= {σ i , i ≥ 0} sur
4 6 5 1 3 2
J1, 6K on trouve σ(1) = 4, σ 2 (1) = σ(4) = 1 (on s’arrête !) ; σ(2) = 6, σ 2 (2) = σ(6) = 2
(on s’arrête !) et σ(3) = 5, σ 2 (3) = σ(5) = 3 (on s’arrête !) et c’est terminé : Donc
σ = (1, 4) ◦ (2, 6) ◦ (3, 5) et ε(σ) = (−1)3 = −1. Dans ce cas, on obtient en fait une
décomposition en produit de transpositions !.
!
1 2 3 4 5 6
2- Soit dans S6 , σ = On fait opérer G =< σ > sur J1, 6K on
5 3 2 6 4 1
trouve σ(1) = 5, σ 2 (1) = σ(5) = 4, σ 3 (1) = σ(4) = 6, σ 4 (1) = σ(6) = 1 (on s’arrête !) ;
σ(2) = 3, σ 2 (2) = σ(3) = 2 (on s’arrête !). Dons σ = (1, 5, 4, 6) ◦ (2, 3).
(ii) : (Décomposition en produit de transpositions) :
En pratique, pour avoir une décomposition en produit de transposition, il suffit, une fois
celle en produit de cycles obtenue, de décomposer chaque cycle en produit de transpositions
en utilisant la formule suivante :

(i1 , i2 , . . . ip ) = (i1 , i2 ) ◦ (i2 , i3 ) ◦ . . . ◦ (ip−1 , ip ).

Reprenons donc la permutation de l’exemple 2, on a (1, 5, 4, 6) = (1, 5) ◦ (5, 4) ◦ (4, 6) et


par suite
σ = (1, 5) ◦ (5, 4) ◦ (4, 6) ◦ (2, 3) et ε(σ) = (−1)4 = +1.

Définition du déterminant
Définition 1.2.7
Soit E et F deux espaces vectoriels sur un même corps K et f : E p −→ F une application (tout
court). On dit que f est multilinéaire (ou p-linéaire) si : ∀i ∈ J1, nK, ∀(x1 , . . . , xi−1 , xi+1 , . . . , xp ) ∈
E p−1 , l’application
E −→ F
x 7−→ f (x1 , . . . , xi−1 , x, xi+1 , . . . , xp )
est linéaire.
Plus explicitement, f est p-linéaire si ∀i ∈ J1, nK, ∀(x1 , . . . , xi−1 , xi+1 , . . . , xp ) ∈ E p−1 , ∀λ ∈
K, ∀x, y ∈ E :

f (x1 , . . . , xi−1 , x+λy, xi+1 , . . . , xp ) = f (x1 , . . . , xi−1 , x, xi+1 , . . . , xp )+λf (x1 , . . . , xi−1 , y, xi+1 , . . . , xp ).

Le cas particulier est lorsque F = K et f est alors appelé, forme p-linéaire.


Définition 1.2.8
Soit E et F deux espaces vectoriels sur un même corps K et f : E p −→ F une application
p-linéaire. On dit que f est alternée si ∀i 6= j ∈ J1, nK, ∀(x1 , . . . , xp ) ∈ E p :

xi = xj =⇒ f (x1 , x2 , . . . , xp ) = 0.

Rami Youssef 11
CHAPITRE 1. RAPPELS 1.2

On note ensemble des formes p-linéaire alternées par Λp (E, K). C’est en fait un espace vectoriel
sur K.
Soit E un espace vectoriel de dimension n sur K et B = {e1 , e2 , . . . en } une base de E. Si
u1 = (x11 , . . . , xn1 ), u2 = (x12 , . . . , xn2 ), . . . , un = (x1n , . . . , xnn )
désignent des vecteurs dans E exprimés dans la base B, l’application :
ω: En −→ K
(u1 , u2 , . . . , un ) 7−→ ω(u1 , u2 , . . . , un ) = σ∈Sn ε(σ) ni=1 xσ(i)i .
P Q

vérifie la proposition suivante :


Proposition 1.2.9
ω est une n-forme linéaire alternée et elle vérifie les propriétés suivantes :
1. ω(e1 , e2 , . . . , en ) = 1
2. ∀ν ∈ Λn (E, K), ν = ν(e1 , e2 , . . . , en )ω.
3. dim Λn (E, K) = 1. En plus, ω est l’unique n-forme linéaire alternée vérifiant les propriétés
ci-dessus.
Preuve.
Premièrement, notons que ω est bien définie. Pour voir qu’elle est multilinéaire, il suffit de fixer
les uk pour k 6= i (i quelconque) et remplacer ui par u0i + λu00i , on aura alors xσ(i)i = x0σ(i)i + λx00σ(i)i
et la n-linéarité en découle. Pour montrer qu’elle est alternée, considérons i < j ∈ J1, nK et
(u1 , u2 , . . . , un ) avec ui = uj . On a alors :
X n
Y
ω(u1 , u2 , . . . , ui , . . . , uj , . . . , un ) = ε(σ) xσ(i)i
σ∈Sn i=1

avec xσ(j)j = xσ(j)i . Notons ensuite τ = (i, j) la transposition de i et j, de sorte que xσ(τ (j))j =
xσ(τ (j))i . Ainsi :
X n
Y
ω(u1 , u2 , . . . , ui , . . . , uj , . . . , un ) = ε(σ) xσ(τ (i))i
σ∈Sn i=1

et donc, puisque ε(σ ◦ τ ) = −ε(σ), on obtient :


X n
Y
ω(u1 , u2 , . . . , ui , . . . , uj , . . . , un ) = − ε(σ◦τ ) xσ◦τ (i)i = −ω(u1 , u2 , . . . , ui , . . . , uj , . . . , un )
σ◦τ ∈Sn i=1

et par conséquent :
ω(u1 , u2 , . . . , ui , . . . , uj , . . . , un ) = 0.
Revenons aux propriétés :
(1) vient du fait que si σ 6= IdJ1,nK , alors eσ(j)j = 0 pour au moins un certain j et eii = 1.
Pour (2), ν étant multilinéaire, on a
X n
Y
ν(u1 , u2 , . . . , un ) = xik k ν(ei1 , ei2 , . . . , ein ).
(ik )1≤k≤n k=1

Rami Youssef 12
CHAPITRE 1. RAPPELS 1.2

Mais toute suite (ik )1≤k≤n définie une permutation et une seule σ ∈ Sn donnée par σ(k) = ik et
donc : n X Y
ν(u1 , u2 , . . . , un ) = xσ(i)i ν(eσ(1) , eσ(2) , . . . , eσ(n) ).
σ∈Sn i=1

Pour conclure, il reste à utiliser le lemme suivant :


Lemme 1.2.10

ν(eσ(1) , eσ(2) , . . . , eσ(n) ) = ε(σ)ν(e1 , e2 , . . . , en ).


En effet, si σ est produit de l transpositions, ε(σ) = (−1)l ne dépend que de nombre de celles-ci,
il suffit de montrer que ν(eτ (1) , eτ (2) , . . . , eτ (n) ) = −ν(e1 , e2 , . . . , en ) pour τ = (i, j) quelconque.
Mais alors, puisque ν est alternée, on a

ν(e1 , . . . ei + ej , . . . , ei + ej , . . . en ) = 0

et donc

ν(eτ (1) , . . . eτ (i) , . . . , eτ (j) , . . . eτ (n) ) = ν(e1 , . . . ej , . . . , ei , . . . , en ) = −ν(e1 , . . . ei , . . . , ej , . . . en ).

(Noter que ε(σ ◦ σ 0 ) = ε(σ)ε(σ 0 ).


Enfin, Pour montrer (3) on considère l’application θ : Λn (E, K) → K ; θ(ν) = ν(e1 , e2 , . . . , en ).
Elle est bien définie, linéaire et surjective d’après (1), par conséquent dim Λn (E, K) = 1.
On notera dans toute la suite :

ω(u1 , . . . , un ) = detB (u1 , . . . , un ).

Comme conséquence de la proposition précédente, nous avons la définition suivante :


Définition 1.2.11
Soit E un espace vectoriel de dimension n muni d’une base B = {e1 , . . . , en }. Pour toute famille
de n vecteurs (u1 , . . . , un ) le scalaire
X n
Y
detB (u1 , . . . , un ) = ε(σ) xσ(i)i
σ∈Sn i=1

s’appelle le déterminant de la famille (u1 , . . . , un ) dans la base B.


Corollaire 1.2.12
Avec les notations précédentes :
∀ν ∈ Λn (E, K), ∀(u1 , . . . , un ), ν(u1 , . . . , un ) = ν(e1 , e2 , . . . , en ) detB (u1 , . . . , un ).
Proposition 1.2.13
Soit E un espace vectoriel de dimension finie n et B = {e1 , . . . , en } et B 0 = {e01 , . . . , e0n } deux
bases de E. Alors
detB (B 0 )detB0 (B) = 1
c. à. d. detB (B 0 ) est inversible d’inverse detB0 (B).

Rami Youssef 13
CHAPITRE 1. RAPPELS 1.2

Preuve.
D’après le corollaire précédent, ∀(v1 , . . . , vn ) ∈ E n ,

detB0 (v1 , . . . , vn ) = detB0 (e1 , . . . , en )detB (v1 , . . . , vn ).

En particulier, pour (v1 , . . . , vn ) = (e01 , . . . , e0n ), on obtient

1 = detB0 (e01 , . . . , e0n ) = detB0 (B)detB (B 0 ).

Définition 1.2.14
- On appelle déterminant d’une matrice M = (aij )1≤i,j≤n ∈ M (n, K), le déterminant de ses
vecteurs colonnes.
- Soit E espace vectoriel de dimension finie n muni de la base canonique B et f : E → E un
endomorphisme de E. On appelle déterminant de f dans B le scalaire

det(M (f, B)) = det(f (e1 ), . . . , f (en )).


B B

Proposition 1.2.15
Si B 0 est une autre base de E, alors detB (M (f, B)) = detB0 (M (f, B 0 )). Par conséquent, ce scalaire
ne dépend pas de B. On l’appelle déterminant de f et on le note det(f ).
Preuve.
Utilisant l’application ν(v1 , . . . vn ) = detB (f (v1 ), . . . , f (vn )) qui est multilinéaire alternée (du
fait que f est linéaire), on obtient pour (v1 , . . . , vn ) = (e01 , . . . , e0n ) :

detB (f (e01 ), . . . , f (e0n )) = detB (f (e1 ), . . . , f (en ))detB (e01 , . . . , e0n ) = detB (M (f, B))detB (B 0 ).

D’autre part ν 0 (v1 , . . . , vn ) = detB0 (v1 , . . . , vn ) est multilinéaire alternée et implique pour
(v1 , . . . , vn ) = (f (e01 ), . . . , f (e0n )) :

detB0 (f (e01 ), . . . , f (e0n )) = detB0 (e1 , . . . en )detB (f (e01 ), . . . , f (e0n ))

Par suite
detB0 (f, B 0 ) = detB0 (B)detB (B 0 )detB (M (f, B)) = detB (M (f, B)).

1.2.2 Autres propriétés du déterminant


Dans ce qui suit, nous citons les propriétés essentielles du déterminant. On se fixe un espace
vectoriel E de dimension finie n. L’ensemble des endomorphismes de E sera noté End(E) et
l’ensemble des matrices carrées d’ordre n sera noté M (n, K).

Proposition 1.2.16
Avec les mêmes notations précédentes, on a :

Rami Youssef 14
CHAPITRE 1. RAPPELS 1.2

(a) Si f, g ∈ End(E), alors det(f ◦ g) = det(f ) det(g).


(b) Si M, N ∈ M (n, K), alors det(M N ) = det(M ) det(N ).
(c) Si M ∈ M (n, K) et t M sa transposée, alors det(t M ) = det(M ).
!
A B
(d) Si M = une matrice triangulaire supérieure par bloc, alors det(M ) = det(A) det(C).
0 C
En particulier, si M est une matrice triangulaire supérieure ou inférieure, alors son déter-
minant est le produit des éléments de sa diagonale.
(e) Si M ∈ M (n, K) et λ ∈ K, alors det(λM ) = λn det(M ).
(f) Si M ∈ M (n, K), alors :
(i) On ne change pas det(M ) si on remplace la colonne ci de M par ci + λcj , ∀j 6= i et
∀λ ∈ K. Idem pour les lignes (par transposition).
(ii) On change le signe de det(M ) si on permute deux colonnes de M . De même pour les
lignes.
Preuve.

(a), (b) Considérons l’application n-linéaire

ν(v1 , . . . vn ) = detB (g(v1 ), . . . , g(vn )) = detB (g(e1 ), . . . , g(en ))detB (v1 , . . . , vn ).

En appliquons cette formule pour (v1 , . . . , vn ) = (f (e1 ), . . . , f (en )), on obtient :

detB (f ◦ g(e1 ), . . . , f ◦ g(en )) = detB (g(e1 ), . . . , g(en ))detB (f (e1 ), . . . , f (en ))

ce qu’il fallait démontrer. La preuve de (b) découle immédiatement de (a).


(c) Si M = (aij )1≤i,j≤n , alors t M = (a0ij )1≤i,j≤n avec a0ij = aji et on a alors :
n n
det(t M ) = a0σ(i)i =
X Y X Y
ε(σ) ε(σ) aiσ(i) .
σ∈Sn i=1 σ∈Sn i=1

Mais, comme σ est bijective, on peut écrire ni=1 aiσ(i) = ni=1 aσ−1 (i)i et comme ε est un
Q Q

homomorphisme de groupes, on a ε(σ ◦ σ −1 ) = 1 et donc ε(σ −1 ) = ε(σ). Il en résulte que


det(t M ) = σ−1 ∈Sn ε(σ −1 ) ni=1 aσ−1 (i)i = σ∈Sn ε(σ) ni=1 aσ(i)i = det(M ).
P Q P Q
!
A B
(d) M = = (aij )1≤i,j≤n une matrice carrée d’ordre n. On suppose que A est d’ordre
0 C
m et donc C est d’ordre n − m. Notons A = {σ : σ(J1, mK) = J1, mK}. Si σ ∈ / A, il existe
i ∈ J1, mK tel que σ(i) ∈ Jm + 1, nK et donc, par définition de M , on a aσ(i)i = 0. Ainsi,
det M = σ∈A ε(σ) ni=1 aσ(i)i . D’autre part, tout σ ∈ A vérifie aussi σ(Jm + 1, nK) =
P Q

Jm + 1, nK et par suite, σ = σ1 ◦ σ2 : produit de σ1 qui coïncide avec σ sur J1, mK et telle


que σ1 (i) = i, ∀i ∈ Jm + 1, nK et de σ2 qui coïncide avec σ sur Jm + 1, nK et telle que
σ2 (i) = i, ∀i ∈ J1, mK. Il en résulte que :
X n
Y X m
Y n
Y
det M = ε(σ1 σ2 ) aσ1 ◦σ2 (i)i = ε(σ1 )ε(σ2 ) aσ1 (i)i aσ2 (i)i .
σ1 , σ2 i=1 σ1 , σ 2 i=1 i=m+1

Rami Youssef 15
CHAPITRE 1. RAPPELS 1.2

0
Notons Sn−m l’ensemble des permutations de Jm + 1, nK qu’on peut identifier à Sn−m .
C’est à dire, les σ1 (resp. les σ2 ) décrivent effectivement Sm (resp. Sn−m ) et par suite
X m
Y X n
Y
det M = [ ε(σ1 ) aσ1 (i)i ][ ε(σ2 ) aσ2 (i)i ] = det(A) det(C).
σ1 ∈Sm i=1 σ2 ∈Sn−m i=m+1

(e) Conséquente de la n-linéarité.


(f) Conséquente de la n-linéarité.

Les deux dernières propriétés (e) et (f) sont des techniques utilisées dans le calcul du
déterminant ; elles servent à réduire les calculs en se reposant sur le résultat suivant :
Proposition 1.2.17
Soit M = (aij )1≤i,j≤n ∈ M (n, K) et Mpq = (aij )1≤i,j≤n;i6=p,j6=q la sous-matrice de M obtenue on
éliminant la ligne p et la colonne q. Alors
n n
det(M ) =(1) (−1)i+j aij det(Mij ) =(2) (−1)i+j aij det(Mij ).
X X
(∗)
i=1 j=1

(=(1) : développement par rapport à la colonne j et =(2) : développement par rapport à la ligne i).
Preuve.
Notons par vj ; 1 ≤ j ≤ n les vecteurs colonne de M . Par définition, on a det(M ) =
detB (v1 , . . . , vn ) et donc par n-linéarité au niveau du vj , on a det(M ) = ni=1 aij det(v1 , . . . , vj−1 , ei , vj+1 , . . . ,
P
Pn 0 0 eme
i=1 aij det(M ) avec M la matrice obtenue à partir de M en remplaçant le j vecteur colonne
vj par le vecteur (0, . . . , 0, 1, 0, . . . 0). Ensuite, on effectue i − 1 déplacement à gauche de la j eme
colonne et j − 1 déplacement en haut de la ieme ligne de M 0 et on obtient alors la matrice
!
001 ai1 . . . aij−1 aij+1 . . . ain
M =
0 Mij

qui est une matrice triangulaire par bloc et par suite det(M 0 ) = (−1)i+j det(M 00 ) = (−1)i+j det(Mij ).
D’où le première égalité de la formule (*) (la deuxième, s’obtient d’une façon similaire).

Définition 1.2.18
Avec les notation ci-dessus, la co-matrice de M est la matrice M 0 = (a0ij ) avec a0ij = (−1)i+j det(Mij ).
On note sa transposée par M ∗ . Ainsi

M ∗ = (a00ij )1≤i,j≤n = ((−1)i+j det(Mji ))1≤i,j≤n

(car a00ij = a0ji ).

Théorème 1.2.19
Si M ∈ M (n, K) alors M M ∗ = M ∗ M = det(M )In . En particulier si det(M ) 6= 0 alors M est
inversible et M −1 = det(M
1
)
M ∗.

Rami Youssef 16
CHAPITRE 1. RAPPELS 1.2

Preuve.
Avec les notations ci-dessus M M ∗ = (βij )1≤i,j≤n avec
n n
aik a00kj (−1)j+k aik det(Mjk ).
X X
βij = =
k=1 k=1

On distingue alors deux cas : (1) si i 6= j on remarque alors que βij n’est autre que le
déterminant obtenu à partir de M en remplaçant la ligne j par la ligne i et en développant
suivant la ligne j. Et comme celle-ci est formée de deux lignes identiques, βij = 0. (2) si i = j,
on a alors βij = βii = nk=1 (−1)i+k aik det(Mik ) qui n’est autre que det(M ). Par conséquent
P

M M ∗ = det(M )In . Pour l’autre égalité, raisonner de la même manière en considérant cette
fois-ci les colonnes au lieu des lignes.
En termine ce paragraphe par le résultat très utile suivant :
Proposition 1.2.20
Soit f un endomorphisme de E, alors les propriétés suivantes sont équivalentes
1. f est injective (⇔ ker(f ) = {0}).
2. f est surjective (⇔ Im(f ) = E).
3. det(f ) 6= 0.
4. det M (f, B) 6= 0 (B est une base quelconque de E).
5. M (f, B) est inversible.
Preuve.
Par le théorème du rang (dim E = dim ker(f ) + rg(f )), on a (1) ⇔ (2).
Par Proposition 1.2. 13, (2) ⇔ (f (e1 ), . . . , f (en )) est une base de E ⇔ (3).
Par définition, (3) ⇔ (4).
D’après le théorème précédent, (4) ⇔ (5).

Rami Youssef 17
CHAPITRE 1. RAPPELS 1.2

Rami Youssef 18
Chapitre 2

Réduction des endomorphismes

Dans tout le chapitre, on considère un espace vectoriel E de dimension finie, dim E = n, sur
un corps K quelconque en général et souvent égale à R ou C. L’ensemble des endomorphismes
EndK (E), de E sera noté LK (E).

2.1 Trigonalisation et Diagonalisation


2.1.1 Sous espaces propres
Définition 2.1.1
Soit u ∈ L(E) et λ ∈ K.
Si il existe un vecteur non nul x ∈ E tel que u(x) = λx, on dira alors que λ est une valeur
propre de u et que x est un vecteur propre associé à λ.
L’ensemble des valeurs propres de u est appelé spectre de u et sera noté Spec(u) :
Spec(u) = {λ ∈ K | ∃x ∈ E − {0}; u(x) = λx}.
La définition précédente peut être reformulée en considérant les équivalences suivantes :
u(x) = λx ⇔ u(x) = λIdE (x) ⇔ (u − λIdE )(x) = 0 ⇔ x ∈ ker(u − λIdE ).
Ainsi :
λ ∈ K est une valeur propre de u si et seulement si ker(u − IdE ) 6= {0} et chacun des
éléments non nuls de ce noyau est un vecteur propre associé à λ :
Spec(u) = {λ ∈ K | ker(u − IdE ) 6= {0}}.
On retiendra alors la définition suivante :
Définition 2.1.2
Le sous espace ker(u − λIdE ) de E, quand il est non nul est appelé, le sous espace propre
de λ. On le note par Eλ , c. à. d.
Eλ = ker(u − IdE ) = {l’ensemble des vecteurs propres de λ} ∪ {0}.
En particulier, on a :
1 ≤ dim(Eλ ) ≤ n = dim E.

19
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.1

Premières propriétés du sous espace propre


Définition 2.1.3
Un sous espace F de E est dit stable par u ∈ LK (E) si u(F ) ⊆ F . Si en plus u(F ) = F , on
dira que F est invariant par u.
On a alors :
Proposition 2.1.4
Tout sous espace propre Eλ de u est stable par u ou d’une façon équivalente, la restriction
u|Eλ est un endomorphisme de Eλ . On a alors, pour tout λ ∈ Spec(u), les deux propriétés
équivalentes :
u(Eλ ) ⊆ Eλ ⇔ uλ ∈ LK (Eλ ).
Preuve.
∀x ∈ E ; x ∈ Eλ ⇔ u(x) = λx ⇒ u(u(x)) = u(λx) = λu(x) = λ2 x ⇒ u(x) ∈ Eλ . D’où la
proposition.
Remarque 2.1.5
Sachant que, par convention u0 = IdE et λ0 = 1K , on retient de la preuve précédente que :

∀x ∈ Eλ , ∀j ≥ 0, uj (x) = λj x.
C. à. d. Si λ est une valeur propre de u associée à x ∈ E, alors λj est une valeur
propre de uj associée au même x.
Le résultat suivant donne une propriété des valeurs propres quand elles sont prises toutes
ensemble.
Théorème 2.1.6
Si λ1 , λ2 , . . . , λk sont des valeurs propres distinctes deux à deux de u, alors
Eλ1 + Eλ2 + . . . + Eλk = Eλ1 ⊕ Eλ2 + . . . ⊕ Eλk .
Preuve.
On raisonne par récurrence sur k. C’est évident pour k = 1.
Supposons donc k = 2. Il faut montrer que Eλ1 ∩ Eλ2 = {0}. Soit x ∈ Eλ1 ∩ Eλ2 . x ∈ Eλ1 ⇒
u(x) = λ1 x et x ∈ Eλ2 ⇒ u(x) = λ2 x. Par suite λ1 x = λ2 x ce qui entraine (λ1 − λ2 )x = 0 et
puisque λ1 6= λ2 , alors x = 0.
Supposons, par récurrence, que c’est vrais pour un certain k ≥ 2 et soit λ1 , λ2 , . . . , λk+1
des valeurs propres distinctes deux à deux de u. Il faut montrer (sans perte de généralité)
que Eλk+1 ∩ (Eλ1 + Eλ2 + . . . Eλk ) = {0}. Soit donc x ∈ Eλk+1 ∩ (Eλ1 + Eλ2 + . . . ⊕ Eλk ) ;
x = xk+1 = i=k i avec xk+1 ∈ Eλk+1 et xi ∈ Eλi (1 ≤ i ≤ k). On a alors u(x) = λk+1 xk+1 =
P
Pi=k i=1 xP
i=k Pi=k Pi=k Pi=k Pi=k
i=1 λi xi ⇒ λk+1 ( i=1 xi ) = i=1 λi xi ⇒ i=1 λk+1 xi = i=1 λi xi ⇒ i=1 (λk+1 − λi )xi = 0.
Or cette égalité est dans Eλ1 + Eλ2 + . . . + Eλk qui est par hypothèse de récurrence une somme
directe et donc xi = 0, ∀1 ≤ i ≤ k, ce qui entraine que x = 0.
Corollaire 2.1.7
Le nombre de valeurs propres de u est au plus égale à n = dim E : card(Spec(u)) ≤ n.

Rami Youssef 20
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.1

Preuve.
Notons k le nombre de valeurs propres de u. Comme dim Eλ ≥ 1, alors dim(Eλ1 ⊕ Eλ2 + . . . ⊕
Eλk ) ≥ k. Mais Eλ1 ⊕ Eλ2 + . . . ⊕ Eλk étant un sous espace vectoriel de E, on déduit que
dim E = n ≥ k.

2.1.2 Polynôme caractéristique


Le moyen pratique pour déterminer les valeurs propres d’un endomorphisme u ∈ LK (E) est
dû au résultat suivant :
Proposition 2.1.8
Avec les notations précédentes, λ est une valeur propre de u si et seulement si det(u−λidE ) = {0}.
Preuve.
If suffit de rappeler (voir Proposition 1.2.20) que Eλ = ker(u − λidE ) 6= {0} ⇔ det(u − λidE ) =
{0}.
Ceci impose l’introduction de la notion suivante :
Définition 2.1.9
1. Soit u ∈ LK (E). Le déterminant det(M (u, B) − XIn ) exprimé dans une base quelconque
B de E (cf. Proposition 1. 2. 25) est appelé, le polynôme caractéristique de u. On le
note :
Pu (X) = det(M (u, B) − XIn ).
Il en résulte :
λ ∈ Spec(u) ⇔ Pu (λ) = 0 ⇔ λest racine de Pu (X).
2. Soit M ∈ M (n, K) une matrice carrée d’ordre n. PM (X) = det(M − XIn ) est appelé,
polynôme caractéristique de M .
Plus explicitement, posons M = M (u, B) = (aij )1≤i,j≤n on a alors :
a11 − X a12 a13 . . . . . . a1n−1 a1n
a21 a22 − X a23 . . . . . . a2n−1 a2n
det(M − XIn ) = .. .. .. .. .. .. .. (2.1)
. . . . . . .
an1 an2 an3 . . . . . . ann−1 ann − X
Avant de donner certaines propriétés du polynôme caractéristique, nous rappelons les notions
suivantes :
Définition 2.1.10
Soit M = (aij )1≤i,j≤n une matrice carrée quelconque, on appelle trace de M , le scalaire T r(M ) =
Pi=n
i=1 aii .
Soit P (X) ∈ K[X] un polynôme quelconque de degré m. Une racine α de P est dite de multiplicité
k si (X − α)k divise P (X) et (X − α)k+1 ne le divise pas. On note alors om(α) = k.
Notez bien que (X − α)k divise P (X) ⇔ (α − X)k divise P (X) ⇔ P (α) = P 0 (α) = . . . =
P (k−1) (α) = 0.

Rami Youssef 21
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.1

Proposition 2.1.11
Si u ∈ L(E), alors :
1. Pu (X) = (−1)n X n + (−1)n−1 T r(M )X n−1 + . . . + det(M ).
2. ∀λ ∈ Spec(u), on a : 1 ≤ dim Eλ ≤ om(λ).
Preuve.
On reprend la notation M = M (u, B) = (aij )1≤i,j≤n .
1. A titre explicite, si n = 1, alors M − XI1 = (a11 − X) et donc, par définition du
déterminant et puisque S1 = {Id{1} }, on a alors det(M − XI1 ) = det(a11 − X) =
a11 − X = (−1)1 X + det(M ) (sachant que det(a11 ) = a11 ). On vérifie aussi que pour n = 2
la formule est vraie. Pour le cas général, posons N = M − XIn = (bij )1≤i,j≤n et appliquons
la formule du déterminant :
X n
Y
det(N ) = ε(σ) bσ(i)i .
σ∈Sn i=1

Comme les bσ(i)i sont des polynômes de degré ≤ 1 (seul bjj contient X), on déduit que
deg(Pu ) ≤ n. Le terme constant est donné par Pu (0) qui coïncide, par définition, avec
det(M ), c. à. d. Pu (0) = det(M ). D’autre part, si σ 6= IdJ1,nK , il existe dans ni=1 bσ(i)i au
Q

moins deux termes constants (des scalaires) et donc son degré ≤ n − 2. Il reste le terme
donné par σ = IdJ1,nK qui est exactement ni=1 (aii − X) qui contient en particulier le terme
Q

(−1)n X n de degré n et le terme (−1)n−1 T r(M )X n−1 de degré n − 1. Ceci donne la formule
escomptée.
2. On suppose que dim Eλ = k et on se fixe une de ses base {e1 , e2 , . . . , ek }. On a alors
u(ei ) = λei , ∀1 ≤ i ≤ k. Il en résulte que la matrice de u dans n’importe quelle base qui
complète {e1 , e2 , . . . , ek } est de la forme :
!
λIk B
M=
0 C

et par suite, d’après Proposition 1. 2.16(d),

Pu (X) = det(λIk − XIk ) det(C − XIn−k ) = (λ − X)k det(C − XIn−k ).

Par conséquent dim E = k ≤ om(λ) et donc 1 ≤ dim Eλ ≤ om(λ).

Exercice 2.1.12
(a) Calculer le polynôme caractéristique de chacune des matrices suivantes :
   
2 2 −2 2 −2 −1
 1 3 −1 −2 −1 −2
   

−1 1 1 14 25 14

(b) Déterminer le sous espace propre de chacune des valeurs propres associées aux matrices
précédentes.

Rami Youssef 22
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.1

2.1.3 Premiers critères de triangularisation et de diagonalisation


A ce stade, on est en mesure d’aborder la réduction des endomorphismes, ce qui équivaut,
à la résolution des systèmes d’équations linéaires par d’autres méthodes autres que celles de
Gauss et de Gauss-Jordan. On rappelle tout d’abord les notions suivantes :
Définition 2.1.13
Soit M = (aij )1≤i,j≤n , M 0 = (a0ij )1≤i,j≤n ∈ M (n, K) deux matrices carrées à coefficients dans un
corps K. On dira que M 0 est semblable M (ou que M et M 0 sont semblables) s’il existe une
matrice P ∈ M (n, K) inversible, telle que M 0 = P −1 M P .
Définition 2.1.14
Soit M = (aij )1≤i,j≤n ∈ M (n, K) une matrice carrée à coefficients dans un corps K.
1. M est dite diagonale, si aij = 0, ∀i = 6 j. On notera alors M = Diag(α1 , α2 , . . . , αn ) avec
αi = aii (1 ≤ i ≤ n) les coefficients diagonaux.
2. M est dite diagonalisable, si elle est semblable à une matrice diagonale Diag(α1 , α2 , . . . , αn ).
3. M est dite triangulaire supérieure, si aij = 0, ∀i > j.
4. M est dite trigonalisable, si elle est semblable à une matrice triangulaire supérieure.
5. Soit u ∈ LK (E). On dira que u est diagonalisable (resp. trigonalisable) si il existe
une base B de E telle que M (u, B) soit diagonale (resp. triangulaire supérieure). B sera
appelée,base de diagonalisation (resp. trigonalisation) de u.
Définition 2.1.15
Soit P ∈ K[X] un polynôme de degré deg(P ) = n sur K. On dira que P est scindé (c. à. d. se
factorise en produit de polynômes de degré 1 avec possibilité de répétition), si il a toutes ses
racines dans K. Plus explicitement : Si α1 , α2 , . . . , αk sont des racines deux à deux distinctes de
P , alors
P (X) = (X − α1 )n1 (X − α2 )n2 . . . (X − αk )nk ;
Pi=k
avec ni = om(αi ), ∀1 ≤ i ≤ k et i=1 ni = n.
Lemme 2.1.16
Deux matrices semblables ont même polynôme caractéristique.
Preuve.
Soit M et M 0 deux matrices semblables et P inversible telle que M 0 = P −1 M P . On a alors :
PM 0 (X) = det(M 0 −XIn ) = det(P −1 M P −XIn ) = det(P −1 M P −P −1 (XIn )P ) = det(P −1 (M −
XIn )P ) = det(P −1 ) det(M − XIn ) det(P ) = det(P −1 ) det(P ) det(M − XIn ) = det(M − XIn ) =
PM (X).
En toute évidence, toute matrice carrée diagonalisable est trigonalisable. Néanmoins, on
préfère commencer par donner les premiers critères de diagonalisation d’une matrice carrée et
donc d’un endomorphisme u ∈ LK (E).
Théorème 2.1.17
Soit u ∈ LK (E) un endomorphisme d’un K-espace vectoriel de dimension finie. Alors, les
propriétés suivantes sont équivalentes :

Rami Youssef 23
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.1

1. u est diagonalisable.
2. Il existe une base B de E constituée de vecteurs propres.
3. E est la somme directe des sous espaces propres.
4. Pu est scindé dans K et, pour toute valeur propre λi de u, dim Eλi = om(λi ).
Preuve.

1. [(1) ⇒ (2)] : Supposons que u est diagonalisable et notons B sa base de diagonalisation.


Si λ1 , λ2 , . . . , λk sont les valeurs propres de u distinctes deux à deux (k ≤ n, d’après
Corollaire 2.1.7), alors

M (u, B) = Diag(λ1 , . . . , λ1 , λ2 , . . . , λ2 , . . . , λk , . . . , λk ). (2.2)


| {z } | {z } | {z }

Remarquons tout d’abord que, puisque Pu (X) = det(M (u, B) − XIn ) = i=k di
i=1 (λi − X) et
Q

les λi sont distinctes deux à deux, alors chaque λi est répétée om(λi ) =: di fois. On a alors

B = {u1,1 , u1,2 , . . . , u1,om(λ1 ) } ∪ . . . ∪ {uk,1 , uk,2 , . . . , uk,om(λk ) } (2.3)

avec pour tout 1 ≤ i ≤ k, u(uij ) = λi uij , ∀1 ≤ j ≤ om(λi ). C. à. d. les uij désignent les
vecteurs propres associés à λi . D’où, B est formée par les vecteurs propres de u.
2. [(2) ⇒ (3)] : Supposons (2) vérifiée et considérons la base de vecteurs propres de E
suivante :
B 0 = {u1,1 , u1,2 , . . . , u1,d01 } ∪ . . . ∪ {uk,1 , uk,2 , . . . , uk,d0k }.
Il s’en suit (d’après Théorème 2.1.6) que

E = V ect(B) = V ect{u1,1 , u1,2 , . . . , u1,d01 } ⊕ . . . ⊕ V ect{uk,1 , uk,2 , . . . , uk,d0k }

et en particulier n = i=k 0 0
i=1 di . En plus, V ect{ui,1 , ui,2 , . . . , ui,d0i } ⊆ Eλi ⇒ di ≤ dim Eλi .
P
Pi=k 0 Pi=k
D’où dim E = n = i=1 di ≤ i=1 dim Eλi = dim(Eλ1 ⊕ . . . ⊕ Eλk ) ≤ n ⇒ E =
Eλ1 ⊕ . . . ⊕ Eλk . C’est à dire que E est somme directe de sous espaces propres.
3. [(3) ⇒ (4)] : Supposons E = Eλ1 ⊕ . . . ⊕ Eλk est somme directe de sous espaces propres
(les λi , des valeurs propres distinctes deux à deux). Si dim Eλi = d”i et {ui,1 , ui,2 , . . . , ui,d00i }
désigne une de ses bases, (1 ≤ i ≤ k), alors

B = {u1,1 , u1,2 , . . . , u1,d001 } ∪ . . . ∪ {uk,1 , uk,2 , . . . , uk,d00k } (2.4)

est une base de E. Il en résulte que la matrice de u dans cette base est de la forme

M (u, B) = Diag(λ1 , . . . , λ1 , λ2 , . . . , λ2 , . . . , λk , . . . , λk ) (2.5)


| {z } | {z } | {z }

(chaque λi est répétée d00i fois). D’où, puisque Pu est indépendant de la base de E (car c’est
d00
le déterminant d’un endomorphisme), Pu (X) = i=k i=1 (λi − X)
Q
i qui est donc scindé dans K.

D’autre part, puisque les λi sont distinctes deux à deux, on a effectivement d00i = om(λi ).

Rami Youssef 24
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.1

Qi=k
4. [(4) ⇒ (1)] : Supposons que (4) est vérifiée, c’est à dire que Pu (X) = i=1 (λi − X)di avec
di = dim Eλi = om(λi ) . Il s’en suit que
i=k
X i=k
X i=k
X
deg Pu = di = om(λi ) = dim Eλi = dim(Eλ1 ⊕ . . . ⊕ Eλk )
i=1 i=1 i=1

et comme dim(E) = n = deg Pu , alors dim E = dim(Eλ1 ⊕ . . . ⊕ Eλk ). Ceci entraine


que E = Eλ1 ⊕ . . . ⊕ Eλk et que la réunion des bases Bi des Eλi forme une base B de
diagonalisation de u.

Le résultat suivant donne un critère de trigonalisation qui montre en fait que la diagonalisation
en est un cas particulier.

Théorème 2.1.18
Soit u ∈ LK (E) un endomorphisme d’un K-espace vectoriel de dimension finie n. Alors, les
propriétés suivantes sont équivalentes :
1. u est trigonalisable.
2. Pu est scindé dans K.
Preuve.
Supposons que u est trigonalisable et notons B une base de trigonalisation. Si λ1 , λ2 , . . . , λk
sont les éléments de la diagonale de M (u, B) considérés avec leurs répétitions d1 , d2 , . . . , dk
respectivement, alors, par Proposition 1.2.16, on a

Pu (X) = det(M (u, B) − XIn ) = (λ1 − X)d1 (λ2 − X)d2 . . . (λk − X)dk .

Par suite Pu (X) est scindé.

Réciproquement, supposons que Pu (X) est scindé. Si on pose

Pu (X) = (λ1 − X)d1 (λ2 − X)d2 . . . (λk − X)dk ,

alors chaque λi est une valeur propre de u lequel admet donc au moins un vecteur propre u1
associé à λ1 . Par le théorème de la base incomplète, il existe une famille libre (quitte à changer
la numérotation) {v2 , v3 , . . . , vn } complétant {u1 } en une base B 0 = {u1 , v2 , v3 , . . . , vn } de E. La
matrice de u dans cette base est de la forme :
!
0 λ1 a12 . . . . . . . . . . . . a1n
M =
0 M”

avec M ” = (αij )2≤i,j≤n ∈ M (n − 1, K) une matrice carrée d’ordre n − 1. Utilisant maintenant


Proposition 1.2.17, on déduit que Pu (X) = (λ1 − X) det(M ” − XIn−1 ) et par conséquent,

det(M ” − XIn−1 ) := PM ” (X) = (λ1 − X)d1 −1 (λ2 − X)d2 . . . (λk − X)dk .

Rami Youssef 25
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.1

En raisonnant par récurrence, on peut supposer que M ” est trigonalisable avec une base
de trigonalisation (quitte à changer la numérotation) {u2 , u3 , . . . , un }. Notons alors B =
{u1 , u2 , u3 , . . . , un }. Il est claire que u1 est linéairement indépendant des ui (2 ≤ i ≤ n) car
V ect{u2 , u3 , . . . , un } = V ect{v2 , v3 , . . . , vn } et donc B est une base de E. La matrice de u dans
cette base est encore de la forme :
!
λ1 a012 . . . . . . . . . . . . a01n
T =
0 T”

mais cette fois-ci avec T ” une matrice triangulaire supérieure pour la raison suivante :
Pour chaque ui , (2 ≤ i ≤ n) on a u(ui ) = a01i u1 + j=n 0
P
j=2 ai,j uj et aussi, pour chaque vi ,
Pj=n
(2 ≤ i ≤ n) on a u(vi ) = a1i u1 + j=2 αi,j vj . D’autre part, on peut voir M ” et T ” comme
matrices des compositions des homomorphismes suivantes :
ι1 u pr
ϑ1 : V ect{v2 , v3 , . . . , vn } ,→ (E, B 0 ) → (E, B 0 ) →2 V ect{v2 , v3 , . . . , vn }

et
ι1 u pr
ϑ2 : V ect{u2 , u3 , . . . , un } ,→ (E, B) → (E, B) →2 V ect{u2 , u3 , . . . , un }.
Mais, ces deux endomorphismes représentent en fait le même endomorphisme exprimé dans des
bases différentes (le deuxième est donné en termes de la base de trigonalisation de premier).
Par suite T ” est une matrice triangulaire supérieure. Il en résulte que B est une base de
trigonalisation de u.
Le corollaire suivant est très intéressant et découle du fait que tout polynôme à coefficients
dans C est scindé ; autrement dit : C est un corps algébriquement clos.
Corollaire 2.1.19
Tout endomorphisme u ∈ LC (E) et toute matrice carrée M ∈ M (C, n) sont trigonalisables.

Polynôme caractéristique du produit de deux matrices


Si A ∈ M (m × n, K) et B ∈ M (n × m, K) deux matrices (non carrées en général), alors
AB ∈ M (m, K) et BA ∈ M (n, K) sont carrées. On pose
! !
XIm −A I A
M= et N= m .
0 In B XIn

On a alors
! !
XIm − AB 0 XIm 0
MN = et NM = .
B XIn XB XIn − BA

Par suite det(M N ) = det(XIm −AB) det(XIn ) = X n PAB (X) et det(N M ) = det(XIm ) det(XIn −
BA) = X m PBA (X) et donc
X n PAB (X) = X m PBA (X).
En particulier, si m = n, alors :
PAB (X) = PBA (X).

Rami Youssef 26
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2

Exercice 2.1.20
1. Montrer que les matrices suivantes sont diagonalisables et trouver leurs bases de diagona-
lisation :    
5 −6 −6 −9 4 4
−1 4 2,  −8 3 4
 

3 −6 −4 −16 8 7
2. Sous quelles conditions sur a, b, c ∈ R, la matrice carrée suivante
0 0 0 0
 
a
 0 0 0
0 b 0 0
 

0 0 c 0
est diagonalisable ?
3. Montrer que la matrice suivante est trigonalisable
1 1 0 0
 
−1 −1 0 0
 
−2 −2 2 1
 

1 1 −1 0

Est-elle diagonalisable (justifier votre réponse).

2.2 Théorème de Caley-Hamilton


Le théorème de Cayley-Hamilton est l’une des clés principales dans le traitement des matrices
carrées et donc des endomorphismes de K-espaces vectoriels de dimensions finies. Avant de
l’énoncer, nous rappelons les notions suivantes :
Définition 2.2.1
Soit u ∈ LK (E) un endomorphisme d’un K-espace vectoriel de dimension n et P ∈ K[X] un
Pi=p
polynôme à coefficients dans K. On notera P (X) = i=0 ai X i .
On dira que P est un polynôme annulateur de u si
i=p
ai ui = 0LK (E)
X
P (u) =
i=0

où, u0 = IdE , ui = u ◦ u ◦ u ◦ . . . ◦ u (la composée de u i fois) et 0LK (E) désigne le morphisme


nul de E défini par 0LK (E) (x) = 0E ; ∀x ∈ E. Ainsi,
i=p
ai ui (x) = 0E , ∀x ∈ E.
X
P est annulateur de u ⇔ P (u)(x) =
i=0

De la même façon, un polynôme annulateur d’une matrice carrée M ∈ M (K, n) est tout
polynôme P ∈ K[X] tel que P (M ) = 0M (n,K) ce qui équivaut à i=p i
P
i=0 ai M = 0M (n,K) , la matrice

Rami Youssef 27
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2

nulle.

N.B. Souvent, tout élément nul sera noté 0.


Exemple 2.2.2
1) Un endomorphisme p ∈ LK (E) est dit projecteur si p2 = p. Il a alors comme annulateur le
polynôme P (X) = X 2 − X.
2) Un endomorphisme r : E → E est dit réflexion si r2 = IdE . Il a alors comme annulateur le
polynôme P (X) = X 2 − 1.

2.2.1 Relation entre polynôme annulateur et Spectre


Pk=p
Si P = k=0 ai X k est un polynôme annulateur de u ∈ LK (E), alors :

Spec(u) ⊆ {racines de P }.

En effet, si λ ∈ Spec(u) et x est un vecteur propre associé, alors,


k=p
k k
ak λk )x = P (λ)x
X
u(x) = λx ⇒ ∀k ≥ 0, u (x) = λ x ⇒ 0 = P (u)(x) = (
k=0

et comme x 6= 0, alors P (λ) = 0, d’où λ est une racine de P .


On en tire aussi que si M ∈ M (n, K) est une matrice carrée et P (M ) = 0, alors

Spec(M ) ⊆ {racines de P }.

Propriétés des polynômes annulateurs


Rappelons au début les différentes structures algébriques de K[X], M (n, K) et LK (E) :
Anneau commutatif : (K[X], +, ×) est un anneau commutatif unitaire.
Espace vectoriel : (K[X], +, .) (où . désigne la multiplication par un scalaire) est un
K-espace vectoriel (de dimension infinie).
K-algèbre : (K[X], +, ×, .) est une K-algèbre commutative ; c’est à dire à la fois un anneau
commutatif, un K-espace vectoriel et en plus, il vérifie la relation suivante :

∀P, Q ∈ K[X], ∀a ∈ K, a(P Q) = (aP )Q = P (aQ).

De la même façon on montre que (M (n, K), +, ×, .) et (LK (E), +, ◦, .) sont des K-algèbres (mais
non commutatives).
La propriété spécifique à K[X] est la division euclidienne qui fait que tout idéal I de
K[X] (c. à. d. un sous groupe de (K[X], +) tel que ∀A ∈ K[X], ∀B ∈ I, on a AB ∈ I) est
principal, c’est à dire qu’il existe un polynôme Q ∈ I tel que I = QK[X]. On dit alors que K[X]
est un anneau principal.
Le lemme suivant permet de profiter de cette propriété dans la décomposition des endomor-
phismes : Fixons donc u ∈ LK (E) et A ∈ M (n, K) :

Rami Youssef 28
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2

Lemme 2.2.3
Les applications :

ϕu : K[X] → LK (E) ϕA : K[X] → M (n, K)


(2.6)
P 7→ P (u) P 7→ P (A),
sont des morphismes d’algèbres, c. à. d. à la fois des applications linéaires entre K-espaces
vectoriels et des morphismes d’anneaux.
Preuve.
Il s’agit de vérifier que :
∀P = i=p i Pi=q j
i=0 ai X , ∀Q = i=0 bj X ∈ K[X], ∀a ∈ K, ∀u ∈ LK (E), on a :
P

i=p
(aai )ui = a(P (u)) et (P Q)(u) = P (u)◦Q(u) = Q(u)◦P (u).
X
(P +Q)(u) = P (u)+Q(u), (aP )(u) :=
i=0

Idem, lorsqu’on remplace u par A.


Théorème 2.2.4
(Théorème de Cayley-Hamilton)
1. Soit u ∈ LK (E) un endomorphisme d’un espace vectoriel de dimension finie. Alors
Pu (u) = 0.
2. Si A ∈ M (n, K) est une matrice carrée, alors PA (A) = 0.
Preuve.

1. On note A = M (u, B) la matrice de u dans une base quelconque de E de sorte que Pu (X) =
det(A − XIn ). D’après Théorème 1.2.19, on a : (A − XIn )∗ (A − XIn ) = det(A − XIn )In
avec (A − XIn )∗ la transposée de la comatrice de (A − XIn ).
Maintenant, en se référant à (2.1) on voit que chaque ligne d’indice i de A − XIn contient
(n − 1) entrées qui sont des scalaires et une entrée de la forme aii − X :
a11 − X
 
a12 a13 . . . . . . a1n−1 a1n
 a21

a22 − X a23 . . . . . . a2n−1 a2n  
A − XIn =  .. .. .. .. .. .. .. .
. . . . . . .
 
 
an1 an2 an3 . . . . . . ann−1 ann − X
Par suite les coefficients de la comatrice de A−XIn sont des polynômes de degrés inférieurs
ou égales à n − 1. De même pour sa transposée, que l’on peut développer alors comme
suit :
(A − XIn )∗ = A0 + XA1 + X 2 A2 + . . . + X n−1 An−1
avec les Ak ∈ M (n, K), (0 ≤ Ak ≤ n − 1).
L’équation (A−XIn )∗ (A−XIn ) = det(A−XIn )In = Pu (X)In devient après développement
du terme à gauche :
A0 A + X(A1 A − A0 ) + X 2 (A2 A − A1 ) + . . . + X n−1 (An−1 A − An−2 ) − X n An−1 = Pu (X)In .

Rami Youssef 29
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2

Si on pose Pu (X) = c0 + c1 X + c2 X 2 + . . . + cn X n avec cn = (−1)n et c0 = det(A), alors


(par définition de égalité des deux polynômes) l’égalité précédente donne :

A0 A = c0 In
A1 A − A0 = c1 In
.. ..
. .
An−1 A − An−2 = cn−1 In
−An−1 = cn In .

Ainsi, en multipliant la j ème équation par Aj (0 ≤ j ≤ n − 1) et en additionnant, on


obtient :
0 = Pu (u).
2. Si A ∈ M (n, K), elle lui est associée un endomorphisme u ∈ LK (Kn ) tel que A = M (u, B0 )
avec B0 désignant la base canonique de Kn . On a alors PA (X) = det(A − XIn ) = Pu (X)
et par (1) et le fait que PA (A) = M (Pu (u), B0 ), on obtient PA (A) = 0.

Le lemme suivant donne une caractérisation importante du polynôme caractéristique qu’on


va utiliser ultérieurement.
Lemme 2.2.5
Soit u ∈ LK (E) un endomorphisme d’un espace vectoriel de dimension finie n. Si F est un sous
espace vectoriel de E stable par u (c. à. d. tel que u(F ) ⊆ F ), alors Pu|F (X) divise Pu (X) dans
K[X].
Preuve.
On considère B1 = {e1 , e2 , . . . , ek } une base de F que l’on complète par {ek+1 , ek+2 , . . . , en }
pour avoir une base B de E. Puisque ∀j ∈ J1, kK, u(ej ) = i=k i=1 aij ei ∈ F et ∀j ∈ Jk + 1, nK,
P
Pi=n
u(ej ) = i=1 aij ei ∈ E, la matrice de u dans B est de la forme
!
A1 A2
M (u, B) =
0 A3

avec A1 = M (u|F , B1 ). Par conséquent, utilisant Théorème 1.2.17, on obtient Pu (X) =


Pu|F (X) det(A3 − XIn−k ) et donc le résultat escompté.

Exercice 2.2.6
Cet exercice présente une autre méthode pour démontrer le théorème de Cayley Hamilton.
Avec les notations précédentes, on se fixe un vecteur v ∈ E\{0}. Soit k ∈ J1, nK le plus grand
entier tel que la famille {v, u(v), . . . , uk−1 (v)} soit libre et notons F := V ect{v, u(v), . . . , uk−1 (v)}.
La famille {v, u(v), . . . , uk (v)} étant liée, on a alors :

uk (v) + ck−1 uk−1 (v) + . . . + c0 v = 0

pour certains scalaires dans K.

Rami Youssef 30
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2

1. Montrer que F est stable par u.


2. Montrer que la matrice de la restriction u|F dans la base {v, u(v), . . . , uk−1 (v)} de F est
de la forme :  
0 0 ... ... 0 −c0
1 0 . . . ... 0 −c1
 

 
C=
0 1 . . . ... 0 −c2 

. . .. .. ..
 .. ..

 . . . 

0 0 ... . . . 1 −ck−1
Cette matrice est appelée, matrice compagnon.
3. Montrer que PC (X) = (−1)k [X k + ck−1 X k−1 + . . . + c1 X + c0 ].
4. Montrer, en utilisant le lemme précédent que (Pu (u))(v) = 0 et conclure que Pu (u) = 0.

2.2.2 Polynôme minimal


Dans ce paragraphe, on supposera que K = R ou C.
Le théorème de Cayley Hamilton, montre que l’homomorphisme d’algèbres (pour u ∈ LK (E)
fixé) :
ϕu : K[X] → LK (E)
P 7→ P (u)
a un noyau ker(ϕu ) non nul (car Pu ∈ ker(ϕu )).
En particulier, si u = 0LK (E) alors
i=n
ai X i ∈ ker(ϕu ) ⇔ a0 IdE = 0 ⇔ a0 = 0 ⇔ P (X) = X(a1 +a2 X+. . .+an X n−1 ) = XQ(X).
X
P =
i=0

D’où ker(ϕu ) = XK[X] = (X) ; l’idéal engendré par Pu (X) = X.


Maintenant, (pour le cas général) comme K[X] est principal, ker(ϕu ) est un idéal principal
donc engendré par un polynôme que l’on supposera unitaire, c. à. d. le coefficient de X n
est égal à 1K . Ceci induit la définition suivante :
Définition 2.2.7
Le polynôme unitaire générateur de Ker(ϕu ) est appelé polynôme minimal de l’endomor-
phisme u. On le note mu (X).
De la même manière, le générateur unitaire, mA (X), générateur de ker(ϕA ) est appelé le
polynôme minimal de la matrice carrée A ∈ M (n, K).
On a alors :
mu (u) = 0, mu (X) divise Pu (X) et aussi tout polynôme annulateur de u .
Comme cas particulier, si u = 0LK (E) alors mu (X) = 1K[X] = 1K X.
Maintenant, d’après Proposition 2.1.8, Spec(u) = {racines de Pu } et comme conséquence au
théorème de Cayley Hamilton, on a

Spec(u) ⊆ {racines de mu }

Rami Youssef 31
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2

(car mu (X) est polynôme annulateur de u). La validité de l’autre inclusion est certainement une
question naturelle.
Proposition 2.2.8
Avec les notations précédentes, toute racine de mu (X) est une valeur propre de u : c. à. d.

{racines de mu } = Spec(u) = {racines de Pu }.

En particulier, si Pu (X) est scindé, c. à. d.

Pu (X) = (λ1 − X)m1 . . . (λr − X)mr

alors
mu (X) = (X − λ1 )n1 . . . (X − λr )nr
avec 1 ≤ ni ≤ mi , ∀i ∈ J1, rK.
Preuve.
Il reste à montrer que {racines de mu } ⊆ Spec(u) :
Soit λ ∈ K une racine de mu (X). Donc (X − λ)/mu (X) et donc ∃Q ∈ K[X] | mu (X) =
(X − λ)Q(X). Mais alors 0 = mu (u) ⇒ (u − λIdE ) ◦ Q(u) = 0 ⇒ u ◦ Q(u) = λQ(u) et
comme deg Q < deg mu , alors (par définition de mu ) Q(u) 6= 0. Par suite ∃v ∈ E\{0} tel que
Q(u)(v) 6= 0 et u(Q(u)(v)) = λQ(u)(v). Par conséquent, λ est une valeur propre de u associé à
Q(u)(v) et donc λ ∈ Spec(u).

2.2.3 Sous espaces caractéristiques et deuxième critère de diagona-


lisation
Lemme des noyaux
Avant de donner l’énoncé du Lemme des noyaux, rappelons que, puisque K[X] est un anneau
principal, toute famille finie (Pi )1≤i≤n de polynômes admet un PGCD et un PPCM qu’on notera
respectivement : D = P GCD(Pi ) et M = P P CM (Pi ). On rappelle aussi l’identité de Bezout :
i=n
X
∃ Ui , 1 ≤ i ≤ n, U i Pi = D
i=1

et la relation entre le PGCD et le PPCM :


i=n
Y
Pi = M D.
i=1

Théorème 2.2.9
Soit (Pi )1≤i≤n une famille de polynômes dans K[X], D = P GCD(Pi ) et M = P P CM (Pi ) leur
PGCD et PPMCM respectivement. Alors, pour tout u ∈ LK (E), on a :
i=n
(a) ker(D(u)) = ∩i=n
X
i=1 ker(Pi (u)), et (b) ker(M (u)) = ker(Pi (u)).
i=1

Rami Youssef 32
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2

Preuve.
Montrons (a) : Puisque D = P GCD(Pi ), ∀i ∈ J1, nK, ∃Qi ∈ K[X] | Pi = Qi D et donc
Pi (u) = Qi (u) ◦ D(u), ∀i ∈ J1, nK. Ce qui entraine ker(D(u)) ⊆ ker(Pi (u)) et donc

ker(D(u)) ⊆ ∩i=n
i=1 ker(Pi (u)).

Pi=n Pi=n
D’autre part, appliquons l’identité de Bezout, on obtient, i=1 Ui Pi = D ⇒ D(u) = i=1 Ui (u)◦
Pi (u). Ainsi,
i=n
x ∈ ∩i=1 ker(Pi (u)) ⇒ ∀i ∈ J1, nK, Pi (u)(x) = 0 ⇒ D(u)(x) = 0 ⇒ x ∈ ker(D(u)).

D’où l’autre inclusion


∩i=n
i=1 ker(Pi (u)) ⊆ ker(D(u)).

Montrons maintenant (b) : On a M = P P CM (Pi ), donc ∀i ∈ J1, nK, ∃Ri ∈ K[X] | M = Ri Pi


et donc ∀i ∈ J1, nK, M (u) = Ri (u)◦Pi (u). Ceci entraine que ∀i ∈ J1, nK, ker(Pi (u)) ⊆ ker(M (u)).
D’où
i=n
X
ker(Pi (u)) ⊆ ker(M (u)).
i=1

D’autre part, les Ri , i ∈ J1, nK sont tel que P GCD(Ri ) = 1 et donc, par l’identité de Bezout,
∃Vi , i ∈ J1, nK | i=n
Pi=n Pi=n
i=1 Vi Ri = 1. Ainsi, ∀x ∈ E, x = i=1 Vi (u) ◦ Ri (u)(x) =
P
i=1 xi , avec
xi = Vi (u) ◦ Ri (u)(x). Mais alors, Pi (u)(xi ) = Pi (u)(Vi (u) ◦ Ri (u)(x)) = Pi (u)(Ri (u) ◦ Vi (u)(x)) =
(Pi (u) ◦ Ri (u)) ◦ Vi (u)(x) = M (u) ◦ Vi (u)(x) = Vi (u) ◦ M (u)(x). Par suite
i=n
X i=n
X
x ∈ ker(M (u)) ⇒ xi ∈ ker(Pi (u)) ⇒ x = xi ∈ ker(Pi (u))
i=1 i=1

et on a alors montré l’autre inclusion.


i=n
X
ker(M (u)) ⊆ ker(Pi (u)).
i=1

Le résultat suivant est une conséquence du théorème précédent, on l’appelle Lemme des
noyaux :

Lemme 2.2.10
Soit P1 , P2 , . . . , Pn ∈ K[X] supposés premiers entre eux deux à deux. Alors, pour tout u ∈ LK (E),
on a :
i=n
Pi ) = ⊕i=n
Y
ker( i=1 ker(Pi (u)).
i=1

Preuve.
L’hypothèse, les Pi sont premiers entre eux deux à deux entraine, en particulier qu’il sont premier
dans leur ensemble, ce qui signifie que P P CM (Pi ) = i=n
Q
i=1 Pi et donc par le théorème précédent

Rami Youssef 33
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2

on a ker( i=n i=n


Q P
i=1 Pi (u)) = i=1 ker(Pi (u)). Il rest donc à montrer que cette somme simple est en
fait une somme directe.
Fixons donc i ∈ J1, nK. Par hypothèse, on a P GCD(Pi , j6=i Pj ) = 1 ce qui entraine que
Q

ker(Pi (u)) ∩ ker( j6=i Pj ) = ker(IdE ) = {0} et donc, puisque une fois de plus les Pj sont
Q

premiers entre eux deux à deux et donc dans leur ensemble, on a d’après le théorème précédent :
ker( j6=i Pj ) = j6=i ker(Pj ) et par suite ker(Pi (u)) ∩ j6=i ker(Pj ) = {0}. Ce qu’il fallait
Q P P

démontrer.

Sous espaces caractéristiques


Définition 2.2.11
Soit u ∈ LK (E) un endomorphisme trigonalisable, c. à. d. ayant un polynôme caractéristique
scindé :
Pu (X) = (λ1 − X)m1 . . . (λr − X)mr .
On appelle sous espace caractéristique associé à la valeur propre λi , le noyau ker(u −
λi IdE )mi :
c. à. d. ayant un polynôme caractéristique scindé :

Pu (X) = (λ1 − X)m1 . . . (λr − X)mr .

On défini de la même manière le polynôme carctéristique d’une matrice carrée.


On adopte la notation

Ei = ker(u − λi IdE )mi , ∀i ∈ J1, rK.


Remarque 2.2.12
∀i ∈ J1, rK, Eλi ⊆ Ei car (u − λi IdE )(x) = 0 ⇒ (u − λi IdE )mi (x) = 0.
Plus exactement, ∀i ∈ J1, rK,

Eλi ⊆ ker(u − λi IdE )2 ⊆ ker(u − λi IdE )3 ⊆ . . . ⊆ ker(u − λi IdE )mi −1 ⊆ Ei .

Le résultat suivant fait le lien entre les sous espaces caractéristiques, le polynôme caractéristique
et le polynôme minimal de u.
Théorème 2.2.13
Soit u ∈ LK (E) un endomorphisme trigonalisable de polynôme caractéristique Pu (X) = (λ1 −
X)m1 . . . (λr − X)mr et de polynôme minimal mu (X) = (X − λ1 )n1 . . . (X − λr )nr . Alors
1. E = ⊕i=r
i=1 Ei .
2. Ei est stable par u, ∀i ∈ J1, rK.
3. λi est l’unique valeur propre de ui := u|Ei , ∀i ∈ J1, rK.
4. Pui (X) = (λi − X)mi et dim Ei = mi , ∀i ∈ J1, rK.
5. Ei = ker(u − λi IdE )ni , ∀i ∈ J1, rK.
Preuve.

Rami Youssef 34
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2

1. D’après le théorème de Cayley-Hamilton, Pu (u) = 0 ⇒ E = ker(Pu (u)) et comme les


monômes (X − λi )mi sont premiers entre eux deux à deux (vu que les λi sont distinctes
deux à deux), en appliquant Lemme 2.1.30 (Lemme des noyaux), on a aussi ker(Pu (u)) =
⊕ ker(u − λi IdE )mi ce qui preuve l’assertion E = ⊕i=1
i=r
Ei .
2. Soit x ∈ Ei . On a alors, ∀i ∈ J1, rK, (u − λi IdE )mi (x) = 0 ⇒ u ◦ (u − λi IdE )mi (x) =
(u − λi IdE )mi ◦ u(x) = (u − λi IdE )mi (u(x)) = 0 ⇒ u(x) ∈ Ei et par suite Ei est stable
par u.
3. D’après l’assertion précédente, la restriction ui := u|Ei de u à Ei est bien définie et
c’est un endomorphisme de Ei . Soit x ∈ Eλi un vecteur propre associé à λi . Comme
Eλi ⊆ Ei , on alors x ∈ Ei donc u(x) = ui (x) = λi x, c. à. d. que λi est valeur propre
de ui . Supposons maintenant qu’il existe une autre valeur propre λ de ui . Il existe alors
y ∈ Ei tel que ui (y) = λy. D’une part, (ui − λi IdE )(y) = (λ − λi )y et d’autre part,
y ∈ Ei ⇒ (u − λi IdE )mi (y) = 0 ⇒ (ui − λi IdE )mi (y) = 0 ⇒ (λ − λi )mi y = 0 et comme
y 6= 0, on déduit que λ = λi . D’où l’unicité de λi .
4. D’après (1), la réunion des bases Bi des Ei , i ∈ J1, rK, forme une base B de E. D’autre
part, d’après (2), on a nécessairement

M (u1 , B1 )
 

 M (u2 , B2 ) 

M (u, B) =  .. .. .. 
. . .
 
 
M (ur , Br )

est une matrice diagonale par blocs. Donc Pu (X) = i=r


Q
i=1 Pui (X) et l’unicité de λi comme
valeur propre de ui (sachant aussi que les λi sont distinctes deux à deux) entraine que
Pui (X) = (λi − X)mi qui est donc scindé, ∀i ∈ J1, rK. En particulier, d’après Théorème
2.1.18, ui est trigonalisable (avec une unique valeur propre dans la diagonale) et par suite,
Pui (X) = (λi − X)dim Ei . D’où dim Ei = mi .
5. Puisque mu (u) = 0, en utilisant le même raisonnement que dans (1), on montre que
E = ⊕i=r 0
Ei0 = ker(u − λi IdE )ni . Ceci implique que i=r dim Ei = i=r 0
P P
i=1 Ei avec
Pi=r i=1 i=1 dim Ei
0 0 0
qui équivaut à i=1 (dim Ei − dim Ei ) = 0. Mais, Ei ⊆ Ei ⇔ dim Ei − dim Ei ≥ 0 et par
conséquent dim Ei = dim Ei0 et donc Ei = Ei0 = ker(u − λi IdE )ni , ∀i ∈ J1, rK.

Définition 2.2.14
Soit v ∈ LK (E) un endomorphisme d’un espace vectoriel E de dimension finie. On dit que v est
nilpotent d’indice de nilpotence p si v p = 0 et v p−1 6= 0. On notera p = nil(v).

Le polynôme minimale d’un endomorphisme trigonalisable est caractérisé par :

Proposition 2.2.15
Si mu (X) = (X − λ1 )n1 . . . (X − λr )nr est le polynôme minimale d’un endomorphisme trigonali-
sable, alors ∀i ∈ J1, rK, nil(ui − λi IdEi ) = ni .

Rami Youssef 35
CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES 2.2

Preuve.
D’après le théorème précédent (notamment (2) et (5)), ∀i ∈ J1, rK, Ei = ker(ui − λi IdEi )ni
donc (ui − λi IdEi )ni = 0, ∀i ∈ J1, rK. Supposons que pour un certain j ∈ J1, rK, on ait
(uj − λj IdEj )nj −1 = 0. Il en résultera que Q(X) = (λ1 − X)n1 . . . (λj − X)nj −1 . . . (λr − X)nr est
un polynôme annulateur de u. Ceci est impossible puisque son degré est inférieur strictement à
celui de mu (X). Par conséquent, ∀i ∈ J1, rK, nil(u − λi IdEi ) = ni .

Deuxième critère de diagonalisation


On arrive enfin à une autre caractérisation de diagonalisation donnée par le
Théorème 2.2.16
Soit u ∈ LK (E) un endomorphisme d’un espace vectoriel de dimension finie ; Alors

u est diagonalisable ⇔ mu (X) est scindé à racine simples.

Preuve.
D’après Théorème 2.1.17 et Théorème 2.1.33, u est diagonalisable ssi E = ⊕Ei = ⊕Eλi ssi,
∀i ∈ J1, rK, Ei = Eλi . Par suite, d’après la proposition précédente, ceci équivaut à ni = nil(u −
λi IdE ) = 1, ∀i ∈ J1, rK. Il en résulte que u est diagonalisable ssi mu (X) = (X − λ1 ) . . . (X − λr ),
c. à. d. qu’il est scindé à racine simples.

Rami Youssef 36
Chapitre 3

Décompositions de Dunford-Jordan et
de Jordan

Dans ce chapitre, on donne deux formes particulière de trigonalisation d’une matrice carrée ou
d’un endomorphisme sur un espace vectoriel de dimension finie. La première, dite décomposition
de Dunford est donnée sans démonstration et la deuxième appelée, forme réduite de Jordan est
développée d’une manière algorithmique.

3.1 Décomposition de Dunford-Jordan


Théorème 3.1.1
Soit E un K-espace vectoriel de dimension n ≥ 1 et u ∈ LK (E) un endomorphisme trigonalisable
de E. Alors il existe un et un seul couple (d, n) d’endomorphismes de E tels que :
1. u = d + n
2. d et n commutent
3. d est diagonalisable et n est nilpotent.
De plus, d et n sont des polynômes en u.

Exercice 3.1.2
1. Calculer la décomposition de Dunford des matrices suivantes :
 
! ! 1 a 0
1 a 1 a
0 1 b 
 
0 1 0 2
0 0 1

2. Même question pour les matrices suivantes :

−1 −1 1 2
 
   
4 0 −1 4 1 −3  1 −4 1 2
−1 1 3 −1 2 1 .
   
 0 0 −5 4 
  
0 −1 4 0 0 2
0 0 −1 −1

37
CHAPITRE 3. DÉCOMPOSITIONS DE DUNFORD-JORDAN ET DE
JORDAN 3.2
3.2 Réduction à la forme de Jordan
Dans cette section, nous supposons que K = C ou que K = R et u ∈ LR (E) est un
endomorphisme trigonalisable de E. On a alors (dans chacun des cas) :

Pu (X) = (λ1 − X)m1 . . . (λr − X)mr

et
mu (X) = (X − λ1 )n1 . . . (X − λr )nr
avec 1 ≤ ni ≤ mi , ∀i ∈ J1, rK. Rappelons aussi les faits suivants :
1. Chaque sous espace caractéristique Ei := ker(u − λi IdE )mi = ker(u − λi IdE )ni (i ∈ J1, rK),
dim(Ei ) = mi et ui = u|Ei ∈ LK (Ei ) (voir Théorème 2.1.33).
2. La réunion des bases Bi des Ei (i ∈ J1, rK) forme une base B de E = ⊕Ei et

M (u1 , B1 )
 

 M (u2 , B2 ) 

M (u, B) =  .. .. ..  (3.1)
. . .
 
 
M (ur , Br )

est une matrice diagonale par blocs.


3. u est trigonalisable (par hypothèse) ⇔ M (ui , Bi ) (∀i ∈ J1, rK) est trigonalisable.
4. u est diagonalisable ⇔ M (ui , Bi ) (∀i ∈ J1, rK) est diagonalisable ⇔ mui = (X − λi )
(∀i ∈ J1, rK).
5. En général (∀i ∈ J1, rK) mui = (X − λi )ni et vi = ui − λi IdEi est nilpotente d’indice de
nilpotence ni .
En conséquence, pour trigonaliser (resp. avoir une décomposition de Dunford de) u il revient
à trigonaliser (resp. avoir une décomposition de Dunford de) M (u, B) et donc trigonaliser (resp.
avoir une décomposition de Dunford de) chaque M (ui , Bi ) (∀i ∈ J1, rK).
Seulement puisque ui = λi IdEi + vi , il est commode de chercher à réduire vi = ui − λi IdEi
(∀i ∈ J1, rK) qui est nilpotente et lui ajouter par la suite λi IdEi . C’est en fait l’objet de cette
section. La proposition suivante est pratiquement la première clé de la Jordanisation :
Proposition 3.2.1
Soit v ∈ LK (F ) un endomorphisme nilpotent d’un espace vectoriel de dimension finie F tel que
l’indice de nilpotence de v soit égale à dim F , c. à. d. n := nil(v) = dim F . Alors, il existe une
base BJ de F dans laquelle
 
0 1 0 0 ... 0
0 0 1 0 ... 0


 .. .. .. .. .. .. 

. . . . . .

MBJ (v) := J(n, 0) =  .
0 . . . . . . 0 1 0


0 . . . . . . . . . 0 1
 

0 ... ... ... ... 0

Rami Youssef 38
CHAPITRE 3. DÉCOMPOSITIONS DE DUNFORD-JORDAN ET DE
JORDAN 3.2

Preuve.
Comme v n = 0 et v n−1 6= 0, il existe e ∈ F non nul tel que v n−1 (e) 6= 0. Maintenant, si α0 e +
α1 v(e) + α2 v 2 (e) + . . . + αn−1 v n−1 (e) = 0, alors, en appliquant successivement les v n−1−k (∀k ∈
J0, n−2K), on obtient α0 = α1 = . . . = αn−1 = 0. Par suite {v n−1 (e), v n−2 (e), . . . , v(e), e} =:
BJ est libre donc c’est une base de F (son cardinal est égale à dim F ) et clairement MBF (v) :=
J(n, 0).
Définition 3.2.2
La matrice
 
0 1 0 0 ... 0
0 0 1 0 ... 0


 .. .. .. .. .. .. 

. . . . . .

J(n, 0) =   (3.2)
0 . . . . . . 0 1 0
 
0 . . . . . . . . . 0 1
 

0 ... ... ... ... 0


s’appelle, la matrice (nilpotente) de Jordan d’ordre n.
Revenons à ui = λi IdEi + vi (∀k ∈ J0, rK) et appliquons ce qui précède à vi = ui − λi IdEi qui
est d’indice de nilpotence ni ≤ mi = dim Eλi , alors si ni = mi on obtient une nouvelle base BJi
de Ei telle que  
λi 1 0 0 . . . 0
 0 λi 1 0 ... 0


 .. .. .. .. .. .. 

J(ui , BJi ) =  . . . . . .

 = J(ni , λi ). (3.3)

0 ... ... λ 1 0
 i 
 0 . . . . . . . . . λi 1 
 

0 . . . . . . . . . . . . λi
Cette matrice s’appelle, la réduite de Jordan de ui , ou bien, le bloc de Jordan associée
à λi .
Mais, en général, puisque l’indice de nilpotence ni ≤ mi , on doit donc étudier les cas où
ni < mi . C’est l’objet de la proposition suivante qui complète la proposition précédente (comme
deuxième clé) :
Proposition 3.2.3
Soit v ∈ LK (F ) un endomorphisme nilpotent d’un espace vectoriel de dimension finie F tel
que l’indice de nilpotence de v soit inférieur strictement à dim F , c. à. d. n =: nil(v) < dim F .
Alors, il existe une base BJ de F dans laquelle la matrice de v est de la forme :
 
J(s1 , 0)
J(s2 , 0)
 
 
.. .. ..
 
J(v, BJ ) =
 

 . . . 


 J(sl−1 , 0) 

J(sl , 0)
avec s1 ≥ s2 ≥ . . . ≥ sl et s1 + s2 + . . . + sl = dim F .

Rami Youssef 39
CHAPITRE 3. DÉCOMPOSITIONS DE DUNFORD-JORDAN ET DE
JORDAN 3.2

La preuve de cette proposition est divisée en plusieurs étapes lesquelles forment en tous
l’algorithme de réduction de Jordan pour une matrice nilpotente.

Preuve.
Il s’agit de démontrer que F se décompose comme somme directe de sous-espaces stables Fk,j ,
tels que v|Fk,j soit d’indice de nilpotence un certain sk = dim Fk,j − 1, ∀k ∈ J0, nK.
Posons au départ, Nk = ker(v k ) (∀k ∈ J0, nK) de sorte que (puisque n = vil(v) < dim F ) :

{0} = N0 N1 N2 ... Nn = F

(car : par exemple ; Nk = Nk−1 ⇒ ∀x ∈ F, v k (x) = 0 ⇒ v k−1 (x) = 0 ⇒ ∀x ∈ F, v k+(n−k) (x) =


0 ⇒ v k−1+(n−K) (x) = 0 ⇒ v n−1 = 0, ce qui est absurde). On a alors successivement :

Etape (1)
Le lemme suivant donne la première étape de l’algorithme de jordanisation.
Lemme 3.2.4
(a) F = Nn = Nn−1 ⊕ Mn .
(b) v(Mn ) ⊆ Nn−1 .
(c) v(Mn ) ∩ Nn−2 = {0}.
(d) Nn−1 = Nn−2 ⊕ Mn−1 , avec v(Mn ) ⊆ Mn−1 . Autrement dit : v|Mn : Mn → Mn−1 est
injective.
Preuve.

(a) Nn−1 Nn = F ⇒ ∃ Mn , sous espace de F | F = Nn = Nn−1 ⊕ Mn .


(b) vient de fait que 0 = v n = v n−1 ◦ v.
(c) Si 0 6= y ∈ v(Mn ) ∩ Nn−2 ⇒ ∃x ∈ Mn − {0} | y = v(x) et v n−2 (y) = 0 ⇒ v n−1 (x) = 0 ⇒
x ∈ Nn−1 ce qui une contradiction avec (a).
(d) D’après (b) et (c), on peut choisir dans Nn−1 un supplémentaire Mn−1 de Nn−2 qui contient
v(Mn ).

Étape (2)
On suppose, par récurrence que Mk+1 , . . . , Mn sont construits et vérifient les propriétés
(a) et (d) du lemme précédent.
Comme Nk := ker(v k ) est stable, alors v|N
k
k
= 0. On montre alors, en remplaçant, dans la
preuve précédente, v par v|Nk et n par k, que :

(∗) : Nk = Nk−1 ⊕ Mk avec v(Mk+1 ) ⊆ Mk .

Il en résulte, par récurrence, que (∗) est vérifiée pour tout k ∈ J0, nK.

Rami Youssef 40
CHAPITRE 3. DÉCOMPOSITIONS DE DUNFORD-JORDAN ET DE
JORDAN 3.2

Étape (3)
On tire des étapes (1) et (2) que :

F = Mn ⊕ Mn−1 ⊕ Mn−2 ⊕ . . . ⊕ M1

avec

M1 = N1 , Mk = v(Mk+1 ) ⊕ Mk0 , Mk0 ⊆ Nk et dim Mk = dim Nk − dim Nk−1 .

En conséquence, la réunion des bases notées ici Bk des Mk (k ∈ J1, nK) forme une base de F
que l’on ordonne en adoptant ce qui suit : Si

Bk = {vk,1 , vk,2 , . . . , vk,tk },

nous notons vk−1,j = v(vk,j ) ∈ Nk−1 donné par l’injection v|Mk : Mk → Mk−1 (voir Lemme 3.2.4
(d)), on a alors :

Bk−1 = {v(vk,1 ), v(vk,2 ), . . . , v(vk,tk )} ∪ {vk−1,tk +1 , vk−1,tk +2 , . . . , vk−1,tk−1 }.

N.B. la base Bn = {vn,1 , vn,2 , . . . , vn,tn } est arbitraire comme complément de la base de Nk−1
dans Nk = F . On a alors :
Bn = {vn,1 , . . . , vn,tn }
Bn−1 = {v(vn,1 ), . . . , v(vn,tn ), vn−1,tn +1 , . . . , vn−1,tn−1 }
Bn−2 = {v 2 (vn,1 ), . . . , v 2 (vn,tn ), v(vn−1,tn +1 ), . . . , v(vn−1,tn−1 ), vn−2,tn−1 +1 , . . . vn−2,tn−2 }
··· = ···
B1 = {v n−1 (vn,1 ), . . . , v n−1 (vn,tn ), v n−2 (vn−1,tn +1 ), . . . , v n−2 (vn−1,tn−1 ), . . . , v1,t2 +1 . . . v1,t1 }

Étape (4)
k=n
Dans cette étape, on réordonne les éléments de la base BF = ∪k=1 Bk (obtenue en étape
3) colonne après colonnes de gauche à droite et en inversant l’ordre des éléments de chaque
colonne. On obtient ainsi :

BJ = BJn ∪ BJn−1 ∪ . . . ∪ BJ2 ∪ BJ1

avec

BJn = {v n−1 (vn,1 ), v n−2 (vn,1 ), . . . , vn,1 } ∪ . . . ∪ {v n−1 (vn,tn ), v n−2 (vn,tn ), . . . , vn,tn }

BJn−1 = {v n−2 (vn−1,tn +1 ), . . . , vn−1,tn +1 } ∪ . . . ∪ {v n−2 (vn−1,tn−1 ), . . . , vn−1,tn−1 }


.. .. .. ..
. . . .
BJ2 = {v(v2,t3 +1 ), v2,t3 +1 } ∪ . . . ∪ {v(v2,t2 ), v2,t2 }
et
BJ1 = {v1,t2 +1 } ∪ . . . ∪ {v1,t1 }.

Rami Youssef 41
CHAPITRE 3. DÉCOMPOSITIONS DE DUNFORD-JORDAN ET DE
JORDAN 3.2

En conclusion, on note successivement :

V ect(BJn ) = Fn,1 ⊕ Fn,2 ⊕ . . . ⊕ Fn,tn

V ect(BJn−1 ) = Fn−1,tn +1 ⊕ Fn−1,tn +2 ⊕ . . . ⊕ Fn−1,tn−1


.. .. .. ..
. . . .
V ect(BJ2 ) = F2,t3 +1 ⊕ F2,t3 +2 ⊕ . . . ⊕ F2,t2
et
V ect(BJ1 ) = F1,t2 +1 ⊕ F1,t2 +2 ⊕ . . . ⊕ F1,t1 .
Ceci donne les Fk,j suggérés au début de la preuve ainsi que leurs dimensions. Dans la base
BJ = ∪i=n
i=1 BJi , la matrice M (v, BJ ) est effectivement celle donnée dans l’énoncé de la proposition
avec 1 ≤ si ≤ n, ∀i ∈ J1, lK et la possibilité d’avoir certains si successifs identiques.
De la démonstration de la proposition précédente et le fait que dim Mj = dim Nj −
dim Nj−1 , ∀j ∈ J1, nK (sachant que N0 = {0} et Nn+1 = Nn = F ), on a le corollaire suivant :

Corollaire 3.2.5


dim Nn − dim Nn−1

 si k = n
Le nombre de blocs J(k, 0) dans M (v, BJ ) =  2 dim Nk − dim Nk−1 − dim Nk+1 si k ∈ J2, n − 1K

2 dim N1 − dim N2 si k = 1.

Remarque 3.2.6
1- Il et important de noter que les deux propositions 3.2.1 et 3.2.2 peuvent être combinées
pour la raison suivante : Si nil(v) = dim F alors dim Ni = i, ∀i ∈ J1, nK et donc d’après le
corollaire précédent, il y aura seulement un seul bloc J(m, 0).
2- Quand on se restreint à Ei , l’endomorphisme restriction vi vérifie vini = (ui −λi Id|Ei )ni = 0. On
peut alors remplacer (suivant les cas) dans les deux propositions 3.2.1 et 3.2.3, l’endomorphisme
v par vi , F par Ei et n par ni , ∀i ∈ J1, rK. Il s’en suit que les noyaux, figurants dans les
algorithmes de jordanisation, relatifs à vi vérifient (s’il y a besoin de les distinguer) {0}
(i)
N1 . . . Nn(i)i = Ei .
Revenons maintenant au cas d’un endomorphisme quelconque u ∈ LK (E) supposé trigonali-
sable sur un K-espace vectoriel E de dimension n ≥ 0 de polynôme caractéristique

Pu (X) = (λ1 − X)m1 . . . (λr − X)mr

et de polynôme minimal
mu (X) = (X − λ1 )n1 . . . (X − λr )nr )
avec 1 ≤ ni ≤ mi , ∀i ∈ J1, rK.
Par application de l’une des propositions, Proposition 3.2.1 ou Proposition 3.2.3 à chacune
des ui = u|Ei ∈ LK (Ei ), avec, en général, ni = nil(vi = ui − λi IdEi ) ≤ mi , alors il existe une

Rami Youssef 42
CHAPITRE 3. DÉCOMPOSITIONS DE DUNFORD-JORDAN ET DE
JORDAN 3.2

base BJi de Ei dite de Jordan pour laquelle la matrice réduite de Jordan de ui , ou bien, le
bloc de Jordan associée à λi est de la forme :
 
J(s1,i , λi )
J(s2,i , λi )
 
 
.. .. ..
 
J(ui , BJi ) = (3.4)
 

 . . . 


 J(sl−1,i , λi ) 

J(sl,i , λi )

Il en résulte une base BJ = ∪i=r


i=1 Bji de E dans laquelle

J(u1 , BJ1 )
 

 J(u2 , BJ2 ) 

M (u, BJ ) =  .. .. ..  (3.5)
. . .
 
 
J(ur , BJr )

Cette matrice est appelée, la réduite de Jordan de l’endomorphisme u et la base BJ est


appelée, la base de Jordanisation de u.
Exemple 3.2.7
1. On se propose de jordaniser la matrice :
 
1 1 0
−1 0 −1 .
A= 

0 −1 1

On commence à calculer son polynôme caractéristique et on trouve PA (X) = −X(X − 1)2 .


A admet donc deux valeurs propres λ1 = 0 qui est simple et λ2 = 1 qui est double ou
d’ordre de multiplicité égal à 2. On passe ensuite à la détermination des sous espaces
caractéristiques.
- Pour λ1 = 0, E1 = Eλ1 = ker(A − 0I3 ) = ker(A) = V ect(v1,1 = (1, −1, −1)).
- Pour λ2 = 1, E2 = ker(A − I3 )2 . On sait d’après le cours que dim E2 = 2, mais on ne sait
pas s’il coïncide avec Eλ2 ou non. La réponse réside dans le calcul du polynôme minimal
pour lequel on a l’un des deux cas : mA (X) = X(X − 1) ou bien mA (X) = X(X − 1)2 .
Suivant l’algorithme de jordanisation et principalement
  le corollaire
 3.2.5,la réduite de
0 0 0 0 0 0
Jordan est soit la matrice diagonale D =  
0 1 0 ou bien J = 0 1 1.
  

0 0 1 0 0 1
Les calculs donnent que Eλ2 = ker(A − I3 ) = V ect(v2,1 = (1, 0, −1)) et par suite Eλ2 E2
ce qui entraine que mA (X) = (X − 1)2 et la matrice A n’est pas diagonalisable, plutôt, elle
se réduit sous la forme de J.
Pour déterminer la base de jordanisation, on calcul E2 et on trouve que

E2 = V ect(v2,1 , v2,2 = (0, 1, −1)).

Rami Youssef 43
CHAPITRE 3. DÉCOMPOSITIONS DE DUNFORD-JORDAN ET DE
JORDAN 3.2

Ainsi, la base de jordanisation est BJ = {v1,1 , v2,1 , v2,2 }.

Remarquer que, après avoir réaliser que Eλ2 E2 , le vecteur v2,2 est nécessairement
(et donc peut être calculer comme) une solution de l’équation (A − I3 )v2,2 = v2,1 .
Pour voir comment s’applique l’algorithme dans ce cas, on procède comme suit :
- Pour λ1 = 0, on a N1 = ker(A − 0I3 ) = M1 ⊕ {0}, donc F1 = M1 = V ect(v1,1 ). Donc
BJ1 = {v1,1 }.
- Pour λ2 = 1, on a N1 = ker(A − I3 ) N2 = E2 . On a alors
N2 = N1 ⊕ M2 , et N1 = M1 .
Les calculs précédents donnent M1 = V ect(v2,1 ) et M2 = V ect(v2,2 ) et par suite F2 = M2
et F1 = M1 = V ect((A − I3 )v2,2 = v2,1 ). Ainsi, BJ2 = {v2,1 , v2,2 }.
2. On se propose de jordaniser la matrice
0 2 1 0
 
−4 6 3 1
B= .
 
 7 −8 −4 2
5 −7 −4 2
-Montrer que PB (X) = (1 − X)4 , puis montrer que dim Eλ = ker(B − I4 ) = 2 et que
ker(B − I4 ) ker(B − I4 )2 = R4 et en déduire que mB (X) = (X − 1)2 . On a donc
4
R = N2 = N1 ⊕ M2 et N1 = M1 . Écrire F2 et F1 qui sont nécessairement de dimension 2
chacun et en déduire BJ et J.
Exercice 3.2.8
1. Effectuer la réduction de Jordan des matrices suivantes :
   
! 3 2 −1 4 1 −1
1 2
, −1 0 1  , −2 1 1  .
   
−2 −3
1 1 0 1 0 1
2. Même question pour les matrices suivantes :
 
2 −5 −4 9 2
−2 −1 1 2
 
2 −4 −3 7 1
 
 1 −4 1 2  

,
 1 0 −1 1 0
.
0 0 −5 4 
 
−1 −1

1 2 0

0 0 −1 −1

1 −2 −2 4 1
Exercice 3.2.9
1. Soit A une matrice à coefficients réels telle que PA (X) = (X − 2)2 (X − 3)3 et
mA (X) = (X − 2)(X − 3)2 . Quelles sont les formes possibles d’une réduite de Jordan de
A?
2. Même question avec une matrice B vérifiant PB (X) = (X − 1)3 (X + 1)5 et
mB (X) = (X − 1)2 (X + 1)3 .

Rami Youssef 44
Chapitre 4

Applications

Dans ce dernier chapitre, on donne deux applications de la réduction des endomorphismes


d’espaces vectoriels de dimensions finies ou, d’une façon équivalente, des matrices carrées d’ordres
finis.

4.1 Systèmes différentiels linéaires à coefficients constants


Soit A ∈ Mn (R) une matrice carrée trigonalisale. Soit, de plus, y(t) = (y1 (t), y2 (t), . . . , yn (t)),
où chaque yi (t) est une fonction dérivable sur un intervalle ouvert I.
Considérons le système différentiel linéaire suivant :

a11 y1 + a12 y2 + . . . + a1n yn = y10





a21 y1 + a22 y2 + . . . + a2n yn = y20


(S) : ⇔ AY = Y 0 . (4.1)

 ··· ···
an1 y1 + an2 y2 + . . . + ann yn = yn0

Puisque A est supposée trigonalisable, elle admet alors une réduite de Jordan J qui lui est liée
par une matrice de passage P : J = P −1 AP ⇔ A = P JP −1 . En conséquence, on a :

AY = Y 0 ⇔ P JP −1 Y = Y 0 ⇔ J(P −1 Y ) = P −1 Y 0 .

Posons donc Z = P −1 Y . Or, P −1 est à coefficient constants, donc P −1 Y 0 = (P −1 Y )0 = Z 0 , ce


qui entraine que :
(
0 JZ = Z 0
AY = Y ⇔
Y = PZ

Ainsi, pour résoudre (4.1), il revient à résoudre le système JZ = Z 0 et récupérer Y moyennant


la matrice de passage avec la relation Y = P Z.

45
CHAPITRE 4. APPLICATIONS 4.2

4.2 Équation différentielle à coefficients constants


Soit y(t) une fonction n-fois dérivable sur un intervalle ouvert I. On considère l’équation
différentielle à coefficients constants suivante :

(∗) : y (n) = an−1 y (n−1) + an−1 y (n−1) + . . . + a1 y 0 + a0 y.

On fait la transformation suivante pour la traduire en un système différentiel linéaire à coefficients


constants :


 x0 = y
y 0 (= x00 )

x1 =




.. .. ..

 . . .
xn−1 = y (n−1) (= x0n−2 )





xn = y (n) (= x0n−1 = an−1 xn−1 + an−2 xn−2 + . . . + a1 x1 + a0 x0 .)

ce qui équivaut à :


 x00 = x1
x01

= x2




.. .. ..

 . . .
x0n−2 = xn−1





x0n−1 = a0 x0 + a1 x1 + . . . + an−2 xn−2 + an−1 xn−1

 
  0 1 0 ... 0
x0
0 0 1 0 . . . 0
 
 x1 
 
.. .. .. .. .. 
 
On obtient donc une équation matricielle BX = X 0 avec X =  .  et B =  .
 .  . . . . . 

 .  0

0 ... ... 1  
xn−1 
a0 a1 . . . an−2 an−1
Il revient donc à utiliser la méthode de §4.1 pour les matrices de la forme B pour résoudre (∗).

Rami Youssef 46

Vous aimerez peut-être aussi

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy