Algebre Lineaire
Algebre Lineaire
Algebre Lineaire
Jean-Jérôme Casanova
1
(a) Montrer que si x est un vecteur vérifiant f p−1 (x) 6= 0, alors la famille (x, f (x), ..., f p−1 (x))
est une famille libre de E.
(b) En déduire qu’on a toujours p ≤ n, et que f n = 0.
(c) On suppose que l’indice de nilpotence de f est n. Montrer qu’il existe x0 ∈ E
tel que (x0 , . . . , f n−1 (x0 )) soit une base de E.
2. On suppose que pour tout x de E il existe px ∈ N tel que f px (x) = 0. Montrer que
f n = 0.
Exercice 4
Soit B = (e1 , e2 , e3 ) une base de R3 . On définit trois vecteurs v1 , v2 , v3 de R3 par :
v1 = 2e1 − 4e2 + e3
v2 = −e1
v3 = e2 − 2e1 .
1 −2 1
Écrire la matrice MV (u) de u dans la base V.
Exercice 5
Soient e1 , e2 , e3 trois vecteurs de R3 . On suppose que B = (e1 , e2 , e3 ) est une base de
R3 .
On note T l’application linéaire définie par T (e1 ) = T (e3 ) = e3 et T (e2 ) = −e1 +e2 +e3 .
2. On pose f1 = e1 − e3 , f2 = e1 − e2 , f3 = −e1 + e2 + e3 .
2
1 1 −1
3. On note P = 0 −1 1 .
−1 0 1
Vérifier que P est inversible et calculer P −1 . Quelle relation relie A, B, P et P −1 ?
Exercice 6
1 1 1
1. Soient a, b et c trois réels. Calculer le déterminant a b c .
2
b2 c 2
a
1 ... 1
a1 ... an
2. Soient a1 , .., an des réels. Calculer le déterminant .
.
.
..
. .
n−1
an−1
a ...
1 n
Exercice 7
On note a, b, c des réels. Calculer les déterminants suivants.
1 0 3 0 0
1 0 0 1 a+b+c b b b
0 1 0 3 0
0 1 0 0 c a+b+c b b
D1 =
,
D2 =
,
D3 = a
0 a 0 3 .
1 0 1 1 c c a+b+c b
b a 0 a 0
2 3 1 1 c c c a+b+c
0 b 0 0 a
Exercice 8
Soit A une matrice de Mn (R) diagonalisable. Montrer l’égalité Ker(A) = Ker(A2 ).
Exercice 9 " #
1 4
Soit A la matrice . On note Φ l’application
1 1
M2 (R) → M2 (R)
M 7→ AM.
3
Correction 1
a) Soit E et F deux espaces vectoriels et T : E → F une application linéaire. Alors
on a nécessairement T (0E ) = T (0.0E ) = 0.T (0E ) = 0F (une application linéaire envoie 0
sur 0).
Dans le cas qui nous intéresse on a :
f (0, 0, 0) = 1 6= 0,
donc f n’est pas une application linéaire (il s’agit en fait d’une application dite affine, en
dimension 1 x 7→ ax + b est affine si b 6= 0 et x 7→ ax est linéaire).
b) Soit X1 = (x1 , y1 , z1 ) ∈ R3 , X2 = (x2 , y2 , z2 ) ∈ R3 et λ ∈ R. Montrons que
f (X1 + λ.X2 ) = f (X1 ) + λ.f (X2 ):
Ainsi fα ((1, 1, 0)+(1, 1, 0)) 6= fα (1, 1, 0)+fα (1, 1, 0) et fα n’est pas une application linéaire
(lorsque α 6= 0).
4
e) Comme précédemment le terme en P 2 nous indique que l’application n’est pas
linéaire. En effet:
ϕ(1 + 1) = ϕ(2) = (2)0 + (2)2 = 4
ϕ(1) + ϕ(1) = 2.((1)0 + (1)2 ) = 2.(1) = 2.
Donc ϕ(1 + 1) 6= ϕ(1) + ϕ(1) et ϕ n’est pas une application linéaire.
f) Dans cet exemple on pourrait penser, comme précédemment, que la présence d’une
terme en X 2 va venir perturber la linéarité de l’application. Cependant il faut faire
attention, ici la variable en argument de ϕ est P et non X. Ainsi pour tout polynôme
Q ∈ R[X], l’application P 7→ QP (i.e. la multiplication par le polynôme Q) est une
application linéaire.
De même l’application P 7→ P 0 est linéaire et finalement l’application P 7→ P (X − 3)
est aussi linéaire (un exemple d’application de cette fonction pour fixer les idées : si
P = X 2 + 1, P (X − 3) = (X − 3)2 + 1).
L’application ϕ est donc linéaire comme composée de trois applications linéaires. On
peut aussi le démontrer directement. Soit (P, Q) ∈ R[X]2 et λ ∈ R. On calcule :
ϕ(P + λQ) = (X 2 + 1)(P + λQ)0 (X − 3)
= (X 2 + 1)(P 0 + λQ0 )(X − 3) en utilisant la linéarité de la dérivation
= (X 2 + 1) [P 0 (X − 3) + λQ0 (X − 3)]
= (X 2 + 1)P 0 (X − 3) + λ(X 2 + 1)Q0 (X − 3)
= ϕ(P ) + λϕ(Q).
L’application ϕ est donc une application linéaire de R[X] dans lui même.
Correction 2
a) On a f (0) = 1 donc f n’est pas une application linéaire.
b) On a f (0, 0, 0, 0) = 1 donc f n’est pas une application linéaire.
c) Vérifions que Φ est une application linéaire. Soit (f, g) ∈ E 2 et λ ∈ R. On a, pour
tout x ∈ [0, 1] :
Z x2
Φ(f + λg)(x) = (f + λg)(y)dy
0
Z x2
= (f (y) + λg(y))dy
0
Z x2 Z x2
= f (y)dy + λ g(y)dy par linéarité de l’intégrale
0 0
= Φ(f )(x) + λΦ(g)(x).
La relation précédente étant vraie pour tout x ∈ [0, 1] on en déduit que Φ(f + λg) =
Φ(f ) + λΦ(g) et l’application Φ est bien une application linéaire de E dans lui même.
d)La composée d’applications linéaires est linéaire. En effet soit (x, y) ∈ E 2 et λ ∈ R
(en supposant que E est un R espace vectoriel). On a :
f (x + λy) = p(p(x + λy)) = p(p(x) + λp(y)) = p(p(x)) + λp(p(y)),
5
en utilisant deux fois la linéarité de l’application p. Ainsi l’application f est bien une
application linéaire de E dans lui même.
Correction 3
1)a) Soit f un endomorphisme nilpotent de E d’indice de nilpotence p ∈ N. Soit x un
vecteur de E vérifiant f p−1 (x) 6= 0.
Montrons tout d’abord la propriété suivante : pour tout i ∈ N, f i (x) est différent de
0 si et seulement si i ≤ p − 1. En effet, p étant l’indice de nilpotence de f , on a f p = 0 et
aussi f p+k = f k ◦ f p = f k ◦ 0L(E) = 0L(E) pour tout k ∈ N∗ (ici L(E) désigne l’ensemble
des applications linéaires de E dans E, dans la suite on notera tout simplement 0 à la
place de 0L(E,E) ). D’autre part, si, par l’absurde, on avait f i (x) = 0 avec i < p − 1 (le cas
i = p − 1 étant impossible par hypothèse sur x) il existerait k ∈ N∗ tel que i + k = p − 1
et f p−1 (x) = (f k ◦ f i )(x) = f k (f i (x)) = f k (0) = 0 ce qui est une contradiction avec
f p−1 (x) 6= 0.
Montrons maintenant que la famille (x, f (x), . . . , f p−1 (x)) est libre. Soit (λ0 , . . . , λp−1 ) ∈
p
R tel que
p−1
λi f i (x) = 0,
X
(?)
i=0
Ainsi λ0 f p−1 (x) = 0 et puisque f p−1 (x) 6= 0 on en déduit que λ0 = 0. On continue alors
en procédant par récurrence. Nous venons de faire l’initialisation. Soit k < p − 1 un
indice quelconque mais fixé. Supposons que λi = 0 pour tout i ∈ {0, . . . , k}. Montrons
que λk+1 = 0. On compose (?) avec f p−2−k :
p−1
f p−2−k λi f i (x) = λk+1 f p−1 (x) = 0.
X
i=k+1
Ainsi λk+1 = 0 ce qui conclut l’hérédité et finalement on obtient que (λ0 , . . . , λp−1 ) = 0Rp
et la famille (x, f (x), . . . , f p−1 (x)) est libre.
b) E étant un espace vectoriel de dimension n on ne peut pas avoir de famille libre
possédant p éléments avec p > n. Ainsi p ≤ n. Il existe donc k ∈ N tel que p + k = n et,
comme montré précédemment, f n = f k+p = f k ◦ f p = f k ◦ 0 = 0.
c) Si l’indice de nilpotence de f est n alors, il existe x ∈ E tel que f n−1 (x) 6= 0.
D’après le point a) la famille (x, f (x), . . . , f n−1 (x)) est libre. Puisque cette famille possède
n éléments il s’agit d’une famille libre maximale dans E (qui est de dimension n) et c’est
donc une base.
2) Soit (e1 , . . . , en ) une base de E. Soit (p1 , . . . , pn ) ∈ Nn tel que f pi (ei ) = 0 pour tout
i ∈ {1, . . . , n} (les pi existent par hypothèse). On note pm = max1≤i≤n pi (et on remarque
6
Pn
que f pm (ei ) = 0 pour tout i ∈ {1, . . . , n}). Soit x = i=1 xi ei un vecteur de E, on a :
n
f pm (x) = xi f pm (ei ) = 0.
X
i=1
1 −2 1 1 11
2 −1 2 −1 −2
−1 −2 1 0 = 1 = −v1 + 6v2 − 3v3
u(v2 ) =
1 −2 1 0 −1
2 −1 2 −2 −5
u(v3 ) = −1 −2 1 1 = 0 = −v1 + 11v2 − 4v3
1 −2 1 0 −4
Pour exprimer les vecteurs, par exemple (10, 7, 11) (notons que cette écriture est équiva-
lente à 10e1 + 7e2 + 11e3 ), dans la base V, on cherche (λ1 , λ2 , λ3 ) ∈ R3 tel que:
puis on résout le système. Finalement la matrice MV (u) de u dans la base V est donnée
par:
11 −1 −1
MV (u) = −90 +6 11
51 −3 −4
Correction 5
→
−
1)a)Soit U = (x, y, z)T ∈ R3 . On a
→
−
T ( U ) = T (xe1 + ye2 + ze3 ) = xe3 + y(−e1 + e2 + e3 ) + ze3 = −ye1 + ye2 + (x + y + z)e3 .
7
Ainsi,
= k1 , k1 ∈ R
x
x (
y=0
1
→
− →
−
U = y ∈ Ker(T ) ⇔ ⇔ y=0 ⇔ U = k1 0 , k1 ∈ R,
z x+y+z =0
−1
z = −k1
* 1 +
et Ker(T ) = Vect 0 .
−1
b)Pour écrire la matrice de l’application linéaire T dans la base B on calcul T (e1 ),
T (e2 ) et T (e3 ) que l’on exprime dans la base B puis on concatène ces vecteurs pour
former A. Les vecteurs T (ei ) (i = 1, 2, 3) étant donnés dans l’énoncé on a directement :
0 −1 0
A = 0 1 0
1 1 1
2)a) On a
f
1
= e1 − e3 = e 1 − f1 = f2 + f3
e
3
f2 = e1 − e2 ⇔ e1 = f2 + e2 = f1 + f2 + f3
f3 = −e1 + e2 + e3 e2 = f1 + f3 (L3 ← L3 + L1 )
1 1 1 −1
0 −1 0 1 1
T (f2 ) = 0 1 0 −1 = −1
= f2 ,
1 1 1 0 0
0 −1 0 −1 −1
T (f3 ) = 0 1 0 1 = 1 = f3 .
1 1 1 1 1
Ainsi la matrice B de T dans la base (f1 , f2 , f3 ) est donnée par :
0 0 0
B = 0 1 0 .
0 0 1
8
3) On va vérifier que P est inversible et calculer P −1 en même temps. P est inversible
si et seulement si, pour tout Y ∈ R3 , il existe un unique X ∈ R3 tel que P X = Y . On
fixe donc Y = (y1 , y2 , y3 )T ∈ R3 et on résout le système :
x
1
+ x 2 − x3 = y 1 = y1 + y3 (L1 ← L1 + L3 )
x
2
− x2 + x3 = y 2 ⇔ x3 = y1 + y2 + y3
− x1 + x3 = y 3
x1 = y 1 + y 2
Le système précédent admet donc une unique solution, P est inversible et P −1 est donnée
par :
x1 = 1y1 + 1y2 + 0y3
1 1 0
−1
P 1 0 1
= x = 1y1 + 0y2 + 1y3 .
2
1 1 1
x3 = 1y1 + 1y2 + 1y3
Deuxième méthode : P est la matrice de passage de la base B à la base V, elle est
donc inversible. La matrice P −1 est la matrice de passage de la base V à la base B. Pour
écrire cette matrice on utilise la relation (obtenue précédemment dans l’exercice) :
e
1
= f1 + f2 + f3
e 2 = f1 + f3
e 3 = f2 + f3
A = P BP −1 .
Rappel :
Soit f : E → E une application linéaire. Soit B et B 0 deux bases de E. On note A
(respectivement B) la matrice de f dans la base B (respectivement B 0 ). Soit u un vecteur
de E. Soit X le vecteur colonne associé à u dans la base B et Y le vecteur colonne associé
à u dans la base B 0 . On a la relation X = P Y avec P la matrice de passage de B à B 0 .
Si on calcul f (u) et que l’on exprime le résultat dans la base B on a :
[f (u)]B = AX.
[f (u)]B0 = BY.
[f (u)]B = P [f (u)]B0 ,
9
soit
AX = P BY,
mais Y = P −1 X donc finalement:
AX = P BP −1 X.
Cette relation implique donc l’égalité matricielle A = P BP −1 .
Correction 6
1) On effectue les opérations suivantes (qui ne changent pas la valeur du déterminant)
: L2 ← L2 − aL1 et L3 ← L3 − aL2 . On obtient :
1 1 1
0
b−a c − a
b(b − a) c(c − a)
0
10
On recommence alors le même procédé (cette fois en appliquant les opérations : Li ←
Li − a2 Li−1 avec i ∈ {2, . . . , n − 1}) et par récurrence immédiate on obtient :
Y
(aj − ai )
1≤i<j≤n
Correction 7
Pour calculer D1 on essaye, en utilisant des opérations élémentaires, d’obtenir une
ligne (ou une colonne) possédant un seul terme non nul (ce qui permet de développer par
rapport à cette ligne/colonne avec un minimum de calcul). Ici on effectue C4 ← C4 − C1 ,
on obtient:
1 0 0 0
0 1 0 0
1 0 1 0
2 3 1 −1
1 −1
3
11
toute les colonnes sur la première (C1 ← C1 + C2 + C3 + C4 ):
a + 5b b b b
a + 5b a + 2b b b
a + 5b b a + 2b b
a + 5b b b a + 2b
On utilise alors la multilinéarité du déterminant :
1 b b b
1 a + 2b b b
(a + 5b)
1 b a + 2b b
1 b b a + 2b
Puis on effectue des opérations pour mettre des zéros dans la première colonne (Li ←
Li − Li−1 pour i ∈ {2, 3, 4}) :
1 b b b
0 a+b 0 0
(a + 5b) = (a + 5b)(a + b)3
0 0 a+b 0
0 0 0 a + b
La méthode précédente (tout sommer sur la première colonne puis factoriser et faire
apparaître des zéros) fonctionne sur un grand nombre d’exemples et vaut le coup d’être
mémorisée.
Passons maintenant au cas b 6= c. On rappel que le déterminant d’une matrice tri-
angulaire (supérieure ou inférieure) est égal au produit des coefficient sur la diagonale.
Ainsi
a + b b − c b − c b − c
0 a + b b − c b − c
D(−c) = = (a + b)4
0 0 a + b b − c
0 0 0 a + b
a + c 0 0 0
c − b a+c 0 0
D(−b) = = (a + c)4
c − b c−b a+c 0
c − b c − b c − b a + c
On doit résoudre le système suivant :
D(−c) = −cC1 + C2 = (a + b)4
(
12
b(a + b)4 − c(a + c)4
Ainsi D2 = .
b−c
Pour calculer D3 on fait encore une fois apparaître des zéros. On commence par
effectuer l’opération : C3 ← C3 − 3C1 , on obtient :
1 0 0 0 0
0 1 0 3 0
a
0 −2a 0 3
b
a −3b a 0
0 b 0 0 a
On recommence C3 ← C3 − 3C1 :
1 0 0 0
0
−2a 0 3
a −3b −2a 0
b 0 −3b a
−3b a
0
Correction 8
On a toujours l’inclusion Ker(A) ⊂ Ker(A)2 . La matrice A étant supposée diagonal-
isable il existe une matrice diagonale D et une matrice inversible P tel que :
A = P DP −1 .
x ∈ Ker(A) ⇔ Ax = 0 ⇔ P DP −1 x = 0 ⇔ P −1 x ∈ Ker(D).
13
Ainsi Ker(D) = P −1 Ker(A). En utilisant la relation A2 = P D2 P −1 on montre de même
que Ker(D2 ) = P −1 Ker(A2 ). Ainsi le problème initiale est maintenant équivalent à mon-
trer que Ker(D) = Ker(D2 ) pour D une matrice diagonale. Notons (e1 , · · · , en ) la base
canonique de Rn et (λ1 , · · · , λn ) les coefficients sur la diagonale de D. On a l’identité
Dei = λi ei ,
pour tout i ∈ {1, · · · , n} i.e. les vecteurs ei sont des vecteurs propres de la matrice D
associés aux valeurs propres λi . Si l’on note ID = {i ∈ {1, · · · , n} | λi = 0} le noyau de
D est donné par :
Ker(D) = Vecth(ei )i∈ID i.
Si on effectue le même raisonnement pour la matrice D2 (dont la diagonale est donnée
par (λ21 , · · · , λ2n )) on obtient
avec ID2 = {i ∈ {1, · · · , n} | λ2i = 0}. Il suffit alors de remarquer que ID = ID2 pour
conclure.
Correction 9
1)Notons ! ! ! !!
1 0 0 1 0 0 0 0
B= , , , ,
0 0 0 0 1 0 0 1
la base canonique de M2 (R) (que l’on notera aussi B = (E11 , E12 , E21 , E22 ) ou Eij désigne
la matrice remplie de 0 sauf en position (i, j) ou il y a un 1). Pour écrire la matrice de Φ
dans la base canonique on calcul :
! ! !
1 4 1 0 1 0
Φ(E11 ) = = = E11 + E21
1 1 0 0 1 0
! ! !
1 4 0 1 0 1
Φ(E12 ) = = = E12 + E22
1 1 0 0 0 1
! ! !
1 4 0 0 4 0
Φ(E21 ) = = = 4E11 + E21
1 1 1 0 1 0
! ! !
1 4 0 0 0 4
Φ(E22 ) = = = 4E12 + E22
1 1 0 1 0 1
1 0 4 0
0 1 0 4
A=
1 0 1 0
0 1 0 1
14
2)Calculons le polynôme caractéristique de A :
1 − λ
0 4 0
0 1−λ 0 4
PA (λ) = det(A − λI) =
1 0 1−λ 0
0 1 0 1 − λ
= (1 + λ)2 (3 − λ)2
Ainsi les valeurs propres de A sont −1 et 3.
3)Φ est diagonalisable si et seulement si la dimension des sous espaces propres associés
à −1 et 3 (i.e. la multiplicité géométrique de ces valeurs propres) est égale à la dimension
algébrique de ces valeurs propres (i.e. l’ordre de −1 et 3 en tant que racine du polynôme
caractéristique de A, ici 2 pour −1 et 3). En résumé Φ est diagonalisable si et seulement
15
si dim(Ker(A + I)) = 2 et dim(Ker(A − 3I)) = 2. Déterminons une base de Ker(A + I) :
0 1 0 2 t y + 2t 0
2x + 4z = 0
2y + 4t = 0
⇔
x + 2z =0
y + 2t = 0
(
x + 2z = 0
⇔
y + 2t = 0
z = k1 , k1 ∈ R
t = k , k ∈ R
2 1
⇔
x = −2k1
y = −2k2
−2 0
0 −2
⇔ X = k1 + k2 , (k1 , k2 ) ∈ R2 .
1 0
0 1
−2 0
0 −2
Les deux vecteurs et
étant libre ils forment une base de Ker(A + I) qui est
1 0
0 1
16
donc de dimension 2. Pour Ker(A − 3I) on a :
0 1 0 −2 t y − 2t 0
− 2x + 4z = 0
− 2y + 4t = 0
⇔
x − 2z =0
y − 2t = 0
(
x = 2z0
⇔
y = 2t0
z = k1 , k1 ∈ R
t = k , k ∈ R
2 1
⇔
x = 2k1
y = 2k2
2 0
0 2
⇔ X = k1 + k2 , (k1 , k2 ) ∈ R2 .
1 0
0 1
2 0
0 2
et sont libres et forment une base de Ker(A − 3I) qui est donc de
Les vecteurs
1 0
0 1
dimension 2. En conclusion l’ordre géométrique et algébrique des valeurs propres de Φ
coïncident donc Φ est diagonalisable.
17