20 21 Algebre3 Feuille1 Corrige
20 21 Algebre3 Feuille1 Corrige
20 21 Algebre3 Feuille1 Corrige
Solution
Rappel : F + G = {x + y; x ∈ F, y ∈ G}.
1. On procède par double implication, en commençant par le sens “facile”.
(⇐) : Supposons F = G. Alors on a F ∩ G = F ∩ F = F . On a aussi F + G = F + F .
Montrons finalement F + F = F . Soit z ∈ F + F . Alors ∃(x, y) ∈ (F, G), z = x + y, donc
z ∈ F car F est un ev. Réciproquement ∀x ∈ F , x = x + 0 ∈ F + F .
(⇒) : Supposons F ∩ G = F + G, montrons F = G.
Soit x ∈ F . Alors, astuce, x + 0 ∈ F + G, car 0 ∈ G. Donc x + 0 = x ∈ F + G. Ainsi en
utilisant l’hypothèse, x ∈ F ∩ G, d’où x ∈ G. De manière analogue, en supposant x ∈ G, on
obtient x ∈ F . D’où F = G.
2. Double implication aussi.
(⇐) : Supposons F ∈ G ou G ∈ F . Alors F ∪ G = G (ou F ) qui est bien sev de E.
(⇒) : Raisonnons par l’absurde, en supposant que F 6⊂ G et G 6⊂ F . Ainsi ∃x ∈ F, x ∈
/ G.
Et de même ∃y ∈ G, y ∈ / F . Maintenant x + y ∈ F ∪ G donc de deux choses l’une.
Ou bien x + y ∈ F . Alors comme x ∈ F , x + y − x ∈ F donc y ∈ F car F est un sev. D’où
y ∈ F et on a une contradiction. Ou bien x + y ∈ G. Alors comme y ∈ G, x + y − y ∈ G
donc x ∈ G car G est un sev. D’où x ∈ G et on a une contradiction.
Ainsi on a bien la négation de “F 6⊂ G et G 6⊂ F ” qui est “F ⊂ G ou G ⊂ F ”.
Exercice 2.
Solution
Rappel : on dit que F et G sont supplémentaires dans E, et l’on note E = F ⊕ G, si E = F + G et
F ∩G = {0}. Le signe ⊕ s’appelle “somme directe”. Autre définition équivalente, ∀z ∈ E, ∃!(x, y) ∈
F × G, z = x + y.
1. Tout d’abord, H et V = Vect{(1, 1, . . . , 1)} sont non vides (ils contiennent le vecteur nul),
et l’on vérifie facilement la stabilité sous l’addition et la multiplication par λ ∈ R. Ils sont
donc sev de Rn . L’énoncé demande de montrer Rn = H ⊕ V , avec V .
Vérifions les deux propriétés de la somme directe, en commençant par la deuxième.
Pn
Soit x ∈ H ∩ V . Alors x = (λ, . . . , λ) pour un λ ∈ R, et x ∈ H impose i=1 λ = nλ = 0,
d’où λ = 0 (on suppose bien sûr n ≥ 1). Donc x = (0, . . . , 0) est le vecteur nul.
Montrons maintenant Rn = H + V . On vérifie trivialement H + V ⊂ Rn , il reste donc à
montrer Rn ⊂ H + V .
Pn
Soit x = (x1 , . . . , xn ) ∈ Rn . Posons s = n1 i=1 xi la moyenne des xi . Alors on a la décom-
position
x = (x1 − s, x2 − s, . . . , xn − s) + s(1, . . . , 1)
| {z } | {z }
∈H ∈V
Pn Pn
Le premier terme à droite du signe = est bien dans H, car i=1 (xi −s) = ( i=1 xi )−ns = 0
par définition de s.
Alternative On peut aussi procéder par analyse-synthèse. (i) Analyse. On suppose que l’on
peut écrire (x1 , . . . , xn ) = (y1 , . . . , yn ) + s(1, . . . , 1) avec (y1 , . . . , yn ) ∈ H. Alors on a né-
Pn (y1 , . . . , ynP
cessairement ) = (x1 , . . . , xn ) − s(1, . . . , 1)Pet l’apartenance de (y1 , . . . , yn ) à H
n n
impose i=1 yi = 0 = ( i=1 xi ) − ns et donc s = n1 i=1 xi . (ii) Synthèse : on vérifie bien
dans ce cas que (y1 , . . . , yn ) ∈ H et s(1, . . . , 1) ∈ V .
2. Même approche qu’à la question précédente. On vérifie facilement que F et G sont sev de
C 1 (R, R). Soit maintenant f ∈ F ∩ G. Alors ∃a, b ∈ R, f (x) = ax + b et f ∈ F impose
f 0 (0) = 0 = a et f (0) = 0 = b. Donc f est la fonction nulle, et on a bien F ∩ G = {0}.
On vérifie aussi facilement F + G ⊂ C 1 (R, R), reste à montrer C 1 (R, R) ⊂ F + G. Soit
f ∈ C 1 (R, R). Alors on peut écrire
Exercice 3.
1. Soient F et G deux sous-espaces vectoriels d’un R-espace vectoriel E de dimension finie n. Montrer
que si dim F + dim G > n, alors F ∩ G contient un vecteur non nul.
2. Dans R4 , on considère les vecteurs u = (1, 0, 1, 0), v = (0, 1, −1, 0), w = (1, 1, 1, 1), x = (0, 0, 1, 0) et
y = (1, 1, 0, −1). Soit F = Vect(u, v, w) et G = Vect(x, y). Quelles sont les dimensions de F, G, F +G
et F ∩ G ?
Solution
0 0 1
1 0 1
la matrice extraite 0 1 1 a détérminant non nul (= 1), donc rang M (u|v|w) = 3 et
1 −1 1
la famille (u, v, w) est libre.
0 1
0 1
(ii) De même dim Vect(x, y) = 2, car la matrice M (x|y) = 1 0 a rang 2, vu que la
0 −1
1 0
matrice extraite a détérminant non nul (= −1).
0 −1
(iii) La famille (u, v, w, x) est libre car le détérminant de la matrice M (u|v|w|x) est non nul
(= −1). Comme il y a 4 éléments, et que dim R4 = 4, c’est aussi une base de R4 , et comme
F + G est un sev de R4 et dim(F + G) = dim R4 , alors F + G = R4 .
(iv) dim(F + G) = dim F + dim G − dim(F ∩ G), donc 4 = 3 + 2 − dim(F ∩ G), donc
dim(F ∩ G) = 1.
Remarque : Comment montrer en dimension finie que si F est un sev de E et dim F =
dim E = n, alors E = F ? Par l’absurde. Supposons ∃x ∈ E, x ∈ / F . Soit (e1 , . . . , en ) une
base de E. Alors on vérifie facilement que la famille (x, e1 , . . . , en ) est libre dans F ce qui
implique dim F ≥ n + 1 en contradiction avec le fait que F est un sev de E de dimension n.
Solution
Conseil : Pour montrer qu’une famille est libre, utiliser la définition. Pour montrer qu’une famille
n’est pas libre (liée), il suffit trouver une combinaison linéaire à coefficients non nuls qui s’annule.
1. On résoud αf1 + βf2 + γf3 = 0, α, β, γ ∈ R, ce qui donne, en réarrangeant les termes,
(α + γ)e1 + (α + β)e2 + (γ + β)e3 = 0 ce qui donne le système
γ+α =0
α+β =0
γ+β =0
0 = α1 h1 + · · · + αn hn = (α1 + αn ) e1 + · · · (αn−1 + αn ) en .
Puisque la famille (e1 , ..., en ) est libre, on obtient le système à n équations
α1 + αn = 0
α1 = −αn
α + α = 0 α2 = −α1 = αn
1 2
α2 + α3 = 0 d’où suit α3 = −α2 = −αn
.. ..
. .
αn−1 + αn = 0 αn = −αn−1 = ±αn selon la parité de n
Maintenant, si l’on calcule (2ème ligne−3ème ligne)+(4ème ligne−5ème ligne)+ . . . +(2p ème
ligne−(2p + 1)ème ligne), on trouve
1 0 1
2 1 4
Exercice 5. On considère les vecteurs de R5 : u1 =
0, u2 = 1 et u3 = 1.
1 1 2
1 1 1
1. Montrer que la famille (u1 , u2 , u3 ) est libre.
Solution
Les deux dernières relations sont des contraintes sur le vecteur v et on conclut que v =
(a, b, c, d, e) ∈ Vect(u1 , u2 , u3 ) si et seulement si
Preuve : Supposons ker u 6= {0}. Soit (h1 , . . . , hp ) une base de ker u. Cette famille est libre dans
E, donc peut être complétée (thm de base incomplète) en une base (e1 , . . . , ek , ek+1 , . . . , en ) de E.
Montrons maintenant que la famille (u(ek+1 ), . . . , u(en )) est une basePde Im u.
n
Pn Soit y ∈ Im u. Alors ∃x ∈ E, y = u(x). En écrivant x =
(a) i=1 xi ei , on obtient y =
i=p+1 x i u(e i ), donc la famille est bien génératrice de Im u.
Pn
(b) Reste à montrer qu’elle est libre dans Im u. Supposons i=p+1 λi u(ei ) = 0, ce qui peut se ré-
Pn Pn Pp Pn
écrire u( i=p+1 λi ei ) = 0. Ainsi, i=p+1 λi ei ∈ ker u, donc ∃λ1 , . . . , λp , i=1 λi ei = i=p+1 λi ei ,
et comme la famille (e1 , . . . , en ) est libre, tous les λi = 0.
Ainsi la famille u(ep+1 , . . . , u(en )) est une base de Im u, et dim Im u = n − p, dim ker u = p,
dim E = n.
Dans le cas ker u = {0}, il suffit de considérer une base (e1 , . . . , en ) de E, et l’on montre que
(u(e1 ), . . . , u(en )) est une base de Im u.
Remarque : Le théorème ne signifie pas E = ker u ⊕ Im u, identité qui est fausse. Par contre,
on a E = ker u ⊕ V , avec V isomorphe à Im u. La preuve construit d’ailleurs explicitement cet
isomorphisme.
R4 −→ R3
u:
(x, y, z, t) 7−→ (x + y + αz + t, x + z + t, y + z).
Solution
Pour montrer qu’une application est linéaire, on peut vérifier les deux propriétés u(λx) = λu(x),
u(x + y) = u(x) + u(y) pour λ ∈ K et x, y ∈ E. Une alternative consiste à vérifier les deux en
même temps, via u(λx + µy) = λu(x) + µu(y) pour λ, µ ∈ K et x, y ∈ E.
1. u(λ(x, y, z, t)) = u((λx, λy, λz, λt)) = (λx+λy +αλz +λt, λx+λz +λt, λyλz) = λu(x, y, z, t).
De même on vérifie facilement u((x, y, z, t)+(x0 , y 0 , z 0 , t0 )) = u(x, y, z, t)+u(x0 , y 0 , z 0 , t0 ). Donc
u est linéaire.
2. Commençons par déterminer le noyau. Par définition ker u = {(x, y, z, t) ∈ R4 , u(x, y, z, t) =
0}, il faut donc résoudre le système
x + y + αz + t = 0 (2 − α)y = 0
x+z+t =0 d’où suit x + t = −z = y
y+z =0 z = −y
si l’on soustrait la deuxième équation à la première. Il faut donc maintenant distinguer deux
cas
(i) α 6= 2. Alors y = 0, d’où x + t = 0 et z = 0. Ainsi on a
ker u = {(x, 0, 0, t) ∈ R4 , x + t = 0}
= {(x, 0, 0, −x), x ∈ R}
= Vect{(1, 0, 0, −1)}.
en vérifiant que la famille ((1, 1, 0), (1, 0, 1), (α, 0, 1)) est libre dans R3 .
(ii) α = 2. Alors dim Im u = 4 − 2 = 2. Pour décrire Im u comme sev de
R3 , on peut compléter la base ((1, 0, 0, −1), (0, 1, −1, 1)) de ker u en une base
((1, 0, 0, −1), (0, 1, −1, 1), (0, 1, 0, 0), (0, 0, 1, 0)) de R4 , et calculer u sur les vecteurs ajou-
tés :
et donc
Il est facile de montrer que la base ((1, 1, 0), (1, 0, 1)) engendre bien le même ev de la
base précédente ((1, 0, 1), (2, 1, 1)).
Exercice 7. Pour chacune des applications qui suit, dire (en le justifiant) si elle est linéaire ou non :
R[X] −→ R[X]
1. f : , où P 0 désigne le polynôme dérivé de P .
P 7−→ 2P P 0
2. f : R[X] −→ R3 [X] définie par “f (P ) est le reste de la division euclidienne de P par X 4 − 5X + 2”.
Solution
1. Soit λ ∈ R. Alors f (λP ) = 2(λP )(λP )0 = 2λ2 P P 0 = λ2 f (P ). Donc f n’est pas linéaire.
2. On rappelle que tout polynôme P peut s’écrire de manière unique sous la forme P (X) =
A(X)(X 4 − 5X + 2) + R(X), où A(X) est un polynôme, et R(X) est un polynôme de degré
≤ 3. R est le reste de la division euclidienne, donc f (P ) = R. En notant R1 le reste pour
P1 , et R2 le reste pour P2 , on obtient
αP1 (X) + βP2 (X) = (αA1 (X) + βA2 (X))(X 4 − 5X + 2) + (αR1 (X) + βR2 (X)),
où αA1 + βA2 est bien un polynôme, et le reste αR1 + βR2 a encore bien degré ≤ 3. Ainsi
f (αP1 + βP2 ) = αf (P1 ) + βf (P2 ), et f est linéaire.
1. Soit x ∈ ker u, c’est-à-dire u(x) = 0. Alors u2 (x) = u(u(x)) = u(0) = 0 car u est linéaire,
donc x ∈ ker u2 . Ainsi ker u ⊂ ker u2 . En particulier, ker u est sev de ker u2 .
Soit z ∈ Im(u2 ). Alors ∃x ∈ E tel que z = u(u(x)). Posons y = u(x). Alors bien sûr on a
z = u(y), donc z ∈ Im u. Ainsi Im u2 ⊂ Im u. En particulier, Im u2 est un sev de Im u.
2. (a) Appliquons le théorème du rang à u. Alors dim E = dim ker u + dim Im u. De même pour
u2 , dim E = dim ker u2 +dim Im u2 . Et donc dim ker u = dim ker u2 ssi dim Im u = dim Im u2 .
Maintenant, si dim ker u = dim ker u2 , puisque ker u est sev de ker u2 , on a ker u = ker u2 .
De même pour Im u et Im u2 . Ainsi, on déduit que ker u = ker u2 ssi Im u = Im u2 .
(b) On procède par double implication.
(⇐) : Supposons que E = ker u ⊕ Im u. Pour montrer que ker u2 = ker u, il suffit de montrer
ker u2 ⊂ ker u.
Soit x ∈ ker u2 , alors u(u(x)) = 0, et donc u(x) ∈ ker u. Or bien sûr u(x) ∈ Im u. Donc on a
u(x) ∈ ker u ∩ Im u = {0}. Donc u(x) = 0, donc x ∈ ker u.
(⇒) : Supposons que ker u2 = ker u. Montrons que ker u ∩ Im u = {0} dans un premier
temps, puis E = ker u ⊕ Im u dans un deuxième temps.
Soit x ∈ ker u∩Im u, alors u(x) = 0 et ∃y ∈ E tel que x = u(y). Il suit que y ∈ ker u2 = ker u,
d’où y ∈ ker u et enfin x = u(y) = 0. Donc ker u ∩ Im u = {0}. Par conséquent, la somme
ker u + Im u est directe, et bien sur c’est un sev de E.
Reste à montrer que ker u ⊕ Im u = E. Par la formule de Grassmann d’abord, et par le
théorème du rang ensuite, on a que dim(ker u ⊕ Im u) = dim ker u + dim Im u = dim E. Donc
ker u ⊕ Im u est un sev de E et ces deux ev ont même dimension, donc ils coincident.
(c) On a
(b) Les équivalences du point 2 ne sont pas valables si E a dimension infinie. En particulier,
la démonstration donnée de (a) fait appel au théorème du rang, qui n’est valable qu’en
dimension finie (même s’il existe des généralisations hors programme).
Un contre-exemple au résultat de la question 2a est donné par l’endomorphisme u : R[X] →
R[X], P (X) 7→ XP (X). En effet, on montre facilement ker u = ker u2 = {0}. Pourtant,
le monôme X est dans Im u mais pas dans Im u2 , donc Im u 6= Im u2 . Un autre contre-
exemple est donné par l’endomorphisme v : R[X] → R[X], P (X) 7→ P 0 (X). On vérifie que
Im v = Im v 2 = R[X], mais ker v est l’ensemble des polynômes constants, tandis que ker v 2
est l’ensemble des polynôme de degré 1.
Solution
1. Puisque un endomorphisme d’un ev de dimension finie est injectif ssi il est surjectif, pour
montrer qu’il est bijectif il suffit de montrer qu’il est soit injectif soit surjectif. Normalement
il est plus simple de montrer l’injectivité que la surjectivité. Cette fois il est plus simple de
montrer que u est surjective.
Soit y ∈ E, alors on peut l’écrire dans la base donnée : il existe λ1 , ..., λn ∈ R tels que
n n
!
X X
y= λi ui (x0 ) = u λi ui−1 (x0 ) = u(x)
i=1 i=1
Pn
où x = i=1 λi u (x0 ) = λ1 x0 + λ2 u(x0 ) + . . . + λn un−1 (x0 ) est bien un vecteur de E.
i−1
v(ui (x0 )) = un (ui (x0 )) + an−1 un−1 (ui (x0 )) + . . . + a0 ui (x0 ) = 0 pour tout i = 1, . . . , n.
Ainsi, v s’annule sur tous les éléments de la base B de E, donc v est identiquement nul.
Exercice 10. Soit E un K-espace vectoriel. On dit qu’un endomorphisme u ∈ L(E) est nilpotent s’il
existe un entier naturel p tel que up = 0L(E) . On dira que u est ponctuellement nilpotent si, pour tout
x ∈ E, il existe un entier naturel p (qui dépend de x) tel que up (x) = 0E .
1. Démontrer que tout endomorphisme nilpotent est ponctuellement nilpotent.
2. Démontrer que la réciproque est vraie si E est de dimension finie.
3. Donner un exemple d’endomorphisme ponctuellememt nilpotent non nilpotent.
4. On suppose E de dimension finie n et soit u ∈ L(E) un endomorphisme nilpotent. Démontrer que
un = 0L(E) .
Indication : soit p le plus petit entier strictement positif tel que up = 0, montrer qu’il existe x ∈ E
tel que la famille (x, u(x), u2 (x), . . . , up−1 (x)) soit libre.
Solution
1. Supposons que u est nilpotent et que p ∈ N soit le plus petit entier positif tel que up = 0.
Alors, pour tout x ∈ E il suffit de choisir k ≥ p (par exemple k = p) pour avoir uk (x) = 0.
Donc u est ponctuellement nilpotent.
2. Montrons que si dim E est finie et u est ponctuellement nilpotent, alors u est nilpotent.
Soit (e1 , . . . , en ) une base de E. Puisque u est ponctuellement nilpotent, pour tout i =
1, . . . , n il existe pi ∈ N tel que upi (ei ) = 0 et on a aussi uqi (ei ) = 0 pour tout qi ≥ pi . Donc,
en choisissant p = max{p1 , . . . , pn }, qui existe car c’est un ensemble fini, on obtient que up
est nul sur tous les éléments de la base. Ainsi up est identiquement nul, donc u est nilpotent.
3. Soit u : R[X] → R[X], P 7→ P 0 . Soit P ∈ R[X], alors P a un degré fini, que l’on note
k, et uk+1 (P ) = 0, donc u est ponctuellement nilpotent. Cependant, u n’est pas nilpotent
car pour tout k ∈ N, il existe P ∈ R[X] tel que uk (P ) 6= 0 (par exemple en choisissant un
polynôme P de degré k + 1).
4. Soit p le plus petit entier positif tel que up = 0. Alors up−1 n’est pas identiquement nul,
donc il existe un x ∈ E tel que up−1 (x) 6= 0. On a aussi ui (x) 6= 0 pour tout i = 0, . . . , p − 1,
car sinon on trouverait up−1 (x) = 0, ce qui contredit notre hypothèse sur x.
Considérons maintenant la famille (x, u(x), . . . , up−1 (x)), et montrons qu’elle est libre. Si
Pp−1 i p−1
i=0 λi u (x) = 0, pour des coefficients λ0 , ..., λp−1 ∈ R, alors en appliquant u à l’identité
k
précédente, et en sachant que u = 0 pour tout k > p − 1, on trouve
p−1
! p−1
X X
p−1 i
0=u λi u (x) = λi up−1+i (x) = λ0 up−1 (x).
i=0 i=0
Pp−1
Comme up−1 (x) 6= 0, il faut que λ0 = 0. De même, en appliquant up−2 à i=1 λi ui (x) = 0,
il résulte λ1 = 0, puis successivement λi = 0 pour tout i = 0, . . . , p − 1. Donc cette famille
est libre. Comme dim E = n, on a nécessairement p − 1 < n, donc p ≤ n, donc un = 0.
Exercice 11. Soit E un R-espace vectoriel de dimension finie. Montrer qu’il existe un endomorphisme
f ∈ L(E) tel que Ker(f ) = Im(f ) si et seulement si la dimension de E est paire.
Solution
On procède par double implication.
(⇒) : Supposons ker f = Im f , alors d’après le théorème du rang on a dim ker f + dim Im f =
2 dim ker f = n. La dimension étant un entier, n est nécessairement pair.
(⇐) : Il suffit de construire explicitement un exemple en dimension paire n = 2p, p ∈ N, par
exemple comme suit. Soit (e1 , . . . , e2p ) une base de E. Considérons l’endomorphisme f , qui agit
de la manière suivante sur les vecteurs ei de la base :
u(ei ) = 0
∀i = 1, . . . p.
u(ei+p ) = ei
u(P ) = (1 − X 2 )P 00 − XP 0 ,
Solution
obtenue en mettant en colonne les vecteurs image u(1), ..., u(X 3 ) exprimés dans la base B.
Rappellons que tout polynôme P se représente dans la base B par un vecteur colonne
a0
a1
MB (P ) =
a2
tel que P (X) = a0 + a1 X + a2 X 2 + a3 X 3 .
a3
Alternative : La matrice MBB (u) se trouve également comme l’unique matrice qui permet
de calculer le vecteur qui représente u(P ) dans la base B comme produit des matrices
représentant u et P , c’est-à-dire telle que
Pour la trouver, il faut d’abord calculer les coordonnées de l’image u(P (X)) pour un poly-
nôme P (X) = a0 + a1 X + a2 X 2 + a3 X 3 quelconque :
donc
Pour avoir
2a2 a0
6a3 − a1 a1
= MBB (u)
a2 ,
4a2
−9a3 a3
il faut donc bien prendre la matrice donnée plus haut, car
0 0 2 0 a0 2a2
0 −1 0 6 a1 6a3 − a1
MBB (u)MB (P ) =
0 0 −4 0
= = MB (P (u)).
a2 4a2
0 0 0 −9 a3 −9a3
2. Soit P ∈ ker u. Alors P (X) = a0 + a1 X + a2 X 2 + a3 X 3 est tel que u(P (X)) = 2a2 + (6a3 −
a1 )X − 4a2 X 2 − 9a3 X 3 = 0, ce qui donne a3 = 0, a2 = 0 et a1 = 6a3 = 0, en somme
P (X) = a0 est constant. Donc
Exercice 13. On note S(n) = {A ∈ Mn (K) | A = tA} l’ensemble des matrices symétriques de taille n
et A(n) = {A ∈ Mn (K) | A = −tA} l’ensemble des matrices antisymétriques.
1. Montrer que S(n) et A(n) sont deux sous-espaces vectoriels supplémentaires de Mn (K).
2. Calculer la dimension de chacun de ces sous-espaces vectoriels.
3. On considère l’endomorphisme φ de Mn (K) défini par φ(A) = tA pour tout A ∈ Mn (K). Calculer
la trace de φ.
Solution
1 2 3 1 47
La matrice transposée de 4 5 6 est la matrice 2 58 . Alors, un exemple de ma-
7 8 9 3 69
1 2 3 0 1 2
trice symétrique est 2 4 5 , et celui d’une matrice antisymétrique est −1 0 3 .
3 5 6 −2 −3 0
1. Ces deux ensembles contiennent la matrice nulle, et sont stables par addition et multiplica-
tion par un scalaire : pour tout A, B ∈ Mn (K) et tout λ, µ ∈ K, on a
(i) si A, B ∈ S(n), i.e. t A = A et t B = B, on a t (λA + µB) = λt A + µt B = λA + µB donc
λA + µB ∈ S(n),
(ii) si A, B ∈ A(n), i.e. t A = −A et t B = −B, on a t (λA + µB) = λt A + µt B = −(λA + µB)
donc λA + µB ∈ A(n).
Ce sont donc des sev de Mn (K). Montrons maintenant qu’ils sont supplémentaires.
Soit A ∈ A(n) ∩ S(n). Alors tA = A = −A, donc 2A = 0 et A = 0. Ainsi, A(n) ∩ S(n) = {0}
et la somme S(n) + A(n) est directe et forme u nsev de Mn (K).
Montrons que Mn (K) = S(n) + A(n). Soit A ∈ Mn (K). Alors
A + tA A − tA
A= + ,
2 } | {z
| {z 2 }
∈S(n) ∈A(n)
autrement dit, toute matrice carrée s’écrit comme somme (forcement unique) d’une matrice
symétrique et d’une antisymétrique. Cela prouve que Mn (K) = S(n) ⊕ A(n).
2. Pour tout i, j = 1, ..., n, soit ei,j (souvent notée aussi Ei,j ) la matrice n × n dont tous les
coefficients sont nuls, à l’exception de celui à l’intersection de la ligne i avec la colonne j,
qui vaut 1. Une telle matrice s’appelle élémentaire. L’ensemble B des matrices élémentaires
d’indices (i, j), pour tout i, j = 1, ..., n, forme une base de l’ev Mn (K), que l’on appelle base
canonique. Évidemment, on a donc dim Mn (K) = n2 .
Pour connaître la dimension de l’ev S(n), on peut compter le nombre de paramètres libres
dans une matrice symétrique de taille n : la diagonale et le triangle supérieur sont libres, le
triangle inférieur est au contraire le miroir de celui supérieur et n’est donc pas libre. On a
donc n paramètres libres sur la diagonale, n − 1 sur la 1ère ligne du triangle supérieur, n − 2
sur la 2ème ligne, n − 3 sur la 3ème ligne et ainsi de suite jusqu’à 1 paramètre libre sur la
(n − 1)ème ligne. Au total, on a
1
n + (n − 1) + (n − 2) + · · · + 1 = n(n + 1)
2
paramètres libres, donc dim S(n) = 21 n(n + 1). On peut vérifier qu’une base de S(n) est
fournie par les matrices symétriques fi,j = ei,j + ej,i pour tous les 1 ≤ i ≤ j ≤ n.
La dimension de l’ev A(n) peut se calculer comme nombre de paramètres libres dans une
matrice antisymétrique (0 sur la diagonale, n − 1 sur la 1ère ligne, etc), ou bien se déduit de
la décomposition Mn (K) = S(n) ⊕ A(n) par la formule de Grassmann :
1 1
dim A(n) = dim Mn (K) − dim S(n) = n2 − n(n + 1) = n(n − 1).
2 2
Une base de A(n) est fournie par les matrices antisymétriques gi,j = ei,j − ej,i pour 1 ≤ i <
j ≤ n. L’union des deux familles (fi,j , 1 ≤ i ≤ j ≤ n) et (gi,j , 1 ≤ i < j ≤ n) forme une
base B 0 de Mn (K) alternative à la base canonique.
3. Considérons pour Mn (K) la base B 0 formée des matrices symétriques fi,j et antisymétriques
gi,j et choisissons un ordre total < dans cette base pour représenter les coordonnées de toute
matrice M . Par exemple, l’ordre lexicographique dans lequel fi,j < gi0 ,j 0 pour tout i, j, i0 , j 0 ,
fi,j < fi0 ,j 0 si i < i0 ou si i = i0 et j < j 0 , et pareil pour gi,j < gi0 ,j 0 .
Ce choix permet d’exprimer toute matrice M de taille n×n par ses n2 coordonnées, également
la matrice φ(M ) = t M par ses n2 coordonnées, et enfin de calculer la trace de l’endomor-
phisme φ comme trace de la matrice MB0 B0 (φ) de taille n2 × n2 qui le représente dans la
base B 0 , où l’on rappelle que la trace d’une matrice carrée est la somme des coefficients qui
se trouvent sur la diagonale.
On vérifie aisément que u(fi,j ) = fi,j et u(gi,j ) = −gi,j , ce qui nous permet de déterminer
que les éléments de la diagonale de MB0 B0 (φ) sont 1 où −1 (d’ailleurs la matrice est diagonale
dans cette base). Ainsi,
X X n(n + 1) n(n − 1)
Tr φ = 1+ −1 = − = n.
2 2
1≤i≤j≤n 1≤i<j≤n
Exercice 14. Soit u ∈ L(R3 ) dont la matrice dans la base canonique est
−10 8 −4
1
A= −4 2 −4 ,
3
8 −16 2
et soient E = {x ∈ R3 | u(x) = 2x} et F = {x ∈ R3 | u(x) = −2x}.
1. Montrer que E et F sont des sous-espaces vectoriels de R3 , en donner une base et la dimension.
2. Montrer que R3 = E ⊕ F .
3. Soit e1 un vecteur directeur de E et (e2 , e3 ) une base de F . Calculer la matrice de u dans la base
(e1 , e2 , e3 ).
Solution
et dim E = 1. De même, on déduit que x = (x1 , x2 , x3 ) ∈ F ssi u(x) = −2x ssi (calculs)
x1 − 2x2 + x3 = 0, donc
et dim F = 2.
2. Soit x ∈ E ∩ F . Alors u(x) = 2x = −2x, donc u(x) = 0. De même, si u(x) = 0 alors
x ∈ E ∩ F . Ainsi, on a E ∩ F = ker u. On montre assez facilement, en résolvant le système
associé, que ker u = {0}.
Or, on a montré à la question précédente que dim E = 1 et dim F = 2, et comme E∩F = {0},
alors dim(E + F ) = dim(E ⊕ F ) = 2 + 1 = 3. Et donc E + F = E ⊕ F = R3 .
3. Soit B = (e1 , e2 , e3 ) la base de R3 . On veut calculer la matrice MBB (u) =
MB (u(e1 )|u(e2 )|u(e3 )). On a u(e1 ) = 2e1 car e1 ∈ E, et u(e2 ) = −2e2 et u(e3 ) = −2e3
car e2 , e3 ∈ F . Donc
2 0 0
MBB (u) = 0 −2 0 .
0 0 −2
Exercice 15.
2. Soit u ∈ L(Rn ). Montrer que toutes les matrices de u ont la même trace.
3. Soit A, B ∈ Mn (R) deux matrices semblables. Montrer que pour tout entier naturel k, les matrices
Ak et B k ont la même trace.
Solution
Pn
1. Notons A P
= (Aij )1≤i,j≤n etP B = (Bij )1≤i,j≤n . Alors (AB)ij = k=1 Aik Bkj et donc
n P
Tr AB =P i=1 (AB)ii = i,k Aik Bki . De même, on a (BA)ij = k Bik Akj et donc
Tr BA = i,k Bik Aki . Les noms des indices sont neutres, donc Tr BA = Tr AB.
Remarque : On a Tr AB = Tr BA, et donc Tr ABC = Tr CAB = Tr BCA, mais pas
Tr ABC = Tr CBA en général.
2. Toutes les matrices de u sont semblables, donc en notant H l’ensemble des matrices de u,
on a que ∀M, M 0 ∈ H, ∃Q ∈ GLn (K) tel que M 0 = Q−1 M Q. Et en utilisant la question
précédente, il suit que Tr M 0 = Tr Q−1 M Q = Tr QQ−1 M = Tr M .
3. A et B sont semblables, donc ∃Q ∈ GLn (K) tel que B = Q−1 AQ. On a alors
Solution
1 0 0
2. Deux matrices A et B sont équivalentes ssi ∃P, Q inversibles telles que B = Q−1 AP . Une
caractérisation utile : deux matrices sont équivalentes ssi elles ont le même rang. La matrice
suggérée par l’énoncé à évidemment rang 3 car les trois vecteurs colonnes sont linéairement
indépendants. Pour A on peut utiliser le théorème du rang. On a (petit calcul) ker A = {0},
donc l’image a dimension 3 − 0 = 3. Donc A et l’autre matrice ont même rang, elles sont
donc equivalentes.
Exercice
17. Soitu l’endomorphisme de R3 dont la matrice dans la base canonique Bc = (e1 , e2 , e3 ) est
3 1 −3
A = −1 1 1 . On pose ε1 = (1; 1; 1), ε2 = (1; −1; 0), ε3 = (1; 0; 1) et B = (ε1 , ε2 , ε3 ).
1 1 −1
1. Montrer que B constitue une base de R3 .
Solution
1. On vérifie facilement que la famille B est libre. Comme elle possède 3 éléments, c’est une
base de R3 .
En alternative, B est une base de R3 ssi la matrice de passage, appélée aussi matrice du
changement de base,
1 1 1
P = PBc B = MBc (ε1 |ε2 |ε3 ) = 1 −1 0
1 0 1
donc M et A sont semblables. Puisque M est diagonale, on dit que l’on a diagonalisé A.
3. ker u = Vect(ε3 ) et Im u = Vect(u(ε1 ), u(ε2 )) = Vect(ε1 , ε2 ).
2. (a) En calculant u(In ), déterminer s’il existe des matrices A telles que l’application u soit injective.
m2
1 1 1−m 1 −m
Exercice 19. Soit m ∈ R. Déterminer le rang de A = 1 + m −1 2 et B = m −m2 m .
2 −m 3 m 1 −m3
Solution
Exercice 20. Soit A ∈ Mn (K) une matrice de rang 1. Montrer qu’il existe λ ∈ K tel que A2 = λA.
Solution
Si A est de rang 1, alors dim Im A = 1. Soit e l’unique vecteur de la base de Im A. Im A2 est sev
de Im A (cf. exo 8), donc ou bien Im A2 = {0} auquel cas A2 = 0 et l’égalité demandée est vérifiée
pour λ = 0, ou bien Im A2 = Im A. Alors, en désignant par u l’endomorphisme représenté par A
dans la base canonique de K3 , il existe un λ ∈ K tel que u(u(e)) = λu(e), et donc par linéarité
u(u(x)) = λu(x), qui signifie A2 = λA.
Alternative : On sait que deux matrices A et B sont équivalentes si et seulement si elles ont le
même rang. Puisque A a rang 1, A est équivalente à toute matrice de rang 1, par exemple à la
1 0 ···
matrice élementaire E11 = 0 0 · · ·. Il existe donc deux matrices inversibles P = (pij ) et
.. .. . .
. . .
Q = (qij ) telles que A = QE11 P , et on a donc A2 = QE11 P QE11 P . Par calculs succéssifs on
trouve Pn
q11 0 ··· Pi=1 p1i qi1 0 · · ·
q21 0 · · · n p2i qi1 0 · · ·
i=1
QE11 = . , puis P QE11 = ,
.. .. ..
.. . . .
Pn
qn1 0 ··· p
i=1 ni i1q 0 · · ·
et enfin Pn
i=1 p1i qi1 0 ···
0 0 · · · n
X
E11 P QE11 = = p1i qi1 E11 .
.. ..
. . i=1
0 0 ···
Pn
Si on pose λ = i=1 p1i qi1 ∈ K, on a donc
IV. Inversibilité
Solution
On utilise le pivot de Gauss, ou bien on résoud le système linéaire AX = b, qui donne X = A−1 b
si l’inverse existe. On trouve
0 1 1 −1 0 1 1 0 −1
A−1 = 1 0 1 ; B −1 = 4 1 −3 ; C −1 = 2 1 −3 .
1 −1 −1 2 1 −2 −1 0 2
2 0 1 1 0 0 1 0 1 0 0 1
(C|I3 ) = −1 1 1 0 1 0 −→ 0 1 2 1 1 0 −→
1 0 1 0 0 1 0 0 −1 1 0 −2
1 0 1 0 0 1 1 0 0 1 0 −1
1 −4 = I3 |C −1
−→ 0 1 2 1 1 0 −→ 0 1 0 3
0 0 1 −1 0 2 0 0 1 −1 0 2
−1 −2
Exercice 22. Soit A = .
3 4
1. Calculer A2 − 3A + 2I2 .
2. En déduire que la matrice A est inversible et expliciter son inverse.
3. Pour tout entier n ≥ 2, déterminer le reste de la division euclidienne de X n par X 2 − 3X + 2.
4. En déduire An pour tout n ≥ 2.
Solution
1. On trouve A2 − 3A + 2I2 = 0.
2. Raisonnement par analyse-synthèse.
Analyse : Supposons que A est inversible, et donc que A−1 existe. Alors en multipliant à
gauche (ou à droite) l’équation précédente par A−1 , on trouve A − 3I2 + 2A−1 = 0, ce qui
donne A−1 = (3I2 − A)/2.
Synthèse : Finalement, la matrice B = (3I2 −A)/2 est bien définie et on vérifie (ne pas oublier
cette étape) qu’on a bien AB = BA = I2 , donc A est inversible et A−1 = B = (3I2 − A)/2.
Methode alternative : L’identité A2 − 3A + 2I2 = 0 s’écrit également I2 = 12 (3A − A2 ). En
factorisant A à gauche et ensuite à droite, on trouve
3I2 − A 3I2 − A
I2 = A et I2 = A.
2 2
La matrice B = 12 (3I2 − A) est bien définie et vérifie donc les identités de l’inverse de A.
Puisque l’inverse est unique (quand elle existe), on a bien A−1 = 3I22−A .
3. Soit Rn (X) le reste de la division euclidienne de X n par X 2 −3X +2. On a X n = X n−2 (X 2 −
3X + 2) + 3X n−1 − 2X n−2 , d’où l’on obtient Rn (X) = 3Rn−1 (X) − 2Rn−2 (X). Rn est
nécessairement un polynôme de degré 1, donc Rn (X) = an X + bn et en identifiant les
coefficients il vient an = 3an−1 − 2an−2 , bn = 3bn−1 − 2bn−2 . Les conditions initiales sont
a0 = 0, a1 = 1 et b0 = 1, b1 = 0. On peut vérifier par récurrence an = 2n −1 et bn = −(2n −2)
pour n ≥ 1, et donc Rn (X) = (2n − 1)X − (2n − 2).
Alternative : On remarque que X = 1 et X = 2 sont racines de X 2 − 3X + 2, et en utilisant
l’écriture de la division eulclidienne il vient 2n = Rn (2) et 1 = Rn (1), ce qui donne aussi
Rn (X) = (2n − 1)X − (2n − 2).
4. On a l’écriture X n = Pn (X)(X 2 − 3X + 2) + Rn (X) où Pn est un polynôme. En utilisant
ce résultat pour la matrice A, on obtient An = Pn (A) (A2 − 3A + 2) +Rn (A). Et donc
| {z }
=0
1 − 2n − (2n − 2) −2(2n − 1)
An = (2n − 1)A − (2n − 2)I2 = n
3(2 − 1) 4(2 − 1) − (2n − 2)
n
3 − 2n+1 2(1 − 2n )
=
3(2n − 1) 3 × 2n − 2
Exercice 23. Soit A = (ai,j ) ∈ Mn (C) telle que pour tout i ∈ {1, . . . , n}, on ait
X
|ai,j | < |ai,i |.
1≤j≤n
j6=i
Solution
t
Pnque ker A = {0}. Soit X = (x1 , . . . , xn )
Pour montrer que A est inversible, il suffit de montrer
un vecteur colonne tel que AX = 0. On a (AX)i = j=1 Aij Xj , donc X vérifie le système à n
équations (une pour chacun des i, i = 1, . . . , n) :
n
X
aij xj = 0.
j=1
n
X n
X n
X
|xj0 ||aj0 j0 | = aj0 j xj ≤ |aj0 j ||xj | ≤ |xj0 | |aj0 j |.
j=1,j6=j0 j=1,j6=j0 j=1,j6=j0
Pn
Si xj0 6= 0, il suit de l’inégalité précédente que |aj0 j0 | ≤ j=1,j6=j0 |aj0 j |, qui contredit l’hypothèse
Pn
j=1,j6=j0 |aj0 j | < |aj0 j0 |. On a donc xj0 = 0, d’où suit que xi = 0 pour tout i, c’est-à-dire que
X = 0. Ainsi, A est inversible.
V. Sommes directes
1. Fi ∩ Fj = {0} pour i 6= j,
2. R3 = F1 + F2 + F3 ,
Exercice 25. Soient F1 , . . . , Fp des sous-espaces vectoriels d’un espace vectoriel E de dimension finie.
1. Soient G1 , . . . , Gp des familles génératrices respectives de F1 , . . . , Fp . Montrer que la réunion des Gi
est une famille génératrice de F1 + · · · + Fp .
2. Montrer que les Fi sont en somme directe si et seulement si pour toutes bases B1 , . . . , Bp de
F1 , . . . , Fp respectivement, la famille B1 ∪ · · · ∪ Bp est libre.
3. Montrer que E = F1 ⊕ · · · ⊕ Fp si et seulement si pour toutes bases B1 , . . . , Bp de F1 , . . . , Fp
respectivement, la famille B1 ∪ · · · ∪ Bp est une base de E.
4. Montrer que E = F1 ⊕ · · · ⊕ Fp si et seulement si E = F1 + · · · + Fp et dim E = dim F1 + · · · + dim Fp .
Solution
(i) (i) P (i)
1. On note Gi = (e1 , . . . , eki ) les bases. Soit xi ∈ Fi . Alors xi peut s’écrire xi = k λk ek .
Pp Pp Pp P (i) S p
Pp x ∈ i=1 Fi . Alors x = i=1 xi = i=1 k λk ek . Ainsi i=1 Gi est génératrice de
Soit
i=1 Fi .
Pp Qp
Les Fi sont en somme directe ssi E = i=1 Fi et ∀x ∈ E, ∃!(x1 , . . . , xp ) ∈ i=1 Fi , x =
2. P
p
i=1 xi . L’existence est déjà garantie (question 1), il reste donc à considérer l’unicité.
(⇐) : Supposons ∪pi=1 Bi est libre. Montrons l’unicité, par l’absurde. On suppose deux écri-
P P 0 P 0
P P (i) 0(i) (i)
tures x = i xi = i xi . Alors 0 = i (xi − xi ) = i k (λk − λk )ek = 0 donc
(i) 0(i) S
λk = λk car i Gi est libre. Contradiction.
S
(⇒) : On prouve l’autre sens par contraposée, c’est à dire en prouvant que si i Gi était
liée, alors on pourrait trouver une autre écriture de x. C’est le cas car si la famille est liée,
on peut exprimer l’un des éléments de la famille en fonction des autres, et utiliser ceci pour
trouver une deuxième écriture.
Lp S
3. (⇒) : Si E = Fi alors d’après la question précédente, la famille Bi est libre. De
i=1P
p
plus, on aSdim E = i=1 dim Fi et cette quantité coincide avec le nombre d’éléments dans
la famille Bi . Cette dernière est donc une base.
(⇐) : Si Bi est une base, alors, par l’absurde, si l’on avait deux écritures x = i xi = i x0i ,
S P P
on parviendrait facilement à une contradiction avec le fait que la famille est libre.
Lp Pp
4. (⇒) : Si E = i=1 Fi , alors on a déjà montré que i=1 dim Fi = dim E.
(⇐) : Supposons que E = F1 + · · · + Fp et que dim E = dim F1 + · · · dim Fp . Pour tout
i = 1, ..., p, soit Bi une base de Fi et notons #Bi la cardinalité de Bi (c’est-à-dire la dimension
de Fi ). D’un coté, on a que
p p p
!
[ X X
# Bi ≤ #Bi = dim Fi = dim E,
i=1 i=1 i=1