Bilineaire
Bilineaire
Bilineaire
fr 20 août 2010
Algèbre Bilinéaire
Exercice 7. CCP MP 2006 Soit E un espace vectoriel Euclidien, (ei )ni=1 des vecteurs unitaires tels
que
n
X
∀ x ∈ E, ||x||2E = hx, ei i2 .
i=1
et en déduire qu’il existe r une rotation dont on précisera les éléments caractéristiques et s une symétrie
orthogonale par rapport à un plan (P ) que l’on précisera, tels que f = r ◦ s = s ◦ r.
c. Montrer que com(A) = det(A)A pour toute matrice A ∈ On (R), où com(A) désigne la comatrice de
A.
a. On suppose que U et V sont des sous-espaces vectoriels de Rn tels que dim(U ) + dim(V ) = n + 1.
Montrer qu’alors dim(U ∩ V ) > 1.
Ph n−1 X
b. Soit h ∈ J1, n − 1K. Soit X ∈ j=1 Rxi ⊂ R . On forme le vecteur X̃ = . Prouver que l’on
0
a
t
X̃ S X̃ 6 µh ||X̃||2 .
c. Soit h ∈ J1, n − 1K. Soit Y ∈ nj=h Ryi . Prouver que l’on a
P
t 2
Y SY > λh ||Y || .
u = r1 ◦ r2 ◦ . . . ◦ rku .
Exercice 13. Soient I un intervalle de R et (fi )16i6n une famille de fonctions continues et de carré
intégrable sur I. On définit la matrice A de Mn (R) par
Z
∀(i, j) ∈ {1, . . . , n} aij := fi (t)fj (t)dt.
I
Exercice 1. a. E étant de dimension finie, pour montrer la bijectivité de u il suffit d’en montrer
l’injectivité. Soit x ∈ ker(u), alors on a
0 = (u(x)|u(x)) = (x|x),
et donc, (.|.) étant défini positif, il vient que x = 0. On a donc établi l’injectivité de u.
b. Montrons que les endomorphismes orthogonaux forment un sous-groupe de GL(E) noté O(E).
D’après la première question, O(E) ⊂ GL(E). On a id ∈ O(E). Soient maintenant u, v ∈ O(E), alors
on a
u ◦ v −1 (x)|u ◦ v −1 (y) = v −1 (x)|v −1 (y) = (x|y) ,
Exercice 2. a. L’application est symétrique par commutativité de R, linéaire en chaque variable par
linéarité de l’intérgale et distributivité de la multiplication par rapport à l’addition sur R, elle est
positive par positivité de l’intégrale. Pour montrer
R1 qu’elle est définie positive, on utilise le fait que pour
une fonction continue f à valeurs réelles, −1 f 2 = 0 implique que f est nulle sur [−1, 1]. Comme de
plus f est ici un polynôme, de la nullité de la fonction polynômiale associée sur [−1, 1] on déduit la
nullité du polynôme f . Ainsi, < ., . > est bien un produit scalaire sur R[X].
b. C’est une application directe de l’algorithme de Gram-Schmidt à la base (1, X, X 2 , X 3 ) de R3 [X]
(les calculs ne sont pas demandés ici).
c. Cherchons les vecteurs propres en procédant directement (la dimension n’est pas finie, hors de
question d’invoquer un polynôme caractéristique). Si P est un polynôme de degré 0 (et donc non
nul), alors Φ(P ) = 0, 0 est donc valeur propre associée au vecteur propre 1 (par exemple). Soit P un
polynôme de degré 1, P = aX + b, alors Φ(P ) = 2aX. Ainsi, 2 est valeur propreP associée au polynôme
X. On suppose maintenant que P est un polynôme de degré d, avec d > 3, P = dk=0 ak X k , et λ ∈ R.
On a :
d−2
X
Φ(P ) = λP ⇔ (−2a2 − λa0 ) + (−6a3 + (2 − λ)a1 )X + ((k 2 + k − λ)ak − (k + 1)(k + 2)ak+2 )X k
k=2
l’endomorphisme Φ est symétrique, c’est à dire que ∀f, g ∈ R[X], < Φ(f ), g >=< f, Φ(g) >. Soient
donc f, g ∈ R[X], on calcule
Z 1
< Φ(f ), g >= (t2 − 1)f 00 (t)g(t) + 2tf 0 (t)g(t)dt.
−1
Z 1 Z 1
− 2tf (t)g 0 (t)dt − f (t)g(t)dt.
−1 −1
Cette expression est invariante par échange de f et g, si bien que l’on a < Φ(f ), g >=< f, Φ(g) >, l’en-
domorphisme est donc symétrique, et ses vecteurs propres associés à des valeurs propres différentes (les
fd ) sont donc deux à deux orthogonaux, ce qu’il fallait démontrer (pour montrer qu’un endomorphisme
symétrique a des vecteurs propres associés à des valeurs propres différentes deux à deux orthogonaux,
on écrit λd < fd , fd0 >=< Φ(fd ), fd0 >=< fd , Φ(fd0 ) >= λd0 < fd , fd0 >, et donc comme λd 6= λd0 , il
vient < fd , fd0 >= 0).
d. D’après ce qui précède, −1 n’est pas valeur propre de Φ, donc Φ+Id est injective. Il faut maintenant
montrer que Φ + Id est surjective. Soit P ∈ R[X], et d le degré de P . La restriction Φd de Φ à Rd [X]
est un endomorphisme de Rd [X] (vérification immédiate ou simple constatation sur les calculs déjà
faits), et l’endomorphisme (Φd − IdRd [X] ) est bijectif, puisqu’injectif (par injectivité de Φ − Id) et que
Rd [X] est de dimension finie. Ainsi, il existe Q ∈ Rd [X], (Φd − IdRd [X] )(Q) = P , et alors, on a aussi
(Φ − Id)(Q) = P , ce qui établit la surjectivité de Φ − Id. On a donc montré que Φ − Id est une bijection
de R[X].
Exercice 3. u est antisymétrique signifie que t u = −u. On a en particulier que det(u) = det( t u) =
det(−u) = (−1)3 det(u) = − det(u), d’où l’on déduit que det(u) = 0 et donc ker(u) 6= {0}.
Ensuite, on a que Im(u)⊕ker(u) = E et que cette somme est orthogonale. En effet, soit y ∈ Im(u), ∃x ∈
E, y = u(x). Soit z ∈ ker(u). Alors (y|z) = (u(x)|z) = −(x|u(z)) = 0, et donc ker(u) ⊥ Im(u), puis
Im(u) ∩ ker(u) = {0}, puis, d’après le théorème du rang, on a bien Im(u) ⊕ ker(u) = E.
On a aussi que Im(u) et ker(u) sont stables par u.
Ainsi, on peut distinguer trois cas.
Si dim(ker(u)) = 3, alors u = 0, et dans toute base, la matrice de u est la matrice nulle, qui a la forme
souhaitée avec k = 0.
Si dim(ker(u)) = 2, alors si l’on forme une base,(e1 , e2 , e3 ) de E à partir d’une base orthonormale de
Im(u) et de ker(u), dans cette base u a pour matrice
k 0 0
A = 0 0 0 , k ∈ R.
0 0 0
Mais alors k = (u(e1 )|e1 ) = −(e1 |u(e1 )) = −(u(e1 )|e1 ), donc k = 0, ce qui est impossible (on a ici
rg(u) = 1).
Il ne reste plus que le dernier cas, dim(ker(u)) = 1. On forme une base (e1 , e2 , e3 ) de E à partir d’une
base orthonormale de Im(u) et de ker(u), dans cette base u a pour matrice
a b 0
A = c d 0 , a, b, c, d ∈ R.
0 0 0
Alors, a = (e1 |u(e1 )) = −(u(e1 )|e1 ) donc a = 0. De même, d = 0. Enfin, c = (u(e1 )|e2 ) = −(e1 |u(e2 )) =
−b. En d’autres termes, en posant k = b, on obtient le résultat demandé.
où r ∈ J0, nK, s ∈ J0, nK, t ∈ J0, nK, ∀i ∈ J1, rK, xi ∈ [0, 1] et αi > 1, ∀j ∈ J1, sK, yj ∈ R\[0, 1] et βj > 1,
∀k ∈ J1, tK, Qk est un polynôme réel irréductible de degré 2 et δk > 1. On note i1 , . . . , ir0 les indices
Q0
i ∈ J1, rK tels que αi est impair. On forme alors le polynôme Q(X) = rl=1 (X − xil ), qui est de degré
strictement inférieur à celui de Pn , sauf si ce dernier est scindé à racines simples dans [0, 1], ce qui est
exclu par hypothèses. On a alors
Z 1 Z 1 r s t
0
Y Y Y
0 = ϕ(Pn , Q) = f (x)Pn (x)Q(x)dx = f (x) (x − xi )αi (x − yi )βj Qk (x)δk dx
0 0 i=1 j=1 k=1
Qr 0 Qs Qt
avec ∀i ∈ J1, rK, αi0 pair. Ainsi, f (x) i=1 (x − xi )αi j=1 (x − yi ) k=1 Qk (x)
δk est de signe constant
βj
sur [0, 1], et définit une fonction continue non identiquement nulle sur [0, 1], c’est absurde d’après les
propriétés de l’intégrale. Donc Pn est bien scindé à racines simples dans [0, 1].
Exercice 5. a. On a matriciellement
q(x, y, z) = t X QX
avec
2 1 −1 x
Q = 1 1 2 , X = y ,
−1 2 −1 z
où t X désigne la transposée du vecteur X.
b. On a
2−X 1 −1 √ √
χQ (X) = 1 1−X 2 = −(X − 2)(X − 7)(X + 7).
−1 2 −1 − X
√ √
Les valeurs propres de Q sont donc 2, 7 et − 7.
c. Puisque Q est symétrique, diagonalisons Q en base orthonormée (pour avoir l’inverse d’une matrice
de passage égale à sa transposée), en exprimant alors q dans les nouvelles coordonnées, on obtiendra
une décomposition en carrés.
Un calcul simple des sous-espaces propres donne, après renormalisation, la matrice de passage
√ √
− √13 √ 3+ 7√ √ 3− 7√
28+10
√ 7 28−10
√ 7
P = √13
√ 2+ 7√ √ 2− 7√ .
28+10 7 28−10 7
√1 √ 1 √ √ 1 √
3 28+10 7 28−10 7
et donc
1 1 1
q(x, y, z) = 2(− √ x + √ y + √ z)2
3 3 3
√ √
√ 3+ 7 2+ 7 1 2
+ 7( p √ x+ p √ y+p √ z)
28 + 10 7 28 + 10 7 28 + 10 7
√ √
√ 3− 7 2− 7 1 2
− 7( p √ x+ p √ y+p √ z) .
28 − 10 7 28 − 10 7 28 − 10 7
Exercice 6. a. On a matriciellement
q(x, y, z) = t X QX
avec
2 0 1 x
Q = 0 2 −1 , X = y ,
1 −1 1 z
où t X désigne la transposée du vecteur X.
b. On a
2−X 0 1
χQ (X) = 0 2−X −1 = −X(X − 2)(X − 3).
1 −1 1−X
Les valeurs propres de Q sont donc 0, 2 et 3.
c. Puisque Q est symétrique, diagonalisons Q en base orthonormée (pour avoir l’inverse d’une matrice
de passage égale à sa transposée), en exprimant alors q dans les nouvelles coordonnées, on obtiendra
une décomposition en carrés.
Un calcul simple des sous-espaces propres donne, après renormalisation, la matrice de passage
− √16 √12 √1
3
P = √16 √1 − √13
.
2
2 1
√
6
0 √
3
on déduit que ∀i ∈ J1, nK\{k}, hek , ei i = 0, et comme la famille est normée, ceci signifie que la famille
est orthonormale.
Soit (λi )16i6n ∈ Rn tel que ni=1 λi ei = 0 : alors, d’après l’orthonormalité de la famille (ei )i , on a
P
P n 2
i=1 λi = 0, d’où la nullité de chaucun des coefficients et la liberté de la famille (ei )i .
Soit F le sous-espace vectoriel de E engendré par la famille (ei ) : d’après le le théorème du supplémen-
taire orthogonal, E = F ⊕ F ⊥ . Pn
∈ ⊥ et par conséquent, ||x||2 =
Soit
Pn x E : x s’écrit de façon unique x = i=1 hx, ei iei + y où y ∈ F
2 2
i=1 hx, ei i + ||y|| . Pn
Par hypothèse, ||x||2 = 2
i=1 hx, ei i , d’où y = 0 et E = F, ce qui prouve que la famille (ei )i est
génératrice.
et on note
p
X X X
|λk |ek = λk ek − λk ek = α (2).
k=1 k∈Λ+ k∈Λ−
On en déduit que
X X X
0 6 (α|α) = −4 λk ek λk ek = −4 λi λj (ei |ej ) 6 0,
|{z} | {z }
k∈Λ+ k∈Λ− i∈Λ+ , j∈Λ−
60 <0
Cette dernière somme est nulle si et seulement si pour tout k ∈ I, αk = 0, ce qui prouve la liberté de
la famille.
b cos θ + d sin θ = 0 (40 ). Ainsi cos θ(10 ) + sin θ(40 ) donne d = cos θ puis de (1) (ou de (4) si sin θ = 0)
on déduit que b = − sin θ, ce qui donne le résultat demandé.
Ensuite, prendre pour r la rotation d’axe Re1 et d’angle θ et pour s la symétrie orthogonale de plan
P =< e2 , e2 > répond à la question, il suffit de faire les produits des matrices associées dans la base B
pour le vérifier.
c. La formule de la comatrice donne
A t com(A) = det(A)In ,
donc on en déduit par transposition puis multiplication par A, sachant que t A A = In , que
com(A) = det(A)A
comme annoncé.
φC (Eij ) = ci cj Eij .
Ainsi la matrice de φC dans la base (Eij )16i,j6n (ordonnée par exemple suivant l’ordre lexicographique
sur les indices i, j) de Mn (R) est diagonale de coefficients diagonaux ci cj , et son déterminant vaut
donc
Yn n
Y Yn Yn Yn
ci cj =
ci cj =
ci det(C) = det(C)n+1 .
i=1 j=1 i=1 j=1 i=1
c. On écrit Y = nj=h βj yj , avec ∀j ∈ Jh, nK, βj ∈ R. On a en particulier que ||Y ||2 = nj=h (βj )2 .
P P
Matriciellement, on calcule
n
X
t
Y S Ỹ = λj (βj )2 > λh ||Y ||2 .
j=h
d. On a, vus comme sous-espaces vectoriels de Rn , dim( hj=1 Rxi ) = h et dim( nj=h Ryi ) = n − h + 1,
P P
n
Pnhypothèses de la première question. Ainsi, il existe Z ∈ R , Z 6= 0, tel que
on estPdonc dans les
h
Z ∈ ( j=1 Rxi ) ∩ ( j=h Ryi ). Z vérifie alors l’inégalité
λh ||Z||2 6 t Z SZ 6 µh ||Z||2 ,
Exercice 12. On va d’abord faire une remarque générale. On suppose n > 1. Si u, v ∈ E sont deux
vecteurs avec u 6= v et ||u|| = ||v||, alors il existe une (unique) réflexion orthogonale qui échange u et
v, elle est définie par sa direction < u − v > et sa base < u − v >⊥ . On peut en donner l’expression
sous la forme
(l|u − v)
σu−v : l ∈ E 7→ l − 2 (u − v).
(u − v|u − v)
On peut facilement vérifier (le faire !) que l’on a bien σu−v ∈ O(E), σu−v (u) = v, et ker(σu−v − id) =<
u − v >⊥ .
a. Si n = 2. Le résultat est bien connu. Soit f ∈ O(E) une rotation, et soit u ∈ E tel que v = f (u) 6= u,
cela existe bien puisque f est une rotation. On note w l’image de u par la rotation d’angle π2 . On a alors
que w et u − v sont non-colinéaires. En effet, sinon, il existe λ ∈ R, λw = u − v et donc v = u − λw,
puis (u|u) = (v|v) = (u|u) + λ2 (w|w) − 2λ(u|w) et donc λ2 (w|w), ce qui implique finalement λ = 0
puis u = v, ce qui est exclu par hypothèses.
Montrons que σu−v ◦ σw est la rotation f (on commencera par faire un dessin pour s’en convaincre).
On a σu−v ◦ σw ∈ O(E) par composition. Ensuite, on calcule les points fixes de σu−v ◦ σw (on rappelle
qu’en dimension 2 les rotations sont les applications de O(E) sans point fixe non trivial). On calcule,
pour l ∈ E,
(l|w)
(σw (l)|u − v) (l|w) (l − 2 (w|w) w|(u − v))
σu−v ◦ σw (l) = σw (l) − 2 (u − v) = l − 2 w−2 (u − v).
(u − v|u − v) (w|w) (u − v|u − v)
(l|w)
(l|w) (l−2 (w|w) w|(u−v))
Ainsi, σu−v ◦ σw (l) = l ⇔ −2 (w|w) w−2 (u−v|u−v) (u − v) = 0. Comme w et u − v sont non-
(l|w)
colinéaires, ils forment une base de R2 ,
et donc nécessairement on a (l|w) = 0 puis (l−2 (w|w) w|(u−v)) =
(l|u − v) = 0, ce qui implique (puisque (w, u − v) est une base) que l = 0. Il n’y a donc pas de point
fixe non trivial, σu−v ◦ σw est donc une rotation. Finalement, σu−v ◦ σw (u) = σu−v u (puisque w ⊥ u),
et donc σu−v ◦ σw (u) = v. On a donc montré que σu−v ◦ σw = f .
b. Si n = 3, toute rotation f est caractérisée par son axe et son angle. Dans le plan orthogonal à l’axe
(passant par l’origine) P , f induit une rotation plane fP . On a ensuite E = P ⊕ P ⊥ . On applique
la question précédente à fP , on note σ1 ◦ σ2 = fP une décomposition en produit de réfléxions, et on
considère les endomorphismes σ˜1 , σ˜2 définis par σ̃i |P = σi , σ̃i |P ⊥ = id, i = 1, 2. On vérifie facilement
qu’il s’agit de réflexions orthogonales et que σ˜1 ◦ σ˜2 = f .
c. Soit x ∈ Fu , on a (u − id)(u(x)) = u(u − id)(x) = u(0) = 0, donc u(x) ∈ Fu . Ensuite, u ∈ O(E),
d’après le cours si Fu est stable par u, alors Fu⊥ est aussi stable par u.
Xn Z X Z
= x2i fi2 + 2 xi xj fi fj
i=1 I 16i<j6n I
Z n
!2
X
= xi fi
I i=1
> 0,
Exercice 14. On cherche à determiner une base orthonormale (P0 , P1 , P2 ) de R2 [X] pour le produit
scalaire Z 1
hP, Qi := P (t)Q(t)dt
−1
où pR2 [X] désigne la projection orthogonale sur R2 [X], et où pR2 [X] (X 3 ) s’écrit dans la nouvelle base
1
P0 = √ ,
2
en posant
P
c1 := X + αP0 ,
la relation
hP
c1 , P0 i = 0 donne α = 0,
et la condition de normalisation
r r
3c 3
||P1 || = 1 donne P1 = P1 = X.
2 2
Le terme de degré 1 de P2 est nul car
Z 1
r Z 1
3
P1 P2 = tP2 (t)dt = 0
−1 2 −1
et il n’est donc pas nécéssaire de calculer P2 car la quantité hX 3 , P2 i ne dépend que du terme de degré
1 de P2 (par imparité du polynôme X 3 ).
On trouve finalement
3
X 3 − pR2 [X] (X 3 ) = X 3 − hX 3 , P1 iP1 = X 3 − X
5
et
Z 1
2 2
inf t3 − at2 − bt − c dt = X 3 − pR2 [X] (X 3 )
(a,b,c)∈R3 −1
Z 1 2
3 3
= t − t dt
−1 5
8
= .
175