Cours
Cours
Cours
Thomas MEGARBANE
Table des matières
1 Logique et raisonnements 1
I Assertions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
II Quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
III Implications, réciproques, contraposées et équivalences . . . . . . . . . . . . . . . . . . . . 3
IV Méthodes de raisonnements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
4 Ensembles et relations 33
I Appartenance et inclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
II Opérations sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
III Partitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
IV Produits cartésiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
V Relations binaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5 Applications 41
I Notion d’application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
II Image directe et image réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
III Injections, surjections, bijections . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
IV Les ensembles finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
8 Les complexes 87
I L’ensemble C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
II Conjugaison et module . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
III Trigonométrie et exponentielle complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
IV Résolution d’équations algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
V Interprétation géométrique des nombres complexes . . . . . . . . . . . . . . . . . . . . . . . 96
VI Fonction complexe d’une variable réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
9 Primitives 101
I Primitives et intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
II Calcul de primitives et d’intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
17 Polynômes 217
I Polynômes et fonctions polynomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
II Arithmétique élémentaire sur K[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
III Racines de polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
IV Arithmétique des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
V Fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
18 Dérivabilité 249
I Nombre dérivé et fonction dérivée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
II Propriétés générales des fonctions dérivables . . . . . . . . . . . . . . . . . . . . . . . . . . 254
III Convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
23 Intégration 353
I Les fonctions uniformément continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
II Intégrales des fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354
III Intégrales des fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . 357
IV Propriétés des fonctions et de leurs intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . 366
V Extension aux fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . 370
VI Sommes de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371
Logique et raisonnements
I Assertions
Définition I.1. On appelle assertion (ou proposition) une phrase qui est soit vraie soit fausse (et pas
les deux).
Une assertion peut dépendre d’une variable x, et on la note alors A(x).
On dit que deux assertions A et B sont équivalentes, ce que l’on note A ≡ B, si elles ont toujours la
même valeur de vérité.
Exemples I.2. — “2 est plus petit que 3” est une assertion vraie ;
— “5 est plus grand que 3” est une assertion fausse ;
— l’assertion A(x) =“x est un nombre premier” dépend de x : elle est vraie si x = 2 et fausse si x = 10
par exemple.
Exemples I.4. Si A =“n est un multiple de 2” et B =“n est un multiple de 3”, alors :
1. (non A)=“n est impair”
2. (A ou B)=“n est divisible soit par 2, soit par 3”
3. (A et B)=“n est un multiple de 6” (par théorème de Gauss)
Définition I.5. On appelle table de vérité d’une assertion le tableau donnant sa valeur de vérité en
fonction de celles des assertions utilisées pour la construire.
A B A ou B A B A et B
A non A V V V V V V
V F V F V V F F
F V F V V F V F
F F F F F F
1
2 CHAPITRE 1. LOGIQUE ET RAISONNEMENTS
1. non (non A) ≡ A ;
2. (A et B) et C ≡ A et (B et C) ;
3. (A ou B) ou C ≡ A ou (B ou C) ;
4. A et (B ou C) ≡ (A et B) ou (A et C) ;
5. A ou (B et C) ≡ (A ou B) et (A ou C) ;
6. non (A et B) ≡ [(non A) ou (non B)] ;
7. non (A ou B) ≡ [(non A) et (non B)].
Démonstration. Par exemple, montrons la dernière. On procède par table de vérité :
A B A ou B non(A ou B) non A non B (non A) et (non B)
V V V F F F F
V F V F F V F
F V V F V F F
F F F V V V V
II Quantificateurs
Définition II.1. Soit A(x) une assertion dépendant de x, qui décrit un ensemble E :
1. Si, lorsque x décrit E, A(x) est toujours vraie, on écrit :
∀x ∈ E, A(x)
qu’on lit “quel que soit x appartenant à E, A(x)”. C’est le quantificateur universel.
2. S’il existe x dans E tel que A(x) est vraie, on écrit :
∃x ∈ E, A(x)
qu’on lit “il existe x appartenant à E tel que A(x)”. C’est le quantificateur existentiel.
Propriété II.2. Avec les mêmes notations, on a :
1. non (∀x ∈ E, A(x)) ≡ ∃x ∈ E, (non A(x)) ;
2. non (∃x ∈ E, A(x)) ≡ ∀x ∈ E, (non A(x)) ;
Remarques II.3. 1. S’il existe un unique x pour lequel A(x) est vrai, on écrit : ∃!x ∈ E, A(x).
2. L’ordre des quantificateurs est importante. Par exemple les assertions :
[∀x ∈ E, ∃y ∈ E, A(x, y)] et [∃y ∈ E, ∀x ∈ E, A(x, y)]
ne sont pas les mêmes : dans la première, y dépend de x ; dans la seconde, y est indépendant de x.
Exemples II.4. 1. L’assertion :
∀n ∈ N, ∃m ∈ N, n < m
veut dire que : pour tout entier naturel n, il existe un entier naturel m tel que n < m. Elle est
vraie : pour n fixé, l’entier m = n + 1 convient.
2. L’assertion :
∃m ∈ N, ∀n ∈ N, n < m
veut dire que : il existe un entier naturel m tel que, pour tout entier naturel m, n < m. Elle est
fausse : si n = m par exemple, on ne pourra avoir n < m.
III. IMPLICATIONS, RÉCIPROQUES, CONTRAPOSÉES ET ÉQUIVALENCES 3
A B A⇒B A B A⇔B
V V V V V V
V F F V F F
F V V F V F
F F V F F V
Exemples III.2. 1. si n est un entier, alors “n est un multiple de 6” est une condition suffisante, mais
non nécessaire, pour que n soit pair.
2. si x est un réel, alors “x2 = 1” est une condition nécessaire, mais non suffisante, pour que x soit
égal à 1 ;
3. si x est un réel, les assertions “x3 = −1” et “x = −1” sont équivalentes.
Démonstration.
IV Méthodes de raisonnements
IV.1 Raisonnement par déduction
Propriété IV.1. Pour montrer l’implication A ⇒ B, on peut supposer que A est vraie et montrer alors que
B est vraie.
Pour montrer l’équivalence A ⇔ B, on peut montrer séparément que les implications A ⇒ B et B ⇒ A
sont vraies.
Pour prouver que A et B, on montre séparément que A et B sont vraies.
Pour prouver que A ou B, on peut supposer que A est fausse, et montrer alors que B est vraie.
Exemples IV.2.
1. L’utilisation d’exemple repose sur l’implication :
x ∈ E et A(x) ⇒ ∃x ∈ E, A(x).
Remarque IV.4. Les raisonnements par tables de vérités sont des raisonnements par disjonction de cas.
n(n+1)
Exemple IV.5. Montrer que, pour tout entier naturel n, le nombre 2
est un entier.
Exemple IV.7. Montrer que si n est un entier tel que n2 est pair, alors n est pair.
Remarque IV.9. Beaucoup de raisonnements par l’absurde peuvent être remplacés par des raisonnements
par contraposition (et inversement).
Exemple IV.13. Montrer que toute fonction réelle définie sur R s’écrit de manière unique comme somme
d’une fonction paire et d’une fonction impaire.
Soit f : R → R.
1. analyse : on suppose qu’il existe deux fonctions g, h : R → R telles que : g est paire, h est impaire
et f = g + h. Si x ∈ R, on a ainsi :
g(−x) = g(x)
h(−x) = −h(x)
f (x) = g(x) + h(x)
f (−x) = g(−x) + h(−x)
Théorème IV.15 (récurrence d’ordre k). Soit A(n) une assertion dépendant de n décrivant N, et k ∈ N∗ .
On suppose que :
— A(0), A(1), . . . , A(k − 1) sont vraies ;
— pour tout n ∈ N : (A(n − k + 1) et A(n − k + 2) et . . . et A(n)) ⇒ A(n + 1).
Alors A(n) est vraie pour tout n ∈ N.
Théorème IV.16 (récurrence forte). Soit A(n) une assertion dépendant de n décrivant N. On suppose que :
— A(0) est vraie ;
— pour tout n ∈ N : (A(0) et A(1) et . . . et A(n)) ⇒ A(n + 1).
Alors A(n) est vraie pour tout n ∈ N.
Exemple IV.17. Montrons par récurrence que pour tout n ∈ N : nk=1 k 2 = n(n+1)(2n+1)
P
6
.
— initialisation : si n = 0, on a :
0
n(n + 1)(2n + 1) X
=0= k2.
6 k=0
Pn n(n + 1)(2n + 1)
— hérédité : supposons que, pour un certain n ∈ N, on ait k=0 k2 = . Alors :
6
Pn+1 Pn n(n + 1)(2n + 1)
k=0 k2 = k 2 + (n + 1)2 =
k=0 + (n + 1)2
6
n(n + 1)(2n + 1) 6(n + 1)2 n+1
= + = [n(2n + 1) + 6(n + 1)]
6 6 6
n+1 (n + 1)(n + 2)(2n + 3)
= (2n2 + 7n + 6) =
6 6
(n + 1)(n + 1 + 1)(2(n + 1) + 1)
=
6
d’où la récurrence.
Exemple IV.18. On montrera, avec un récurrence forte que tout entier naturel non nul s’écrit de manière
unique comme produit de nombres premiers.
Chapitre 2
N⊂Z⊂D⊂Q⊂R⊂C
C
R
Q
D 22 i
Z 1 7 π
−7 2
N1 √
0 −2 1 2
2, 3 −2 + 3i
3
7
8 CHAPITRE 2. RAPPELS ET COMPLÉMENTS DE CALCULS
[a; b] = {x ∈ R | a ≤ x ≤ b}.
On dit qu’un ensemble non vide I de R est un intervalle s’il vérifie que :
∀a, b ∈ I, [a; b] ⊂ I.
Remarque II.2. Cela revient à dire qu’un intervalle contient tous les réels entre ses éléments.
Exemples II.3.
1. si a ∈ R, l’ensemble I = {a} est un intervalle : il est non vide, et si a, b ∈ I, et x ∈ [a; b], alors
a = b et ainsi : a ≤ x ≤ a, donc x = a appartient bien à I ;
2. tout segment est un intervalle : si I = [a; b] et a′ , b′ ∈ I alors :
x ∈ [a′ ; b′ ] ⇒ a′ ≤ x ≤ b′ ⇒ a ≤ a′ ≤ x ≤ b′ ≤ b ⇒ a ≤ x ≤ b ⇒ x ∈ I.
1
3. N n’est pas un intervalle car : 0 ∈ N et 1 ∈ N mais 2
∈ [0; 1] n’est pas dans N, donc on n’a pas
l’inclusion [0; 1] ⊂ N.
Proposition II.4. Tout intervalle non vide de R est d’une (et une seule) des formes suivantes, où a, b
désignent des réels tels que a < b :
1. {a} ;
2. [a; b] = {x ∈ R | a ≤ x ≤ b} ;
3. [a; b[= {x ∈ R | a ≤ x < b} ;
4. ]a; b] = {x ∈ R | a < x ≤ b} ;
5. ]a; b[= {x ∈ R | a < x < b} ;
6. [a; +∞[= {x ∈ R | a ≤ x} ;
7. ]a; +∞[= {x ∈ R | a < x} ;
8. ] − ∞; b] = {x ∈ R | x ≤ b} ;
9. ] − ∞; b[= {x ∈ R | x < b} ;
10. R.
Définition II.5. Les intervalles précédents définis par des inégalités strictes sont appelés des intervalles
ouverts. ◦
Plus généralement, si I est un intervalle, on appelle intérieur de I, noté I, l’intervalle I privé de ses
bornes.
◦
Remarque II.6. Prendre l’intérieur, c’est “ouvrir” l’intervalle : I est le pus grand intervalle ouvert inclus
dans I.
Remarques III.4.
1. on utilise les carrés parfaits pour simplifier les racines : 1, 4, 9, 16, 25, 36, . . . , 289, 324, 361, . . . ;
2. on évite de garder
√ des
√ racines
√ au
√ dénominateur
√ dans un quotient. On simplifie une fraction en
multipliant par a, a − b ou a + b pour les faire disparaı̂tre.
Exemples III.5.
√ √ √
1. 180 = 36 × 5 = 6 5 ;
r √
3 15
2. = ;
5 5
√ √
1 11 + 3
3. √ √ = .
11 − 3 8
10 CHAPITRE 2. RAPPELS ET COMPLÉMENTS DE CALCULS
Si x ̸= 0 et n ∈ Z− , on note : −n
n 1 1
x = = .
x | · ·{z
x · · · x}
n fois
Proposition III.7. Si x, y ∈ R et n, m ∈ N :
Remarque IV.2. La dernière proposition n’est en général pas une équivalence. Par exemple, pour une
fonction constante, l’égalité f (a) = f (b) est vérifiée peu importe la valeur de a et b.
De manière moins extrême, on verra que : cos(a) = cos(b) ⇔ a = ±b + 2kπ, k ∈ Z.
On a une équivalence si tout élément possède au plus un antécédent par f , comme dans l’exemple qui suit.
Proposition IV.4. La relation ≤ est compatible avec l’addition et la multiplication de la manière suivante :
1. si a, b, c, d ∈ R : (a ≤ b et c ≤ d) ⇒ a + b ≤ c + d ;
2. si a, b, c ∈ R avec c ≥ 0 : a ≤ b ⇒ ac ≤ bc ;
3. si a, b, c ∈ R avec c ≤ 0 : a ≤ b ⇒ bc ≤ ac ;
4. si a, b, c, d ∈ R : (0 < a ≤ b et 0 < c ≤ d) ⇒ 0 < ac ≤ bd.
Remarque IV.5. On ne divise ni ne soustrait des inégalités. On se ramène à des additions ou des multi-
plications en utilisant :
— si a, b ∈ R : a ≤ b ⇔ −b ≤ −a ;
1 1
— si a, b ∈ R∗ sont de même signe : a ≤ b ⇔ ≤ .
b a
Exemple IV.6. Supposons que a ∈ [1; 4] et b ∈ [1/2; 3]. Alors :
7
1. −3 ≤ −b ≤ −1/2 donc : −2 ≤ a − b ≤ 2
;
1 1 1 a
2. 3
≤ b
≤ 2 donc : 3
≤ b
≤ 8.
V. LA VALEUR ABSOLUE 11
a1 + · · · + an = 0 ⇔ a1 = · · · = an .
a1 + a2 + · · · + an ≥ ai0 > 0
donc a1 + · · · + an ̸= 0.
V La valeur absolue
Définition V.1. Si x ∈ R, on appelle valeur absolue de x, notée |x| le réel :
x si x ≥ 0
|x| =
−x si x < 0
|x ≤ y ⇔ 0 ≤ x ≤ y ⇔ −y ≤ 0 ≤ x ≤ y ⇔ −y ≤ x ≤ y.
|x| ≤ y ⇔ 0 ≤ −x ≤ y ⇔ −y ≤ x ≤ 0 ⇔ −y ≤ x ≤ y.
Remarques V.4.
1. si y < 0, alors les équivalences sont triviales (dans le sens où elles sont non seulement évidentes,
mais qu’en plus elles n’apportent rien comme information) :
— l’inégalité |x| ≤ y sera toujours fausse, de même que l’inégalité −y ≤ x ≤ y (car elle impliquerait
que −y ≤ y, qui est évidemment fausse) ;
— l’inégalité |x| ≥ y sera toujours vraie, comme le fait que x ≥ y ou que x ≤ −y. On a en effet :
x ≥ y ⇔ x ∈ [y; +∞[
x ≤ −y ⇔ x ∈] − ∞; −y]
et l’union de ces deux intervalles forme bien toute la droite des réels.
2. Si y ≥ 0, on a même : |x| ≤ y ⇔ x2 ≤ y 2 et |x| ≤ y ⇔ x2 ≤ y 2 .
Corollaire V.5. Si a, b ∈ R avec b > 0, l’ensemble des réels x tels que |x−a| ≤ b est le segment [a−b; a+b].
Définition V.6. Si x, y ∈ R, la quantité |x − y| est appelée distance entre x et y.
Remarque V.7. L’intervalle [a − b; a + b] correspond à l’ensemble des réels à distance au plus b de a.
Théorème V.8 (Inégalité triangulaire). Si x, y ∈ R, alors :
1. |x + y| ≤ |x| + |y| ;
2. ||x| − |y|| ≤ |x − y|.
De plus, il y a égalité dans les deux cas si, et seulement si, x et y sont de même signe.
Démonstration. 1. On utilise que −|x| ≤ x ≤ |x| et −|y| ≤ y ≤ |y|.
Donc : − (|x| + |y|) ≤ x + y ≤ |x| + |y|.
D’où : |x + y| ≤ |x| + |y|.
2. On utilise l’inégalité précédente :
avec égalité si, et seulement si, tous les xi sont de même signe.
4
|x|
3
−5 −4 −3 −2 −1 0 1 2 3 4 5
VI La partie entière
Théorème-Définition VI.1. Si x ∈ R, il existe un unique n ∈ Z tel que n ≤ x < n + 1.
L’entier n est appelé la partie entière de x, et est notée ⌊x⌋.
Remarque VI.3. La partie entière se lit bien sur les décimales pour les nombres positifs : ⌊1, 32⌋ = 1
mais ⌊−1, 32⌋ = −2.
1 2
Exemple VI.4. Si n ∈ N∗ avec n ≥ 2, alors : n + 1
n
= n2 + 2 + n2
.
2
Donc : n2 + 2 ≤ n + n1 < n2 + 3.
j 2 k
Et ainsi : n + n1 = n2 + 2.
4
⌊x⌋
3
−5 −4 −3 −2 −1 0 1 2 3 4 5
−1
−2
−3
−4
−5
On a l’équivalence : √ √
x−1≤ 2x2 − 5 ⇔ 0 ≤ x − 1 ≤ 2x2 − 5
On traite séparément les deux inéquations :
— 0 ≤ x − 1 ⇔ x ≥ 1 ⇔ x ∈ [1; +∞[= S1 ;
— x − 1 ≤ 2x2 − 5 ⇔ 0 ≤ 2x2 − x − 4 : on reconnaı̂t un trinôme du second degré, de coefficient
dominant positif, qui est donc √ positif à l’extérieur
√ de ses racines.
1 + 33 1 − 33
Ses racines sont x1 = et x2 = . Donc la deuxième inéquation a pour ensemble
√ 4 √ 4
solution
√
S2 =] − ∞; 1−√4
33
] ∪ [ 1+4 33 ; +∞[.
Comme 1−4 33 < 1 et que 1+4 33 > 1, on déduit que l’équation admet pour ensemble solution :
" √ "
1 + 33
S1 ∩ S2 = ; +∞ .
4
Remarque I.2. En général, une fonction sera donnée par une formule : auquel cas, son domaine de défi-
nition est là où la formule a bien un sens.
√
Exemple I.3. Considérons la fonction définie par f (x) = 4 − x2 .
Alors la formule f (x) n’a de sens que lorsque 4 − x2 ≥ 0, c’est-à-dire que Df = [−2; 2].
Définition I.6. Si f est une fonction définie sur D et A est une partie de R, on dit que f est à valeurs
dans A si : pour tout x ∈ D, f (x) ∈ A.
D → A D → R
On notera alors f : au lieu de f : .
x 7→ f (x) x 7→ f (x)
Exemple I.7. La fonction sin est à valeurs dans [−1; 1]. Sa restriction à [0; π] est à valeurs dans [0; 1].
Définition I.8. Soient f une fonction définie sur D et à valeurs dans A, et g une fonction définie sur A.
On dit alors que g et f sont composables, et on définit la composée de g et f comme la fonction notée
g ◦ f , définie sur D par :
D → R
g◦f : .
x 7→ g (f (x))
17
18 CHAPITRE 3. RAPPELS ET COMPLÉMENTS SUR LES FONCTIONS NUMÉRIQUES
Exemple I.9. La fonction√f : x 7→ x2 + 1 définie sur R est à valeurs dans [1; +∞[. Donc elle est composable
avec la fonction g : x 7→ x2 − 1. Et on a :
p p √
∀x ∈ R, g ◦ f (x) = (x2 + 1)2 − 1 = x2 (x2 + 2) = |x| x2 + 2.
Proposition I.10. Si f, g sont deux fonctions définies sur un même ensemble D, alors on peut définir les
fonctions :
D → R
1. somme de f et g, notée f + g, définie par : f + g : ;
x 7→ f (x) + g(x)
D → R
2. produit de f et g, notée f g, définie par : f g : .
x 7→ f (x) × g(x)
On définit de même, pour λ ∈ R, la fonction λf .
D → R
f f
Si g ne prend jamais de valeur nulle, on définit le quotient de f et g, notée , par : : f (x) .
g g x 7→
g(x)
3 3
2 2
1 1
−2 −1 0 1 2 3 −2 −1 0 1 2
−1 −1
−2 −2
−3 −3
∀x ∈ D, f (x) ≤ M
Exemples I.18.
1. la fonction x 7→ x2 est minorée (elle admet même 0 pour minimum), mais n’est pas majorée ;
2. la fonction x 7→ ex est minorée (par 0), mais non majorée ; et elle n’admet pas de minimum ;
3. la fonction x 7→ sin(x) est bornée ; elle admet 1 comme maximum et −1 comme minimum, qui sont
respectivement atteints en tous les π2 + 2kπ et − π2 + 2kπ, pour k ∈ Z.
Remarque I.19. Graphiquement, cela se voit : la courbe de f est limitée en ordonnée (vers le haut, vers
le bas ou les deux).
D → R
Proposition I.20. La fonction f : D → R est bornée si, et seulement si, la fonction |f | :
x 7→ |f (x)|
est majorée.
Démonstration.
— si |f | est majorée par M : alors pour tout x ∈ R, on a : |f (x)| ≤ M , et donc : −M ≤ f (x) ≤ M ,
donc f est bornée (minorée par −M et majorée par M ) ;
— réciproquement
: si f est minorée par m et majorée par M , alors : ∀x ∈ D, m ≤ f (x) ≤ M . Et
f (x) ≤ M
donc : donc |f | est majorée par max(M, −m).
−f (x) ≤ −m
I.4 Monotonie
Définition I.21 (Fonction monotone). Si f est définie sur D, on dit que f est :
1. croissante si pour tous x, y ∈ D : x ≤ y ⇒ f (x) ≤ f (y) ;
2. strictement croissante si pour tous x, y ∈ D : x < y ⇒ f (x) < f (y) ;
3. décroissante si pour tous x, y ∈ D : x ≤ y ⇒ f (x) ≥ f (y) ;
4. strictement décroissante si pour tous x, y ∈ D : x < y ⇒ f (x) > f (y) ;
5. monotone si elle est croissante ou décroissante ;
6. strictement monotone si elle est strictement croissante ou strictement décroissante.
Exemples I.22.
1. La fonction exp est croissante sur R.
20 CHAPITRE 3. RAPPELS ET COMPLÉMENTS SUR LES FONCTIONS NUMÉRIQUES
1
2. La fonction x 7→ est décroissante sur R∗− et sur R∗+ : elle n’est en revanche pas décroissante sur
x
R∗ car :
1 1
−1 < 1 et = −1 ≤ 1 = .
−1 1
3. La fonction x 7→ x2 est :
— strictement décroissante sur R− car :
0 ≤ x < y ⇒ 0 ≤ x2 < y 2
où dans chaque cas on a multiplié par elle-même une inégalité dont tous les termes étaient positifs
(ce qui est parfaitement licite).
Remarque I.24. La monotonie se comporte assez mal avec la somme, mais très mal avec les produits.
Proposition I.25. Si f et g sont deux fonctions composables monotones, alors g ◦ f est aussi monotone,
et elle est :
1. croissante si f et g ont même monotonie ;
2. décroissante si f et g sinon.
De plus, si f et g sont strictement monotones, alors g ◦ f aussi.
Remarque I.26. Dans le cas de stricte monotonie, on a bien besoin de la stricte monotonie de f et de g.
Par exemple, si f ou g est constante, alors f ◦ g est constante donc ne peut pas être strictement monotone.
Démonstration.
Soient x, y ∈ D avec x ≤ y :
— si f est croissante : alors : f (x) ≤ f (y) et donc :
— si g est croissante : g(f (x)) ≤ g(f (y)) donc g ◦ f est croissante ;
— si g est décroissante : g(f (x)) ≥ g(f (y)) donc g ◦ f est décroissante ;
— si f est décroissante : alors : f (x) ≥ f (y) et donc :
— si g est croissante : g(f (x)) ≥ g(f (y)) donc g ◦ f est décroissante ;
— si g est décroissante : g(f (x)) ≤ g(f (y)) donc g ◦ f est croissante ;
Ce qui montre bien les cas de monotonie.
La stricte monotonie de montre de la même manière, en considérant partout des inégalités strictes.
I.5 Bijections
Définition I.27. Si I et J sont deux parties de R, on dit qu’une fonction f : I → J réalise une bijection
de I sur J si tout élément de J admet un unique antécédent par f dans I.
On note alors f −1 la fonction définie sur J qui à tout y ∈ J associe son unique antécédent par f .
La fonction f −1 est appelée bijection réciproque de f .
Exemple I.28.
I. GÉNÉRALITÉS SUR LES FONCTIONS 21
et donc :
— si y = 1 : y n’a pas d’antécédent ;
— si y ̸= 1 : y a pour unique antécédent x = 2y+1
y−1
.
Donc f n’est pas bijective de R \ {2} sur R. Mais elle l’est de R \ {2} sur R \ {1}, et sa bijection
réciproque est :
−1 R \ {1} → R \ {2}
f : 2y+1
y 7→ y−1
Définition I.29. Si I est une partie de R, on définit la fonction identité sur I, notée idI , la fonction
définie sur I par : ∀x ∈ I, idI (x) = x.
Proposition I.30. Si f : I → J est bijective, alors :
1. f ◦ f −1 = idJ ;
2. f −1 ◦ f = idI ;
−1
3. f −1 réalise une bijection de J sur I, avec (f −1 ) = f.
Démonstration.
1. si y ∈ J, comme f −1 (y) est un antécédent de y par f (c’est même le seul), alors f (f −1 )(y) = y ;
2. si x ∈ I, alors f (x) est l’image de x par f , donc x est l’unique antécédent de f (x) ; mais f −1 (f (x))
aussi, donc x = f −1 (f (x)) ;
3. soit x ∈ I et y ∈ J un antécédent de x par f −1 : alors f −1 (y) = x. Et donc, en composant par f :
f (x) = y, donc nécessairement y = f (x), ce qui assure l’unicité d’un antécédent.
Mais f −1 (f (x)) = x, donc f (x) est bien un antécédent de x, ce qui assure l’existence.
Donc f −1 est bien bijective, et comme f (x) est l’unique antécédent de x par f −1 , alors (f −1 )−1 = f .
Proposition I.31. Si f est strictement monotone sur I, alors f réalise une bijection de I sur J = f (I) =
{f (x) | x ∈ I}.
De plus, sa réciproque f −1 a même monotonie que f .
Démonstration. Supposons par exemple que f est strictement croissante.
Soit y ∈ J : alors il existe x ∈ I tel que f (x) = y par définition de J, donc y a un antécédent.
Soient x1 , x2 sont deux antécédents de y. Si x1 < x2 , alors y = f (x1 ) < f (x2 ) = y par monotonie, ce qui
est impossible. Donc x1 = x2
Donc y a un unique antécédent, et f est bijective.
22 CHAPITRE 3. RAPPELS ET COMPLÉMENTS SUR LES FONCTIONS NUMÉRIQUES
Remarque I.32. Une bijection n’est pas nécessairement monotone. Mais si elle est monotone, elle l’est
strictement.
3. et 4. en exercices
Remarque II.2. Il faut bien faire attention au signe “−” et au fait qu’il faut diviser par a dans les cas 2 et
4. Par exemple, pour le cas 2, on représente ci-dessous la fonction x 7→ x2 et x 7→ (x + 1)2 : la deuxième
→
−
est bien l’image de la première par la translation de vecteur − i .
x 7→ (x + 1)2 3 x 7→ x2
−5 −4 −3 −2 −1 0 1 2 3 4
Remarques II.4.
1. On peut étendre les définitions à des fonctions définies sur D ⊂ R : il faudra faire attention que
−x ∈ D ou que x + T ∈ D.
2. Une fonction T -périodique est aussi (kT )-périodique pour tout k ∈ Z. Et il sera plus intéressant de
chercher un T aussi petit que possible.
Proposition II.7. Toute fonction f définie sur R s’écrit de manière unique comme somme d’une fonction
paire g et d’une fonction impaire h.
f (x) + f (−x) f (x) − f (−x)
Plus précisément, g et h sont définie par : ∀x ∈ R, g(x) = et h(x) = .
2 2
Démonstration. Voir chapitre 1.
(x, y) ∈ Cf ⇔ y = f (x)
⇔ y = f (a − (a − x))
⇔ y = g(a − x)
⇔ (a − x, y) ∈ Cg
Et donc Cg est l’image par Cf de l’application (x, y) 7→ (a − x, y), qui n’est autre que la symétrie
axiale considérée.
Comme f = g, on déduit la symétrie pour f .
2. On considère g : x 7→ b − f (a − x). Alors :
(x, y) ∈ Cf ⇔ y = f (x)
⇔ y = f (a − (a − x))
⇔ b − y = b − f (a − (a − x))
⇔ b − y = g(a − x)
⇔ (a − x, b − y) ∈ Cg
Et donc Cg est l’image par Cf de l’application (x, y) 7→ (a − x, b − y), qui n’est autre que la symétrie
centrale considérée.
Comme f = g, on déduit la symétrie pour f .
24 CHAPITRE 3. RAPPELS ET COMPLÉMENTS SUR LES FONCTIONS NUMÉRIQUES
Proposition II.9. Si f est bijective, alors le graphe de f −1 est l’image du graphe de f par la symétrie par
rapport à la droite d’équation y = x.
Remarque II.10. Les symétries permettent de réduire l’ensemble d’étude de f (c’est-à-dire l’ensemble
sur lequel on va étudier f pour pouvoir la connaı̂tre entièrement) :
— si f a une symétrie (axiale ou centrale), on peut “couper en deux” l’ensemble de définition ;
— si f est T -périodique : on peut restreindre l’ensemble sur un intervalle (quelconque) de longueur T .
Exemple II.11. Commençons l’étude de la fonction définie sur R par f (x) = cos(x)sin(x)3 . Alors f vérifie
pour tout x ∈ R :
— f (2π + x) = cos(2π + x)sin(2π + x)3 = cos(x)sin(x)3 = f (x), donc f est 2π-périodique ;
— f (−x) = cos(−x)sin(−x)3 = −cos(x)sin(x)3 = −f (x), donc f est impaire ;
— f (π − x) = cos(π − x)sin(π − x)3 = −cos(x)sin(x)3 = −f (x), donc Cf est symétrique par rapport
π
au point ( , 0).
2 h πi
Donc on peut se contenter d’étudier f sur l’intervalle 0; . On remonte alors à Cf sur R entier en
2
π
faisant une symétrie centre par rapport à ( , 0), puis une symétrie par rapport à l’axe des ordonnées, puis
→
− 2
des translations de ±2π i .
II.2 Asymptotes
Définition II.12. Soit f définie sur un intervalle de la forme ]A; +∞[ (resp. ] − ∞; A[).
On dit que la droite ∆ d’équation y = ax + b est asymptote à Cf en +∞ (resp. en −∞) si lim (f (x) −
x→+∞
(ax + b)) = 0 (resp. lim (f (x) − (ax + b)) = 0).
x→−∞
On parle d’asymptote horizontale lorsque a = 0, et d’asymptote oblique sinon.
On dit que la droite D d’équation x = A est asymptote à Cf si lim+ f (x) = ±∞ (resp. lim− f (x) = ±∞).
x→A x→A
On parle alors d’asymptote verticale.
lim f (x) = a
x→+∞ x
lim (f (x) − ax) = b
x→+∞
et pareil en −∞.
Remarques II.14.
1. ce résultat permet de chercher l’équation d’une asymptote en cherchant séparément (et dans cet
ordre) le coefficient directeur (c’est-à-dire a) et l’ordonnée à l’origine (c’est-à-dire b).
f (x)
2. Si jamais lim = ±∞ on a une branche parabolique d’axe vertical, comme c’est par exemple
x→+∞ x
le cas pour les fonctions x 7→ ex ou x 7→ x2 .
Remarque II.15. Ce résultat assure l’unicité de l’asymptote. On l’utilise en pratique pour trouver une
f (x)
asymptote, en cherchant d’abord la limite de , puis celle de f (x) − ax.
x
f (x)
Si jamais lim = a mais que lim (f (x) − ax) = ±∞, on a alors un branche parabolique oblique
x→+∞ x x→+∞
d’axe ∆ : y = ax.
x3 + 2x2
Exemple II.16. On considère la fonction f définie sur R par : f (x) = 2 .
x +1
2
f (x) 3
x + 2x 2 1 +
— pour x ̸= 0 : = 3 = x → 1;
x x +x 1 x→±∞
1+ 2
x
1
3 2
x + 2x − x − x3 2
2x − x 2 −
— f (x) − x = = 2 = x → 2
2
x +1 x +1 1 x→±∞
1+ 2
x
donc la droite D d’équation y = x + 2 est asymptote à Cf en ±∞.
4 D
3 Cf
−5 −4 −3 −2 −1 0 1 2 3 4
−1
−2
−3
III.1 Continuité
Définition III.1. Si f est une fonction définie sur un intervalle I, et a ∈ I, on dit que f est continue en
a si : lim f (x) = f (a).
x→a
Si f est continue en tout point a ∈ I, on dira qu’elle est continue sur I.
Proposition-Définition III.2. Soient I est un intervalle, a ∈ I, et f définie sur I \{a} telle que : lim f (x) =
x→a
b ∈ R. Alors f est prolongeable par continuité en a.
La fonction g définie sur I par :
f (x) si x ̸= a
∀x ∈ I, g(x) =
b si x = b
est un prolongement de f continu en a.
ex − 1
Exemple III.3. La fonction f : x 7→ est prolongeable par continuité en 0, car : lim f (x) = 1, en
x x→0
reconnaissant la limite du taux d’accroissement de la fonction exponentielle entre x et 0.
Théorème III.4 (Théorème des valeurs intermédiaires). L’image d’un intervalle par une fonction continue
est un intervalle.
Remarque III.5. C’est bien cohérent avec le théorème vu au lycée : considérons f continue sur un intervalle
I, x, y ∈ I, et J l’ensemble des images.
Alors a = f (x), b = f (y) ∈ J. Comme J est un intervalle, cela veut dire que tout élément entre a et b est
dans J, donc a un antécédent dans I.
Autrement dit : pour tout k entre a et b, il existe z tel que f (z) = k.
2. la fonction f : x 7→ |x| n’est pas dérivable en 0, car son taux d’accroissement en 0 est :
|x| − |0| |x| 1 si x > 0
τ0 (x) = = =
x−0 x −1 si x < 0
1
√
x
0 1 2 3 4
Proposition III.12. Si f, g sont dérivables sur I, et λ ∈ R, alors on a les fonctions dérivées suivantes :
1. (f + λg)′ = f ′ + λg ′ (la dérivation est linéaire) ;
2. (f g)′ = f ′ g + f g ′ ;
′
1 g′
3. si g ne s’annule pas : =− 2;
g g
′
f f g − f g′
′
4. si g ne s’annule pas : = .
g g2
Théorème III.13. Soient I, J deux intervalles, f : I → J et g : J → R deux fonctions dérivables.
Alors la fonction g ◦ f est dérivable, de dérivée :
′ ′ ′ I → R
(g ◦ f ) = f × g ◦ f : .
x 7→ f ′ (x) × g ′ (f (x))
u′
4. si u est à valeurs strictement positives, ln(u) : x 7→ ln(u(x)) est dérivable avec : (lnu)′ = .
u
Démonstration. On utilise la dérivée d’une composée.
Remarque III.15. On peut renforcer le dernier résultat : si u ne s’annule pas, alors ln(|u|) est dérivable
u′
avec (ln(|u|))′ = .
u
2
Exemple III.16. La fonction f : x 7→ (ln(x2 + 1)) est dérivable sur R :
— comme u : x 7→ x2 + 1 est dérivable et positive sur R, alors ln(u) est dérivable sur R, de dérivée :
u′ (x) 2x
x 7→ = 2 ;
u(x) x +1
— donc f = (ln(u))2 est dérivable sur R, avec pour tout x ∈ R :
4x
f ′ (x) = × ln(x2 + 1).
x2 + 1
Proposition III.18. Si de plus f ′ ne s’annule qu’un nombre fini de fois sur I, alors f est strictement
monotone.
1
Remarque III.19. Le résultat ne tient pas si I n’est pas un intervalle. Par exemple la fonction f : x 7→
x
′ 1 ∗
a pour dérivée f : x 7→ − 2 qui est toujours négative, mais n’est pas décroissante sur R .
x
Exemple III.20. Reprenons la fonction f définie sur R par f (x) = cos(x)sin(x)3 : elle est dérivable sur R,
de dérivée en x :
f ′ (x) = −sin(x)4 + 3cos(x)2 sin(x)2 = sin(x)2 4cos(x)2 − 1
h πi
donc on déduit que sur 0; :
2
π
— f ′ s’annule en 0 et ;
3 i πh
′
— f est strictement positive sur 0; ;
i π 3π i
— f ′ est strictement négative sur ; .
3 2
D’où les variations suivantes :
x 0 π/3 π/2
f′ 0 + 0 −
√
3 3
f 16
0 0
0.4
0.2
| | | | |
−2π −π 0 π/2 π 2π
−0.2
−0.4
Corollaire III.21. Soit f une fonction dérivable sur un intervalle I. Alors f est constante si, et seulement
si, f ′ est nulle.
Démonstration. Si f est constante, son taux d’accroissement est toujours nul, donc sa dérivée aussi.
Si f ′ est nulle, alors f est à la fois croissante et décroissante. Ainsi, si x, y ∈ I avec x ≤ y, alors : f (x) ≤ f (y)
et f (x) ≥ f (y), donc f (x) = f (y) et f est constante.
Remarque III.24. Comme une fonction dérivable est continue, les fonctions de classe C ∞ sont exactement
les fonctions infiniment dérivables.
2 1
x sin si x ̸= 0
Exemple III.25. La fonction x 7→ x est définie et dérivable sur R, mais sa dérivée
0 si x = 0
n’est pas continue en 0.
Exemple III.27. Si a, b ∈ R avec a < b et que f est continue strictement croissante sur [a; b], alors
f ([a; b]) = [f (a); f (b)]. Et pour tout élément c ∈ [f (a); f (b)], l’équation f (x) = c admet une unique
solution (dans [a; b]).
Remarque III.28. C’est en fait une amélioration du TVI, dans le sens où les antécédents sont uniques.
Théorème III.29 (dérivabilité des fonctions réciproques). Soit f est continue strictement monotone sur
◦
un intervalle I et x ∈ I. On suppose que f est dérivable en x, et on pose y = f (x). Alors :
′ 1 1
1. si f ′ (x) ̸= 0 : f −1 est dérivable en y, avec (f −1 ) (y) = ′ = ′ ;
f (x) f ◦ f −1 (y)
2. si f ′ (x) = 0 : f −1 n’est pas dérivable en y, et Cf −1 admet une tangente verticale en (y, x).
Remarque III.30. On retrouve graphiquement le résultat avec les tangentes : si D est une droite de pente
1
a ̸= 0, sa symétrique par rapport à la première bissectrice est une droite de pente .
a
1 √
x
x2
0 1 2 3
Corollaire III.31. Si I, J sont deux intervalles, f bijective de I sur J, dérivable sur I, et que f ′ ne s’annule
′ 1
pas sur I, alors f −1 est dérivable sur J avec : (f −1 ) = ′ .
f ◦ f −1
Exemple III.32. La fonction f : x 7→ x2 est dérivable sur R+ de dérivée : x 7→ 2x.
En particulier, f ′ est positive ou nulle sur R+ , ne s’annulant qu’en 0, donc f réalise une bijection stric-
tement croissante de R+ sur f (R+ ) = R+ .
√
Sa bijection réciproque est la fonction racine : f −1 : y 7→ y, qui vérifie :
√
— si y ̸= 0 : alors en notant x = y, on a f ′ (x) = 2x ̸= 0, donc f −1 est dérivable en y, avec :
′ 1 1
f −1 (y) = = √
f′ −1
◦ f (y) 2 y
f (x) Df f ′ (x) Df ′
c (c ∈ C) R 0 R
xn (n ∈ N∗ ) R nxn−1 R
xn (n ∈ Z∗− ) R∗ nxn−1 R∗
1 1
cas particulier : R∗ − 2 R∗
x x
xα (α ∈]1; +∞[\N) R+ αxα−1 R+
xα (α ∈]0; 1[) R+ αxα−1 R∗+
√ 1
cas particulier : x R+ √ R∗+
2 x
xα (α ∈ R∗− \ Z) R∗+ αxα−1 R∗+
ex R ex R
ax (a ∈ R∗+ ) R ln(a)ax R
1
ln(x) R∗+ R∗+
x
1
logb (x) (b ∈ R∗+ ) R∗+ R∗+
xln(b)
sin(x) R cos(x) R
cos(x) R − sin(x) R
π 1 π
tan(x) R\ + πZ 1 + tan2 (x) = R\ + πZ
2 cos2 (x) 2
1
arcsin(x) [−1, 1] √ ] − 1, 1[
1 − x2
1
arccos(x) [−1, 1] −√ ] − 1, 1[
1 − x2
1
arctan(x) R R
1 + x2
ch(x) R sh(x) R
sh(x) R ch(x) R
1
th(x) R 1 − th2 (x) = 2 R
ch (x)
32 CHAPITRE 3. RAPPELS ET COMPLÉMENTS SUR LES FONCTIONS NUMÉRIQUES
Chapitre 4
Ensembles et relations
I Appartenance et inclusion
Définition I.1. Un ensemble est une collection d’objets. Chacun des objets est appelé élément. Si x est
un élément de l’ensemble E, on notera x ∈ E, qui se lit “x appartient à E”. Inversement, si y n’est pas un
élément de E, on notera y ∈
/ E, qui se lit “y n’appartient pas à E”.
Définition I.2. Si E et F sont deux ensembles, on dira que F est une partie (ou un sous-ensemble) de
E, ou que F est inclus dans E, si tout élément de F est un élément de E. On notera alors : F ⊂ E.
Remarque I.3. Un ensemble E peut être décrit en extension (on énumère les éléments) ou en com-
préhension (on donne une propriété satisfaite par les éléments). Par exemple, l’ensemble E des entiers
naturels plus petits que 3 peut s’écrire :
— en extension : E = {0; 1; 2} ;
— en compréhension : X = {n ∈ N | n < 3}.
Définition I.4. On dit que deux ensembles E et F sont égaux s’ils ont exactement les mêmes éléments,
et on note alors E = F .
Proposition I.5. Les ensembles E et F sont égaux si, et seulement si, on a les inclusions E ⊂ F et F ⊂ E.
Proposition-Définition I.7. On appelle ensemble vide, que l’on note ∅, l’ensemble ne contenant aucun
élément.
L’ensemble vide est sous-ensemble de tout autre ensemble, et il est unique.
Démonstration. Si A est un ensemble vide, et E un ensemble, comme A ne contient aucun élément, tout
élément de A est dans E : donc A ⊂ E.
Si B est un autre ensemble vide, alors : A ⊂ B et B ⊂ A, donc A = B.
Définition I.8. Un ensemble possédant un seul élément est appelé singleton, et on le note {a}.
Définition I.9. Si E est un ensemble, on notera P(E) l’ensemble de toute les parties de E, c’est-à-dire
que :
F ∈ P(E) ⇔ F ⊂ E.
P(E) = {∅; {1}; {2}; {3}; {1; 2}; {1; 3}; {2; 3}; {1; 2; 3}}.
33
34 CHAPITRE 4. ENSEMBLES ET RELATIONS
A = {x ∈ E | x ∈
/ A};
2. l’intersection de A et B est :
A ∩ B = {x ∈ E | x ∈ A et x ∈ B};
A ∪ B = {x ∈ E | x ∈ A ou x ∈ B};
4. la différence de A et B est :
A − B = {x ∈ E | x ∈ A et x ∈
/ B} = A ∩ B;
A∆B = {x ∈ E | x ∈ A ∪ B et x ∈
/ A ∩ B} = A ∪ B − A ∩ B = (A − B) ∪ (B − A).
E E E
A A∩B A∪B
A B A B A B
E E
A\B A∆B
A B A B
Remarque II.2. Plus généralement, les diagrammes de Venn permettent de mieux comprendre des en-
sembles, en permettant de visualiser séparément des différents éléments selon leur appartenance à chaque
ensemble considéré. Cette méthode devient rapidement compliquée lorsque l’on prend beaucoup d’ensembles.
Par exemple, on donne ci-dessous les diagrammes de Venn génériques pour 3 et 5 ensembles :
III. PARTITIONS 35
E A∩B E
A B
A∩B∩C
A∩C B∩C
Ensembliste Logique
Ensemble : A Assertion : x ∈ A
Inclusion : A ⊂ B Implication : x ∈ A ⇒ x ∈ B
Égalité : A = B Équivalence : x ∈ A ⇔ x ∈ B
Complémentaire : A Négation : ¬ (x ∈ A)
Union : A ∪ B Disjonction : x ∈ A ∨ x ∈ B
Intersection : A ∩ B Conjonction : x ∈ A ∧ x ∈ B
III Partitions
Définition III.1. Si A, B sont deux ensembles, on dit qu’ils sont disjoints si : A ∩ B = ∅.
∀x ∈ E, ∃A ∈ P, x ∈ A
∀x ∈ E, ∃!A ∈ P, x ∈ A.
Exemples III.4. L’ensemble {[n; n + 1] | n ∈ Z} est un recouvrement de R, mais pas une partition. On peut
voir par exemple que [0; 1] ∩ [1; 2] = {1} =
̸ ∅.
En revanche, l’ensemble {[n; n + 1[ | n ∈ Z} est une partition de R. Plus précisément, si x ∈ R, on a :
IV Produits cartésiens
Définition IV.1. Si E, F sont deux ensembles, on définit le produit cartésien de E par F par :
E × F = {(x, y) | x ∈ E et y ∈ F }.
E1 × · · · × En = {(x1 , . . . , xn ) | x1 ∈ E1 , . . . , xn ∈ En }.
En particulier, si E1 = · · · = En = E, on note :
E × · · · × E = E n.
Remarque IV.2. Il faut bien prendre garde aux notations, pour ne pas confondre le couple (x, y) avec la
paire {x, y}.
Exemple IV.3. Un repère permet d’identifier chaque point du plan au couple de ses coordonnées, et ainsi
d’identifier le plan à R2 .
V Relations binaires
V.1 Généralités sur les relations binaires
Définition V.1. Si E est un ensemble, une relation binaire sur E est un sous ensemble R de E × E. Si
(x, y) ∈ R, on notera alors : xRy.
Définition V.2. Soit R une relation binaire sur E. On dit que R est :
1. réflexive si : ∀x ∈ E, xRx ;
2. symétrique si : ∀x, y ∈ E, xRy ⇒ yRx ;
xRy
3. antisymétrique si : ∀x, y ∈ E, ⇒ x = y;
yRx
xRy
4. transitive si : ∀x, y, z ∈ E, ⇒ xRz.
yRz
Exemples V.3. 1. la relation de divisibilité sur Z : xRy ⇔ x|y. Elle est :
— réflexive : tout entier se divise lui-même ;
— transitive : si a divise b et b divise c, alors a divise c ;
V. RELATIONS BINAIRES 37
Remarque V.8. On pouvait déjà vérifier que, par réflexivité, les classes d’équivalences sont non vides. En
effet, si x ∈ E, alors x ∈ x.
Exemples V.9.
1. La relation définie sur E par : xRy ⇔ x = y est une relation d’équivalence dont les classes sont les
singletons de E.
2. Soit n ∈ N∗ . La relation définie sur Z par : xRy ⇔ (x − y) est un multiple de n est une relation
d’équivalence, dont les classes sont appelée classes de congruences modulo n. Il y a n classes de
congruences, à savoir 0, 1, . . . , n − 1. On notera alors x ≡ y [n] au lieu de xRy.
3. Si α ∈ R∗ , la relation de congruence modulo α sur R est la relation d’équivalence définie par :
xRy ⇔ (x − y) est un multiple entier de α. Si xRy, on notera alors : x ≡ y [α].
4. la relation d’équivalence dont les classes sont les [n; n + 1[ est définie par : xRy ⇔ ⌊x⌋ = ⌊x⌋y.
Plus généralement, si f est une fonction définie sur un ensemble E, la relation définie par : xRy ⇔
f (x) = f (y) est une relation d’équivalence.
38 CHAPITRE 4. ENSEMBLES ET RELATIONS
Démonstration. On procède par contraposée : soit A une partie de N ne possédant pas de minimum ;
montrons alors que A est vide.
Par récurrence sur n ∈ N, montrons que n ∈ /A:
— initialisation : 0 ∈ / A, car sinon ce serait le plus petit élément de A ;
— hérédité : soit n ∈ N tel que aucun des entiers de J0; nK ne soit dans A. Alors n + 1 ∈
/ A, car sinon
ce serait le plus petit élément de A.
D’où la récurrence, ce qui conclut la preuve.
Remarque V.20. En fait, ce résultat repose sur le principe de récurrence, qu’on a admis, mais on pourrait
procéder dans l’autre sens : on admet ce théorème (on le pose comme un axiome), et on peut montrer
alors que le principe de récurrence est vrai.
Proposition V.21. Toute partie non vide et majorée de N possède un plus grand élément.
Corollaire V.22. Toute partie non vide et majorée de Z possède un plus grand élément.
Applications
I Notion d’application
Définition I.1. Si E, F sont deux ensembles, une application f de E vers F est la donnée, pour tout
élément x de E, d’un unique élément y de F , que l’on note f (x).
On note alors l’application f par :
E → F f
f: ou E → F.
x 7→ f (x)
A a
b
B b
a
C c
E
A B C
Diagramme sagittaire. Diagramme cartésien.
Remarque I.4. Une (même) application peut être définie de différentes manières. Par exemple, la fonction
valeur absolue peut être définie sur R :
41
42 CHAPITRE 5. APPLICATIONS
√
1. explicitement : |x| = x2 ;
x si x ≥ 0
2. par disjonction de cas : |x| = ;
−x sinon
3. implicitement : |x| est l’unique solution positive ou nulle de l’équation : y 2 = x2 .
Définition I.5. Soit E un ensemble.
On appelle application identité de E l’application de E dans E définie par x 7→ x, et on la note IdE .
Si A est une partie de E, on définit la fonction indicatrice de A comme l’application de E dans {0; 1},
notée 1A , et définie par :
0 si x ∈/A
1A : x 7→
1 si x ∈ A
Proposition I.6. Soit E un ensemble et A, B deux parties de E :
1. 1A∩B = 1A · 1B ;
2. 1A = 1 − 1A ;
3. 1A∩B = 1A + 1B − 1A∪B .
4. A ⊂ B ⇔ 1A ≤ 1B .
Démonstration. Par disjonction de cas.
Définition I.7. Si f : E → F est une application, et (x, y) ∈ E × F tel que f (x) = y. On dit que :
1. y est l’image de x par f ;
2. x est un antécédent de x par f
Remarque I.8. L’image d’un élément de E est toujours unique. En revanche, un élément de F peut très
bien ne posséder aucun antécédent, ou un seul, ou même une infinité.
Définition I.9. Si E et I sont des ensembles, on appelle famille d’éléments de E indexés par I une
application x de I sur E. On notera alors xi pour désigner x(i). Et la famille x sera notée (xi )i∈I .
Exemple I.10. Une suite réelle (un )n∈N est une famille de réels indexés par N.
Définition I.11. Si f ∈ F(E, F ), et A une partie non vide de E, on définit la restriction de f à A comme
l’application de A sur F coı̈ncidant avec f , c’est-à-dire :
A → F
f |A : .
x 7→ f (x)
Inversement, si f ∈ F(E, F ) et g ∈ F(A, F ) vérifient que f |A = g, on dit que f est un prolongement
de g.
Enfin, si B est une partie de F telle que f est à valeurs dans B, on appelle corestriction comme
l’application de E sur B coı̈ncidant avec f , c’est-à-dire :
B E → B
f| : .
x 7→ f (x)
Définition I.12. Si E, F, G sont trois ensembles, f ∈ F(E, F ) et g ∈ F(F, G), on définit la composée de
g et f , notée g ◦ f , comme l’application de E dans G définie par :
∀x ∈ E, (g ◦ f )(x) = g (f (x)) .
Remarque I.13. Si f ∈ F(E, E) et n ∈ N, on notera f n = f ◦ f ◦ · · · ◦ f (avec la convention que f 0 = idE ).
| {z }
n fois
Proposition I.14. La composition est associative : si f ∈ F(E, F ), g ∈ F(F, G) et h ∈ F(G, H), alors :
(h ◦ g) ◦ f = h ◦ (g ◦ f ).
II. IMAGE DIRECTE ET IMAGE RÉCIPROQUE 43
Remarque II.2. Les images directes et réciproques correspondent aux assertions suivantes :
y ∈ f (A) ⇔ ∃x ∈ A, f (x) = y
x ∈ f −1 (B) ⇔ f (x) ∈ B
Définition II.3. Si f ∈ F(E, F ), on appelle image de f , notée Im(f ), l’image directe de E par f :
y ∈ f (A) ⇒ ∃x ∈ A, f (x) = y
⇒ ∃x ∈ B, f (x) = y
⇒ y ∈ f (B)
y ∈ f (A ∪ B) ⇒ ∃x
∈ A ∪ B, f (x) = y
∃x ∈ A, f (x) = y
⇒
ou ∃x ∈ B, f (x) = y
y ∈ f (A)
⇒
ou y ∈ f (B)
⇒ y ∈ (f (A) ∪ f (B))
x ∈ f −1 (C ∪ D) ⇔ f(x) ∈ C ∪ D
f (x) ∈ C
⇔
ou f (x) ∈ D
x ∈ f −1 (C)
⇔
ou x ∈ f −1 (D)
⇔ x ∈ (f −1 (C) ∪ f −1 (D))
x ∈ f −1 (C ∩ D) ⇔ f(x) ∈ C ∩ D
f (x) ∈ C
⇔
et f (x) ∈−1D
x ∈ f (C)
⇔
et x ∈ f −1 (D)
⇔ x ∈ (f −1 (C) ∩ f −1 (D))
x ∈ f −1 (C − D) ⇔ f(x) ∈ C − D
f (x) ∈ C
⇔
et f (x) ∈
/D
x ∈ f −1 (C)
⇔
et x ∈/ f −1 (D)
⇔ x ∈ (f (C) − f −1 (D))
−1
III. INJECTIONS, SURJECTIONS, BIJECTIONS 45
Remarque II.8. La plupart des implications précédentes sont en fait des équivalences, et donc les quelques
raisonnements par double inclusion pourraient se traiter par équivalence.
Il faut tout de même faire attention aux quantificateurs qui ne passent pas toujours très bien aux équiva-
lences, comme justement au point 3 où l’implication suivante n’est pas une équivalence :
∃x ∈ A, f (x) = y
[∃x ∈ A ∩ B, f (x) = y] ⇒ .
et ∃x ∈ B, f (x) = y
R → R
Remarque II.9. Pour le cas d’inclusion seule, on peut reprendre f : . Avec A = R∗− et
x 7→ x2
B = R∗+ , on a f (A) = f (B) = R∗+ , et donc :
∀y ∈ F, ∃!x ∈ E, f (x) = y.
On peut alors définir l’application réciproque de f , notée f −1 , qui est l’unique application définie par :
−1 F → E
f : .
y 7→ x l’unique antécédent de y par f
−1
Et on a alors : f ◦ f −1 = idF , f −1 ◦ f = idE , et f −1 est bijective avec (f −1 ) = f.
Exemples III.5. 1. la fonction idE : E → E est bijective, d’inverse elle-même ;
R → R
2. si a, b ∈ R, la fonction f : est bijective si, et seulement si, a ̸= 0, et son inverse
x 7→ ax + b
est alors la fonction définie sur R par : f −1 (y) = y−b
a
. On a en fait le résultat plus fort suivant :
Pour le montrer, on peut voir que toutes les assertions sont équivalentes au fait que a ̸= 0 :
46 CHAPITRE 5. APPLICATIONS
— si a ̸= 0 : alors f est bijective (on a même donné sa réciproque précédemment), donc f est
injective et surjective ;
— si a = 0 : alors :
— f (R) = {b} = ̸ R donc f n’est pas surjective ;
— f (0) = b = f (1) donc f n’est pas injective.
et ainsi f n’est ni surjective ni injective, et ne peut donc pas être bijective.
Proposition III.6. Soient f ∈ F(E, F ) et g ∈ F(E, F ). Alors :
1. si g ◦ f est injective, alors f est injective ;
2. si g ◦ f est surjective, alors g est surjective.
Démonstration. 1. si x, y ∈ E, alors :
f (x) = f (y) ⇒ g(f (x)) = g(f (y)) ⇒ g ◦ f (x) = g ◦ f (y) ⇒ x = y
donc f est injective ;
2. soit z ∈ G. Il existe x ∈ E tel que : z = g ◦ f (x) = g (f (x)), donc y = f (x) ∈ F vérifie g(y) = z.
Donc g est surjective.
Théorème III.7. Soit f ∈ F(E, F ). Alors f est bijective si, et seulement si, il existe une application
g : F → E telle que g ◦ f = idE et f ◦ g = idF .
Dans ces conditions, on a : g = f −1 .
Démonstration. On montre séparément les deux implications :
— nécessité : si f est bijective, alors l’application g = f −1 convient ;
— suffisance : si un tel g existe, alors :
— g ◦ f = idE est injective, donc f aussi ;
— f ◦ g = idF est surjective, donc f aussi.
Donc f est bijective. Comme g ◦ f = idE , alors : g ◦ f ◦ f −1 = f −1 , donc g = f −1 .
Définition IV.2. On dit qu’un ensemble E est fini s’il existe un entier n ∈ N et une bijection f : J1; nK → E.
On dit alors que E est de cardinal n, que l’on note : Card(E) = n ou |E| = n.
Proposition IV.3. Le cardinal d’un ensemble fini est unique.
Démonstration. Découle du lemme.
Proposition IV.4. Si E et F sont deux ensembles. Si E est fini, et qu’il existe une bijection entre E et F ,
alors F est fini de même cardinal que E.
Démonstration. Notons n = Card(E) et donnons-nous f : E → J1; nK et g : E → F bijectives. Alors g ◦ f
est une bijection de J1; nK sur F , donc F est fini de cardinal n.
Proposition IV.5. Soit E un ensemble fini, et F une partie de E. Alors F est fini, avec Card(F ) ≤
Card(E).
De plus, si Card(E) = Card(F ), alors E = F .
Démonstration. On procède par récurrence sur n = Card(E) ∈ N :
— (initialisation) si n = 0 : alors E est vide, donc F aussi, et on a bien le résultat ;
— (hérédité) soit n ∈ N∗ , et supposons le résultat acquis pour tous les ensembles finis de cardinal au
plus n − 1 :
— si F = E : alors F est fini, avec Card(F ) = Card(E) ;
— si F ̸= E : comme F ⊂ E, il existe x ∈ E \ F . Considérons f : J1; nK → E bijective, et notons
k ∈ JA; nK l’antécédent de x par f . Construisons la fonction g suivante :
g : J1; n − 1K → E \ {x}
i 7→ f (i) si i < kf (i + 1) si i ≥ k
Proposition IV.7. Si A et B sont deux ensembles finis disjoints, alors A ∪ B est fini, avec : Card(A ∪ B) =
Card(A) + Card(B).
Plus généralement :
1. si A1 , . . . , An sont des ensembles finis deux-à-deux disjoints, alors A1 ∪ · · · ∪ An est fini avec :
Card(A1 ∪ · · · ∪ Ak ) = Card(A1 ) + · · · + Card(An ) ;
2. si A et B sont finis, alors A ∪ B et A ∩ B sont finis avec : Card(A ∪ B) = Card(A) + Card(B) −
Card(A ∩ B).
Corollaire IV.8. Si E est fini et A ⊂ E, alors A est fini avec : Card(A) = Card(E) − Card(A).
Plus généralement, si A, B ⊂ E, alors A \ B est fini avec : Card(A \ B) = Card(A) − Card(A ∩ B).
Proposition IV.9. Si E et F sont des ensembles finis, alors E × F est fini, et : Card(E × F ) = Card(E) ×
Card(F ).
n = e1 + · · · + en .
Proposition IV.12. Si E, F sont deux ensembles finis avec Card(E) = n et Card(F ) = m, alors F(E, F )
est fini de cardinal mn .
φ : F(E, F ) → F(E ′ , F )
f 7→ f |E ′
Tout élément de F(E ′ , F ) possède exactement m antécédents, qui correspondent aux m choix pos-
sibles pour f (a). On a donc : |F(E, F )| = m × |F(E ′ , F )| = m × mn = mn+1 , ce qui conclut la
récurrence.
50 CHAPITRE 5. APPLICATIONS
Corollaire IV.13. Si E est fini avec Card(E) = n, alors P(E) est fini de cardinal 2n .
P(E) → F(E, {0; 1})
Démonstration. On considère l’application : φ : . Alors φ est bijective :
A 7→ 1A
— injectivité : si 1A = 1B alors pour tout x ∈ E :
x ∈ A ⇔ 1A (x) = 1 ⇔ 1B (x) = 1 ⇔ x ∈ B.
Y
2. le produit de tous les éléments ai , notée ai , comme :
i∈I
Y
ai = ai 1 × · · · × ai n .
i∈I
X m
X Y m
Y
ai = ai et ai = ai .
i∈Jn;mK i=n i∈Jn;mK i=n
P5 3 3 3 3 3
Exemples I.3. 1. k=2 k = 2 + 3 + 4 + 5 = 224 ;
Q5
2. k=2 k 3 = 23 × 33 × 43 × 53 = 1 728 000.
Remarques I.4. Les indices qui apparaissent dans une somme n’existent que dans une somme, et leur
dénomination est arbitraire. Ainsi :
1. k × 12
P P12
k=3 a k n’est pas défini, mais k=3 k × ak l’est ;
P8 3
P8 3
2. k=4 k = l=4 l = 1260.
51
52 CHAPITRE 6. SOMMES, PRODUITS ET SYSTÈMES
m
Y n
Y n
Y
(m−n+1) n
α=α donc α = α et α = αn+1 .
k=n k=1 i=0
2n−1
X
k
Exemple I.8. En partitionnant J0; 2n − 1K, on peut calculer : . En effet, pour k ∈ J0; 2n − 1K :
2
k=0
k
— si k est pair : on écrit k = 2i, avec i ∈ J0; n − 1K, et alors : = ⌊i⌋ = i ;
2
k
= j + 21 = j.
— si k est impair : on écrit k = 2j + 1, avec j ∈ J0; n − 1K, et alors :
2
Et finalement :
2n−1
X k X n−1 n−1 n−1
X X n(n − 1)
= i+ j =2· i=2· = n(n − 1).
k=0
2 i=0 j=0 i=0
2
Proposition I.9 (Linéarité de la somme). Si λ, µ ∈ C, et (ai ), (bi ) deux familles indexées par I fini :
! !
X X X
(λai + µbi ) = λ ai + µ bi .
i∈I i∈I i∈I
Proposition I.13 (Changement d’indice). Si I, J sont deux ensembles, f : I → J une bijection et (aj )j∈J
une famille de complexes indexée par J, alors :
X X
aj = af (i) .
j∈J i∈I
Inversement, si (bi )i∈I est une famille de complexes indexée par I, alors :
X X
bi = bf −1 (j) .
i∈J j∈J
En particulier :
m
X m−n
X
aj = ai+n .
j=n i=0
II Sommes classiques
Proposition II.1 (Sommes télescopiques). Si n ≤ m sont des entiers et (ai )i∈Jn;m+1K est une famille de
complexes alors :
Xm
(ak+1 − ak ) = am+1 − an .
k=n
1 k+1
2. si k ∈ J1; nK, alors : 1 + = , et donc :
k k
n
Y 1
1+ = n + 1.
k=1
k
Corollaire II.4. Si q = ̸ 1 est un complexe, n ≤ m deux entiers, et (ak ) est une suite géométrique de
raison q (c’est-à-dire que pour tout entier k : ak+1 = q × ak ), alors :
m
X an − am+1 1 − q m−n+1 1 − raisonnombre de termes
ak = = an × = (Premier terme) × .
k=n
1−q 1−q 1 − raison
(a − b) × n−1 n−1−k k
Pn−1 n−k k
b − an−k−1 bk+1 )
P
k=0 a b = k=0 (a
Pn−1 n−k k
= k=0 (a b − an−(k+1) bk+1
= an − bn par télescopage
Démonstration. Comme n est impair, alors (−1)n = −1, et donc : an + bn = a − (−b)n . Et on applique le
résultat précédent.
Proposition II.10 (Sommes quadratique et cubique). Pour n ∈ N∗ , on a :
n
X n(n + 1)(2n + 1)
1. k2 = ;
k=1
6
n
X n2 (n + 1)2
2. k3 = .
k=1
4
ce que l’on peut voir géométriquement. L’idée étant que l’aire d’un carré de côté 1 + 2 + · · · + n doit être
égale à 1 + 23 + · · · + n3 .
Pour cela, on peut voir que, au moment d’augmenter la longueur du carré de n, on rajoute une bande dont
l’aire peut être découpée en n carrés de taille n×n. C’est-à-dire qu’on augment l’aire totale de n×n2 = n3 .
Ce dernier point est illustrée sur la figure ci-dessous :
13 23 33 43 53
1 2 3 4 5
Proposition III.1. Si I, J sont deux ensembles finis, et (ai,j ) est une famille de complexes indexée par
I × J, alors : ! !
X X X X X
ai,j = ai,j = ai,j
(i,j)∈I×J i∈I j∈J j∈J i∈I
c’est-à-dire que l’on peut sommer sur un pavé dans l’ordre que l’on veut.
Corollaire III.2. ! !
X X XX X
ai bj = ai bj = (i, j) ∈ I × Jai bj .
i∈I j∈J i∈I j∈J
n
!2 n
X X X
ak = a2k + 2 ai aj
k=1 k=1 1≤i<j≤n
J
(i, n) (n, n)
(0, n)
(0, j)
KI,j (j, j)
Ki,J
K
(i, i)
(0, 0)
I
n X
n j−1
n X
X X X
ai,j = ai,j = ai,j
0≤i<j≤n i=0 j=i+1 j=0 i=0
Pn
Exemple III.8. Calculer pour tout n ∈ N∗ la somme : k=1 k2k−1 :
n
X n X
X k
k−1
k2 = 2k−1
k=1 k=1 l=1
n X
X n
= 2k−1
l=1 k=l
n
X 2l−1 − 2n
=
l=1
1−2
n
X
= (2n − 2l−1 )
l=1
1 − 2n
= n × 2n −
1−2
= (n − 1) × 2n + 1
Proposition IV.4. Si k, n ∈ N :
n n
= .
k n−k
Exemple IV.5. On a les valeurs particulières suivantes :
1. n0 = nn = 1 ;
2. n1 = n−1
n
= n;
n(n − 1)
3. n2 = n−2
n
= .
2
58 CHAPITRE 6. SOMMES, PRODUITS ET SYSTÈMES
n
n
n! n!
k
+ k+1
= +
k!(n − k)! (k + 1)!(n − (k + 1))!
n! × (k + 1) n! × (n − k) n! × (k + 1 + n − k)
= + = .
(k + 1)!(n − k)! (k + 1)!(n − k)! (k + 1)!(n − k)!
(n + 1)!
= n+1
= k+1
(k + 1)!((n + 1) − (k + 1))!
Remarque IV.7. Le triangle de Pascal permet de calculer de proche en proche tous les coefficients bino-
miaux. On représente sur la n-ème ligne les coefficients nk pour 0 ≤ k ≤ n :
1 1
0
=1 1
=1
+ + + +
2 2 2
0
=1 1
=2 2
=1
+ + + + + +
3 3 3 3
0
=1 1
=3 2
=3 3
=1
+ + + + + + + +
4 4 4 4 4
0
=1 1
=4 2
=6 3
=4 4
=1
+ + + + + + + + + +
5 5 5 5 5 5
0
=1 1
=5 2
= 10 3
= 10 4
=5 5
=1
+ + + + + + + + + + + +
6 6 6 6 6 6 6
0
=1 1
=6 2
= 15 3
= 20 4
= 15 5
=6 6
=1
n
Corollaire IV.8. Pour tous n, k ∈ N : k
∈ N.
Démonstration. En utilisant le triangle de Pascal, on montre par récurrence sur n ∈ N la proposition :
n
∀k ∈ N, ∈ N.
k
n 0
n ∈ N. 0 0 0
Démonstration. On procède par récurrence sur
P0 0 k n−k
Si n = 0 : (a + b) = (a + b) = 1 et k=0 k a b = 0 a b = 1.
Hérédité : supposons que (a + b)n = nk=0 nk ak bn−k pour un certain n ∈ N. Alors :
P
Pn n k n−k
(a + b)n+1 = (a
Pn + b) × (a + b) n
= (a
Pn + b) k=0 k
a b
n k+1 n−k n k n+1−k
= k=0 k a b + a b
Pn+1 n l n+1−l
Pk=0
n
k
n k n+1−k
= l=1 l−1 a b + k=0 k P a b
+ k=1 k−1 a b + nk=1 nk ak bn+1−k + bn+1
n n
n+1
P k n+1−k
= a
= bn+1 + nk=1 k−1 n
+ nk a k bn+1−k + an+1
P
X n
An = ;
l
∈J0;nK
l pair
60 CHAPITRE 6. SOMMES, PRODUITS ET SYSTÈMES
— si k ∈ ⌊ n−1
2
⌋, alors l = 2k + 1 parcourt tous les entiers impairs de J0; nK ; donc :
X n
Bn = .
l
∈J0;nK
l impair
Et ainsi, on trouve :
n n
X n n
X n
An + Bn = = 2 et An − Bn = (−1)l = 0.
l=0
l l=0
l
Et finalement :
An = Bn = 2n−1 .
où x1 , . . . , xp sont des inconnues (que l’on cherche dans K), et où les (ai,j ) et les bi sont des scalaires fixé.
Les ai,j sont appelés les coefficients du système.
Le n-uplet (b1 , . . . , bn ) est appelé le second membre du système.
Le système obtenu en remplaçant le second membre par (0, . . . , 0) est appelé système homogène associé
à S.
On dit que (S) est incompatible s’il n’a pas de solutions, et compatible sinon.
où (a, b), (c, d) ̸= (0, 0), revient à chercher l’intersection des droites D1 : ax + by = e et D2 : cx + dy = f :
1. si les droites sont confondues : il y a une infinité de solutions (tous les points de D1 = D2 ) ;
2. si les droites sont parallèles distinctes : il n’y a pas de solutions ;
3. si les droites sont sécantes : il y a une seule solution.
Proposition-Définition V.4. Avec les mêmes notations appelle déterminant du système (S) la quantité
ad − bc. Alors (S) admet une unique solution si, et seulement si, ad − bc ̸= 0.
Démonstration. Le système admet une unique solution si, et seulement si, D1 et D2 sont sécantes.
Les vecteurs (a, b) et (c, d) sont des vecteurs normaux à D1 et D2 . Donc les droites D1 et D2 sont sécantes
si, et seulement si : det((a, b), (c, d)) ̸= 0, c’est-à-dire ad − bc ̸= 0.
V. RÉSOLUTION DE SYSTÈMES LINÉAIRES 61
Définition V.9. Les opérations élémentaires sur les lignes d’un système sont :
1. la permutation : on échange les lignes Li et Lj , codée par Li ↔ Lj ;
2. la dilatation : multiplication d’une ligne par un scalaire λ non nul, codée par Li ← λLi ;
3. la transvection : ajout à la ligne Li d’un multiple de la ligne Lj , codée Li ← Li + λLj .
Remarques V.10.
1. Il faut bien considérer toute la ligne à chaque fois (y compris bi ).
2. L’ordre des opérations a une importance, et on les fait successivement.
Définition V.11. On dit que deux systèmes linéaires sont équivalents si l’on peut passer de l’un à l’autre
par un succession finie d’opérations élémentaires.
Remarque V.12. On peut “revenir en arrière” après avoir fait un opération élémentaire, et ceci à l’aide
d’une autre opération élémentaire. Plus précisément :
— une permutation est annulée par elle-même ;
— une dilatation de rapport λ est annulée par la dilatation de la même ligne de rapport λ1 ;
— une transvection de coefficient λ est annulée par la dilatation des mêmes lignes de coefficient −λ.
En conséquence, la relation “être équivalent” sur les systèmes est une relation d’équivalence.
Théorème V.13. Deux systèmes équivalents ont même ensemble solution.
Démonstration. Constatons déjà que chaque opération élémentaire ne peut qu’agrandir l’ensemble solution
du système initial. Ceci est clair car un système d’égalité est bien préservé quand on les combine par les
opérations élémentaires.
Comme on peut revenir en arrière par d’autres opérations élémentaires, le résultat découle par double
inclusion.
62 CHAPITRE 6. SOMMES, PRODUITS ET SYSTÈMES
Théorème V.14 (Algorithme du pivot de Gauss–Jordan). Tout système est équivalent à un système éche-
lonné. La succession d’opérations élémentaires est donnée par la méthode de Gauss-Jordan.
Remarque V.15. L’intérêt est qu’un système échelonné est très facile à résoudre par méthode de remontée :
on résout les équations avec le moins d’inconnues, puis les réinjecte dans les précédentes.
Méthode V.16. La méthode se fait récursivement selon le nombre d’inconnues du système. On considère
le système :
a1,1 x1 + a1,2 x2 + . . . + a1,p xp = b1
a2,1 x1 + a2,2 x2 +
. . . + an,p xp = b2
(S) : .. .. .. .. .. ..
. . . . . .
a x + a x + . . . + an,p xp = bn
n,1 1 n,2 2
— si tous les ai,1 sont nuls : alors la première colonne du système est nulle, et on continue à échelonner
suivant les colonnes suivantes ;
— sinon : quitte à permuter deux lignes, on a a1,1 ̸= 0. On fait pour tout i ∈ J2; nK la transvection :
ai,1
Li ← Li − L1 . La première colonne du système a seulement son premier coefficient non nul. Le
a1,1
système obtenu est de la forme :
a1,1 x1 + a1,2 x2 + . . . + a1,p xp = b1
0 + a′2,2 x2 + . . . + an,p xp = b′2
.. .. .. .. .. ..
. . . . . .
+ an,2 x2 + . . . + an,p xp = b′n
′
0
ai,1
Remarque V.17. En pratique, on prendra un pivot qui facilite les expression (par exemple un pivot
a1,1
égal à 1).
Corollaire V.18. Un système homogène à n équations et p inconnues possède une infinité de solutions
dès lors que p > n.
En particulier, il admet une solution non nulle.
Démonstration. On échelonne le système homogène, ce qui donne un système homogène, échelonné, à n
équations.
Comme p > n, alors l’une des inconnues n’apparaı̂t pas comme pivot, donc peut être choisie librement
dans K.
Pour chacune des valeurs choisie, la remontée permet de trouver une solution au système. L’infinité de
l’ensemble solution découle alors de l’infinité de K.
Exemple V.19. Résoudre le système à 3 équations et 3 inconnues :
x1 + x2 − x3 = 2
(S) : 2x1 − x2 + x3 = 1
4x1 + x2 + 3x3 = 3
V. RÉSOLUTION DE SYSTÈMES LINÉAIRES 63
x1 + x2 − x3 = 2
L2 ← L2 − 2L1
(S) ⇔ − 3x2 + 3x3 = −3 avec
L3 ← L3 − 4L1
− 3x2 + 7x3 = −5
x1 + x2 − x3 = 2
⇔ − 3x2 + 3x3 = −3 avec L3 ← L3 − 2L2
+ 4x3 = −2
x3 = −1/2
⇔ x2 = 1 + x3 = 1/2
x1 = 2 − x2 + x3 = 1
Démonstration.
1. Si a, b > 0, on considère la fonction fb : x 7→ ln(xb) − ln(x)
b 1
Alors fb est dérivable sur R∗+ , avec : ∀x ∈ R∗+ , f ′ (x) = − = 0.
xb x
Donc fb est constante, donc : f (a) = f (1), donc : ln(ab) − ln(a) = ln(b).
1 1
2. On déduit : 0 = ln(1) = ln a = ln(a) + ln .
a a
a
1
3. De même : ln = ln(a) + ln = ln(a) − ln(b).
b b
n −n 1
4. Par récurrence : ∀n ∈ N, ln(a ) = nln(a). Puis : ∀n ∈ N, ln(a ) = ln = −nln(a).
an
Proposition I.3. La fonction ln est strictement croissante sur R∗+ , telle que :
1
Démonstration. — ∀x ∈ R∗+ , ln′ (x) = > 0 donc ln est strictement croissante ;
x
65
66 CHAPITRE 7. LES FONCTIONS USUELLES
A
ln(2N ) = N · ln(2) ≥ · ln(2) = A.
ln(2)
N
Par croissance de ln,B = 2 convient.
1
— lim+ ln(x) = lim ln = − lim ln(x) = −∞.
x→0 x→+∞ x x→+∞
Corollaire I.4. La fonction ln réalise une bijection strictement croissante de R∗+ sur R.
Proposition I.5. L’équation ln(x) = 1 possède une unique solution : on la note e, et on a e ≃ 2, 71828.
x 0 +∞
ln′ +
+∞
ln
−∞
1
ln
1 2 e 3 4
−1
−2
Définition I.7. Si a ∈ R∗+ \ {1}, on lui associe la fonction logarithme de base a, notée loga , comme la
ln(x)
fonction définie sur R∗+ par : ∀x ∈ R∗+ , loga (x) = .
ln(a)
Remarques I.8.
I. LOGARITHMES, EXPONENTIELLES ET PUISSANCES 67
Proposition I.9. La fonction loga réalise une bijection strictement monotone de R∗+ sur R telle que
loga (1) = 0 et loga (a) = 1.
Elle est strictement croissante si a > 1 et strictement décroissante si 0 < a < 1, et vérifie les formules du
théorème I.2.
La fonction exp est continue, strictement croissante et dérivable sur R, de dérivée elle-même.
x −∞ +∞
exp′ +
+∞
exp
0
3
exp
2
1 ln
−3 −2 −1 0 1 2 3 4
−1
−2
−3
Proposition I.18. La fonction expa est dérivable sur R avec : ∀x ∈ R, (expa )′ (x) = ln(a) · ax :
1. si a = 1 : elle est constante de valeur 1 ;
2. si a > 1 : elle réalise une bijection strictement croissante de R sur R∗+ ;
3. si a < 1 : elle réalise une bijection strictement décroissante de R sur R∗+ .
Proposition I.19. On a les tableaux de variations et les courbes représentatives “génériques” suivantes :
I. LOGARITHMES, EXPONENTIELLES ET PUISSANCES 69
x −∞ 0 +∞ x −∞ 0 +∞
+∞ +∞
expa expa
1 1
a>1 a<1
0 0
5
0<a<1 a>1
4
2
a=1
1
−5 −4 −3 −2 −1 0 1 2 3 4 5
Définition I.20. Si α ∈ R, on appelle fonction puissance α la fonction fα définie sur R∗+ par : fα (x) =
xα = eαln(x) .
Proposition I.21. La fonction fα est dérivable sur R∗+ avec : ∀x ∈ R∗+ , fα′ (x) = α · xα−1 :
1. si α = 0 : elle est constante de valeur 1, et prolongeable par continuité en 0 ;
2. si α < 0 : elle réalise une bijection strictement décroissante de R∗+ dans lui même, avec pour
asymptotes les axes du repère ;
3. si α > 0 : elle réalise une bijection strictement croissante de R∗+ dans lui-même.
Démonstration. Par dérivabilité des fonctions composées, fα est dérivable sur R∗+ avec :
1
∀x ∈ R∗+ , fα′ (x) = α eαln(x) = αx−1 xα = αxα−1 .
x
Ainsi, fα′ est du signe de α, ce qui donne la monotonie cherchée.
Pour l’image de fα , on a :
— si α > 0 : lim xα = lim eαln(x) = 0 et lim xα = lim eαln(x) = +∞ ;
x→0 x→0 x→+∞ x→+∞
α αln(x)
— si α < 0 : lim x = lim e = +∞ et lim x = lim eαln(x) = 0.
α
x→0 x→0 x→+∞ x→+∞
Et le dernier point donne les asymptotes.
Proposition I.23. Si α > 0, la fonction fα est prolongeable par continuité en 0 en une fonction g telle que
g(0) = 0.
Son prolongement est :
1. non dérivable en 0, avec une tangente verticale, si 0 < α < 1 ;
2. dérivable en 0, de dérivée 1, si α = 1 ;
3. dérivable en 0, de dérivée nulle, si α > 1.
70 CHAPITRE 7. LES FONCTIONS USUELLES
Démonstration. Le prolongement continu découle des limites calculées précédemment. Pour x > 0, le taux
d’accroissement de fα entre 0 et x est donné par :
fα (x) − fα (0)
τ0 (x) = = xα−1 = fα−1 (x)
x−0
et on peut alors utiliser les limites calculées précédemment.
On trouve bien le résultat voulu, où la disjonction suivant le signe de α − 1 nous donne bien les trois cas
de la proposition.
Proposition I.24. On a les tableaux de variations et les courbes représentatives “génériques” suivantes :
x 0 1 +∞ x 0 1 +∞
+∞ +∞
fa fa
1 1
a>0 a<0
0 0
4 a>1 4 a < −1
a=1 a = −1
3 3 −1 < a < 0
2 2
1 0<a<1 1
0 1 2 3 4 0 1 2 3 4
Démonstration.
[1; +∞[ → R √ .
1. Considérons φ :
t 7→ ln(t) − 2 t
√
1
′ 1 1− t
Alors φ est dérivable sur [1; +∞[, de dérivée en t : φ (t) = − √ = ≤ 0.
t t t
I. LOGARITHMES, EXPONENTIELLES ET PUISSANCES 71
Donc φ est décroissante sur [1; +∞[ : comme φ(1) = −2 < 0, alors φ est strictement négative sur
[1; +∞[.
√ ln(x) 2
Si x ≥ 1, on a donc : 0 ≤ ln(x) ≤ 2 x, donc : 0 ≤ ≤√ .
x x
ln(x)
Par encadrement : lim = 0.
x→+∞ x
1
En posant y = xα , donc x = y α , on trouve :
1
ln(x) ln(y α ) 1 ln(y)
lim = lim = lim = 0.
x→+∞ xα y→+∞ y y→+∞ α y
1 1
2. On pose y = , donc x = . Alors :
x y
1
ln
y ln(y)
lim xα ln(x) = lim = lim − = 0.
x→0 y→+∞ yα y→+∞ yα
x
e ln(x)
3. ln = x − αln(x) = x × 1 − α → +∞
xα x x→+∞
ex
donc en composant avec la fonction exponentielle : lim α = +∞.
x→+∞ x
ln|x|
4. ln (|x|α ex ) = αln(|x|) + x = x × 1 + α → −∞
x x→−∞
donc en composant avec la fonction exponentielle : lim |x|α ex = 0.
x→−∞
Remarque I.26. L’exponentielle croı̂t infiniment plus vite que les puissances, qui croissent infiniment plus
vite que le logarithme. Cela se manifeste dans les limites précédentes en notant que, dans le cas de formes
indéterminées, c’est la partie “dominante” qui donne la limite.
Proposition I.27 (Limites classiques).
ln(1 + x)
1. lim = 1;
x→0 x
ex − 1
2. lim =1
x→0 x
Démonstration.
ln(1 + x) ln(1 + x) − ln(1)
1. lim = lim = ln′ (1) = 1 ;
x→0 x x→0 (1 + x) − 1
x
e −1 e − e0
x
2. lim = lim = exp′ (0) = 1.
x→0 x x→0 x − 0
Exemples I.28. Pour déterminer une limite, on commence par regarder si les limites classiques et les opéra-
tions sur les limites suffisent. Sinon, c’est qu’on obtient une forme indéterminée : il faut alors transformer
l’expression habilement pour faire disparaı̂tre ces formes indéterminées.
ln(x3 +1)
1. lim x4 −5
:
x→+∞
ln(x4 +1)
2. lim 2 :
x→+∞ x +3
e3x
3. lim :
x→+∞ x+2
e3x e3x 3x
= × −→ +∞.
x+2 3x
|{z} |x {z
+ 2} x→+∞
→+∞ →3
e3x
4. lim 3 :
x→+∞ x +1
e3x e3x (3x)3
= × −→ +∞.
x3 + 1 (3x)3 |x3{z+ 1} x→+∞
| {z }
→+∞ →27
x3 −3xln x+ln x
5. lim ex +xsin x
:
x→+∞
x3 − 3xln x + ln x x3 1 − 3ln
x2
x
+ lnx3x
= x × −→ 0.
ex + xsin x e
|{z} 1 + exx sin x x→+∞
| {z }
→0
→1
φ′ + 0 −
0
φ
Donc φ est négative sur ]1; +∞[, ce qui donne l’inégalité voulue.
2. posons ψ définie sur R par :ψ(x) = ex − x − 1.
Alors ψ est dérivable avec : ψ ′ (x) = ex − 1.
D’où les variations :
x −∞ 0 +∞
ψ′ − 0 +
ψ
0
I. LOGARITHMES, EXPONENTIELLES ET PUISSANCES 73
Démonstration. Comme u est à valeurs dans R∗+ , alors f est bien définie.
Pour analyser en détail f , on préfère écrire : f : x 7→ exp (v(x) · ln(u(x))).
Par composition et produits, la fonction f est dérivable sur I, et sa dérivée en x ∈ I est donnée par :
′ ′v(x)u′ (x)
(v · ln(u)) (x) = ln(u(x))v (x) + .
u(x)
Remarque I.31. Cette formule n’est pas à connaı̂tre : elle est là pour illustrer comment étudier ce type de
fonctions, ce qui se fait par passage par l’écriture exponentielle d’une puissance.
donc lim f (x) = 1 ; ceci nous dit que f est prolongeable par continuité en 0 ; on notera g son
x→0
prolongement, qui est donc défini sur R+ par :
xx si x>0
g(x) = .
1 si x=0
1
x 0 e
+∞
f′ − 0 +
1 +∞
f 1
1 e
e
0 1/e 1 2
C
M
sin(x)
Dx+ x
x
cos(x)
Proposition II.4 (Paramétrisation du cercle trigonométrique). Si M (x, y) est un point du cercle, il existe
un réel t tel que (x, y) = (cos(t), sin(t)). Ce réel est unique à 2π près.
Démonstration. La demi-droite [OM ) fournit l’existence, en prenant pour t l’angle qu’elle fait avec l’axe
des abscisses.
L’unicité provient de la définition même de π : deux valeurs de t doivent différer d’un nombre de tours
entier du cercle, donc d’un multiple entier de 2π.
Remarque II.5. En pratique, on utilisera la paramétrisation pour dire qu’il existe un unique t dans ]π; pi]
ou dans [0; 2π[.
Corollaire II.6. Si r > 0, et que M (x, y) est un point du cercle de centre O de rayon r, il existe un unique
réel t (à 2π près) tel que : (x, y) = (rcos(t), rsin(t)).
2 2 2
Démonstration. Pour un tel x(x,yy),
on a : x + y = r .
Donc, en posant (x′ , y ′ ) = , , on a : x′2 + y ′2 = 1.
r r
Donc (x′ , y ′ ) = (cos(t), sin(t)), puis (x, y) = (rcos(t), rsin(t)).
π
√
3 2
π
√2
π π π π 2 4
t 0 2 π
6 4 3 2
√ √ 1 6
1 2 3
sin(t) 0 1 2
2 2 2
√ √
3 2 1
cos(t) 1 0
2 2 2
√
3 √
tan(t) 0 1 3 pas défini √ √
3 1 2 3
2 2 2
Démonstration. Les valeurs pour 0 ou π2 sont immédiates. Pour les autres valeurs, on utilise le théorème
de Pythagore dans des triangles particuliers (isocèle-rectangle ou équilatéral).
Proposition II.11. Si a, b ∈ R, alors :
1. cos(a + b) = cos(a)cos(b) − sin(a)sin(b) ;
2. cos(a − b) = cos(a)cos(b) + sin(a)sin(b) ;
3. sin(a + b) = sin(a)cos(b) + cos(a)sin(b) ;
4. sin(a − b) = sin(a)cos(b) − cos(a)sin(b) ;
II. LES FONCTIONS CIRCULAIRES 77
π tan(a) + tan(b)
5. si a, b, a + b ̸= 2
+ kπ, k ∈ Z : tan(a + b) = ;
1 − tan(a)tan(b)
π tan(a) − tan(b)
6. si a, b, a − b ̸= 2
+ kπ, k ∈ Z : tan(a − b) = .
1 + tan(a)tan(b)
Démonstration. On se contente de montrer la deuxième (les autres en découlent).
On pose M, N ∈ C avec M (x, y) = (cos(a), sin(a)) et N (x′ , y ′ ) = (cos(b), sin(b)).
−−→ −−→
Alors : (ON , OM ) = (a − b).
−−→ −−→
Donc : ON .OM = OM · ON · cos(a − b) = cos(a − b).
−−→ −−→
Mais on a aussi : ON .OM = xx′ + yy ′ = cos(a)cos(b) + sin(a)sin(b).
Ce qui donne bien l’égalité cherchée.
2t
1. sin(a) = 1+t2
;
1−t2
2. cos(a) = 1+t2
;
2t
3. tan(a) = 1−t2
(si a ̸= k π2 , k ∈ Z)
2t 2tan(a/2) sin(a/2) 2
2
= 2
=2 cos (a/2) = 2sin(a/2)cos(a/2) = sin(a)
1+t 1 + tan (a/2) cos(a/2)
On a :
√ √
1 1 3 3
= et q =
√ 2 √ 2
q
2 2
12 + 3 12 + 3
π
et ainsi on φ = 3
convient. Ce qui donne finalement :
√ π
∀t ∈ R, cos(t) + 3sin(t) = 2cos t − .
3
Remarques II.18.
1. En pratique, on commence par regarder cos(φ) (ce qui donneφ au signe près), et sin(φ) permet de
lever l’ambiguı̈té sur le signe.
2. Ce résultat permet de mieux comprendre les valeurs prises par une combinaison linéaire de sin et
cos. Par exemple, dans l’exemple précédent, on voit que l’expression prend toutes les valeurs entre
−2 et 2.
1. lim sin(t) = 0 ;
t→0
2. lim cos(t) = 1 ;
t→0
sin(t)
3. lim = 1.
t→0 t
Démonstration. Soit h ∈ 0; π2 :
II. LES FONCTIONS CIRCULAIRES 79
N
tan(h)
M
sin(h)
H
O cos(h) I
Théorème II.21. Les fonction sin et cos sont continues et dérivables sur R, avec sin′ = cos et cos′ = −sin.
et :
x+y
— par continuité de cos : lim cos 2
= cos(x) ;
y→x
sin( x−y
2 )
sin(t)
— par le lemme : lim x−y = lim = 1.
y→x 2 t→0 t
sin(x) − sin(y)
Donc : lim = cos(x).
y→x x−y
Donc sin est dérivable sur R, avec : sin′ = cos.
Par dérivée d’une composée, cos est dérivable et pour tout x ∈ R :
π π
cos′ (x) = 1 × sin′ x + = cos x + = −sin(x)
2 2
donc cos′ = −sin.
Corollaire II.23. La fonction tan est continue et dérivable sur R\{ π2 +kπ, k ∈ Z}, avec : tan′ = 1+tan2 =
1
cos2
.
Démonstration. On utilise que sin′ = cos, qui est positive sur − π2 ; π2 , s’annulant uniquement en ± π2 .
Les propriétés (croissance, continuité, dérivabilité, tangentes verticales) découlent des propriétés de sin par
théorème de la bijection monotone.
II. LES FONCTIONS CIRCULAIRES 81
Montrons l’imparité de Arcsin : soit y ∈ [−1; 1]. Notons x = Arcsin(y), et donc x ∈ [− π2 ; π2 ] vérifie
sin(x) = y. Ainsi :
−y = −sin(x) = sin(−x).
Comme (−x) ∈ [− π2 ; π2 ], alors on a : Arcsin(−y) = −x = −Arcsin(y), ce qui montre bien que Arcsin est
impaire.
Montrons
la formule de la dérivée de Arcsin. Soit yp∈] − 1; 1[, et
pnotons 2x = Arcsin(y).
p Par définition, on
π π
2 2
a : x ∈ − 2 ; 2 , donc cos(x) ≥ 0. Donc : cos(x) = cos (x) = 1 − sin (x) = 1 − y . Et ainsi :
1 1 1
Arcsin′ (y) = =p = p .
cos(x) 1 − sin2 (x) 1 − y2
π
2 y=x
π
−
−π 2 −1 0
1 π π
2
sin
−1
π
−
Arcsin 2
Proposition-Définition II.27. La restriction de la fonction cos à [0; π] est une bijection strictement dé-
croissante de [0; π] sur [−1; 1].
Sa réciproque, appelée arc cosinus, notée Arccos, réalise une bijection de [−1; 1] sur [0; π]. Elle est
continue et strictement croissante sur [−1; 1].
Elle est dérivable sur ] − 1; 1[ avec : ∀x ∈] − 1; 1[, Arccos′ (x) = √1−x
−1
2.
π
Arccos
y=x
π
2
π
−
−π 2 0
−1 1 π π
2
cos
−1
π π
π π II.30. La restriction de la fonction tan à − 2 ; 2 est une bijection strictement
Proposition-Définition
croissante de − 2 ; 2 sur R.
Sa réciproque, appelée arc tangente, notée Arctan, réalise une bijection de R sur − π2 ; π2 . Elle est
et donc : lim
π−
tan(x) = +∞ ;
x→ 2
ce qui donne bien la bijectivité de tan de ] − π2 ; π2 [ sur R.
y=x
tan
π
2
3π π Arctan
− −
2 −π 2 0
π π 3π
2 2
π
−
2
Proposition II.33. On a :
1. cos(a) = cos(b) ⇔ (a ≡ b [2π] ou a ≡ −b [2π] ) ;
2. sin(a) = sin(b) ⇔ (a ≡ b [2π] ou a ≡ π − b [2π] ) ;
3. tan(a) = tan(b) ⇔ (a ≡ b [π] )
Démonstration.
1. Par 2π-périodicité, on peut supposer a, b ∈] − π; π].
Comme cos est strictement croissante sur [−π; 0], strictement décroissante sur [0; π], avec cos(−π) =
cos(π) = −1 et cos(0) = 1, alors :
— si cos(a) ̸= ±1 : alors cos(a) possède deux antécédents par cos dans ] − π; π], qui sont a et −a ;
— si cos(a) = ±1 : alors a = 0 ou π, et a est l’unique antécédent de cos(a) par cos sur ] − π; π].
Ce qui donne bien l’équivalence cherchée.
2. Le cas de sin se traite de la même manière en regardant les variations de sin sur ] − π2 ; 3π
2
].
π π
3. Le cas de tan découle de la π-périodique et de la bijectivité de tan de − 2 ; 2 sur R.
π
Démonstration. Soit x ∈ [−1; 1]. Posons : a = Arccos(x) et b = 2
− Arcsin(x).
Alors a, b ∈ [0; π] et la fonction cos est injective sur [0; π].
Mais cos(a) = x et cos(b) = sin(Arcsin(x)) = x.
Donc a = b.
Proposition II.35. Si x ∈ R∗ , alors :
π
1 2
si x > 0
Arctan(x) + Arctan =
x − π2 si x < 0
donc f est constante sur chaque intervalle de R∗ , donc sur R∗+ et sur R∗− .
On a : f (1) = 2Arctan(1) = π2 et f (−1) = 2Arctan(−1) = − π2 .
D’où le résultat.
e−x +ex
Démonstration. Si x ∈ R, alors : ch(−x) = 2
= ch(x) donc ch est paire.
Elle est dérivable avec, pour tout x ∈ R :
ex − e−x
ch′ (x) = = sh(x).
2
Comme lim ex = +∞ et lim ex = 0, on trouve les limites voulues.
x→+∞ x→−∞
x −∞ 0 +∞ x −∞ 0 +∞ x −∞ 0 +∞
+∞ +∞ +∞ 1
ch sh 0 th 0
1 −∞ −1
3 sh
ch
2
th
1
−3 −2 −1 0 1 2 3
−1
−2
−3
Proposition-Définition III.7.
1. La fonction ch réalise une bijection strictement croissante de [0; +∞[ sur [1; +∞[. Sa réciproque,
1
notée argch est dérivable sur ]1; +∞[ avec : ∀x ∈]1; +∞[, argch′ (x) = √ .
2
x −1
2. La fonction sh réalise une bijection strictement croissante de R dans lui-même. Sa réciproque, notée
1
argsh est dérivable sur R avec : ∀x ∈ R, argsh′ (x) = √ .
2
x +1
3. La fonction th réalise une bijection strictement croissante de R sur ] − 1; 1[. Sa réciproque, notée
1
argth est dérivable sur ] − 1; 1[ avec : ∀x ∈] − 1; 1[, argth′ (x) = .
1 − x2
Démonstration. L’existence et la dérivabilité découle des points précédents.
Si x ∈]1; +∞[. On note y ∈ R∗+ tel que ch(y) = x. Alors : argch′ (x) = sh(y) 1
.
2 2
√ ∗
√
Comme ch (y) − sh (y) = 1, alors sh(y) = ± x − 1. Mais y ∈ R+ , donc sh(y) > 0, et : sh(y) = x2 − 1.
2
Remarque III.8. Les réciproques des fonctions circulaires hyperboliques s’expriment explicitement de la
manière suivante :
√ √
2
2
1 1+x
Argch(x) = ln x + x − 1 , Argsh(x) = ln x + x + 1 et Argth(x) = ln .
2 1−x
Chapitre 8
Les complexes
I L’ensemble C
Définition I.1. On note i une solution de l’équation x2 + 1 = 0.
On définit alors l’ensemble C des complexes comme :
C = {a + ib | a, b ∈ R}.
Si a, b ∈ R et z = a + ib, on dit que a est la partie réelle de z, notée Re(z), et que b est la partie
imaginaire, notée Im(z). Et l’écriture z = a + ib est appelée écriture algébrique de z.
Remarque I.2. Un nombre complexe est entièrement déterminé par ses parties réelles et imaginaires,
c’est-à-dire que :
a = a′
′ ′ ′ ′
∀a, a , b, b ∈ R, a + ib = a + ib ⇔ .
b = b′
Remarques I.3.
1. L’ensemble des réel est l’ensemble des complexes de partie imaginaire nulle.
2. On appelle imaginaires purs l’ensemble iR des complexes de partie réelle nulle.
Proposition I.4. Si a, a′ , b, b′ ∈ R, on a les écritures algébriques :
1. (a + ib) + (a′ + ib′ ) = (a + a′ ) + i(b + b′ ) ;
2. (a + iy) × (a′ + ib′ ) = (aa′ − bb′ ) + i(xy ′ + yx′ ).
Proposition-Définition I.5 (Inverse). Si z ∈ C∗ , alors il existe un unique ω ∈ C∗ tel que zω = 1 : on
l’appelle l’inverse de z, et on note ω = z1 .
Démonstration. On procède par analyse-synthèse. On pose z = a + ib et ω = x + iy.
Alors :
zω = 1 ⇒ (ax − by) + i(bx + ay) = 1
ax − by = 1
⇒
bx2 + ay = 0
a x − aby = a
aby + b2 x = 0
⇒
abx − b2 y = b
2
abx + a y = 0
a
x =
⇒ a2 + b 2
b
y = − 2
a + b2
où a2 + b2 ̸= 0 comme z ̸= 0.
a − ib
Réciproquement : ω = 2 vérifie bien ωz = 1.
a + b2
87
88 CHAPITRE 8. LES COMPLEXES
→
− → −
Définition I.6. Étant donné (O, i , j ) un repère du plan, on associe à tout point M (x, y) le complexe
z = x + iy. On dit alors que z est l’affixe de M , ou que M est l’image du complexe z.
→
− →
−
On dira également que z = x + iy est l’affixe du vecteur →−u =x i +y j .
II Conjugaison et module
Définition II.1 (Conjugué complexe). Si z = a + ib (forme algébrique), le complexe z = a − ib est appelé
conjugué (complexe) de z.
1 1
Proposition II.2. Si z ∈ C, alors Re(z) = (z + z) et Im(z) = (z − z).
2 2i
Corollaire II.3. On déduit les équivalences suivantes :
1. z ∈ R ⇔ Im(z) ⇔ z = z ;
2. z ∈ iR ⇔ Re(z) ⇔ z = −z ;
Proposition II.4. Si z, z ′ ∈ C et λ ∈ R∗ , alors :
1. z + z ′ = z + z ′ ;
2. λz = λz ;
3. zz ′ = zz ′ ;
z′ z′ 1 1
4. si z ̸= 0 : = et = ;
z z z z
5. (z) = z.
Remarque II.5. En particulier, on déduit que l’application z 7→ z est une application R-linéaire sur C qui
est involutive (et elle est donc bijective)
Définition II.6 (Module). Si z = a + ib (forme algébrique), on appelle module de z le réel positif ou nul
défini par : √
|z| = a2 + b2 .
√
Proposition II.7. Si z ∈ C, alors : |z| = zz = |z|. Et ainsi :
1. Si z ∈ C : |Re(z)| ≤ |z| et |Im(z)| ≤ |z| ;
2. |z| = 0 ⇔ z = 0 ;
z
3. si z ̸= 0 : z −1 = ;
|z|2
z |z|
4. si z, z ′ ∈ C : |zz ′ | = |z| · |z ′ | et ′ = ′ (si z ′ ̸= 0).
z |z |
Démonstration. Notons z = a + ib. Alors :
zz = (a + ib)(a − ib) = a2 + b2
Le reste en découle.
Remarque II.8. On déduit que, si z ∈ C et λ ∈ R : |λz| = |λ| · |z|.
1
Corollaire II.9. Pour z ∈ C∗ , on a l’équivalence : |z| = 1 ⇔ = z.
z
Théorème II.10 (Inégalité triangulaire). Si z, z ′ ∈ C, alors :
1. |z + z ′ | ≤ |z| + |z ′ | ;
III. TRIGONOMÉTRIE ET EXPONENTIELLE COMPLEXE 89
2. ||z| − |z ′ || ≤ |z − z ′ |.
De plus, il y a égalité dans les deux cas si, et seulement si, z et z ′ sont positivement liés : z ′ = 0 ou il
existe λ ∈ R+ tel que z = λz ′ .
Démonstration. Si z, z ′ ∈ C, alors :
— |z + z ′ |2 = |z|2 + |z ′ |2 + 2Re(zz ′ ) ;
— |z − z ′ |2 = |z|2 + |z ′ |2 − 2Re(zz ′ ) ;
— (|z| + |z ′ |)2 = |z|2 + |z ′ |2 + 2|zz ′ | ;
— ||z| − |z ′ ||2 = |z|2 + |z ′ |2 − 2|zz ′ |.
Les inégalités découlent de : −2|zz ′ | ≤ ±2Re(zz ′ ) ≤ 2∥zz ′ |.
On a égalité dans la première si, et seulement si : Re(zz ′ ) = |zz ′ |, c’est-à-dire zz ′ ∈ R+ . Tout va bien si
z ′ = 0. Sinon, on a :
zz ′ zz ′
z = ′ = ′ ′ z ′ = λz ′ .
z zz
|{z}
∈R+
||z| − |z ′ || ≤ |z ± z ′ | ≤ |z| + |z ′ |.
avec égalité si, et seulement si, tous les zk sont deux-à-deux positivement liés.
Démonstration. Par récurrence.
U = {z ∈ C | |z| = 1}.
Définition III.8 (forme trigonométrique). Tout nombre complexe non nul z s’écrit sous la forme z = reiθ ,
pour r > 0 et θ ∈ R. Cette écriture s’appelle forme trigonométrique.
Le réel r est unique, et est le module de z.
Le réel θ est unique à 2π près, et est un argument de z.
L’unique argument de z dans ] − π; π] est appelé argument principal de z, et est noté arg(z).
Proposition III.9. Si z, z ′ ∈ C∗ et λ ∈ R∗ , alors :
1. arg(zz ′ ) ≡ arg(z) + arg(z ′ ) [2π] ;
z
2. arg ′ ≡ arg(z) − arg(z ′ ) [2π] ;
z
1
3. arg(z) = arg ≡ −arg(z) [2π] ;
z
z arg(z) si λ > 0
4. arg(λz) = arg ≡ .
λ arg(z) + π si λ < 0
Démonstration. Les résultats découlent des propriétés de l’exponentielle complexe. Détaillons la dernière.
Soit z = reiθ (forme trigonométrique) et λ ∈ R∗ . Alors :
(λr)eiθ si λ > 0 avec λr > 0
λz = i(θ+π)
(−λr)e si λ < 0 avec (−λr) > 0
donc les écritures précédentes sont bien des formes trigonométriques, ce qui donne bien l’argument voulu.
Remarque III.10. On déduit que z, z ′ ∈ C∗ sont positivement liés si, et seulement si, ils ont même argu-
ment.
III. TRIGONOMÉTRIE ET EXPONENTIELLE COMPLEXE 91
sin nθ
2 i(n−1) θ2
= e
sin 2θ
Et donc :
nθ nθ
sin 2 (n − 1)θ sin 2 (n − 1)θ
C = Re(E) = θ
cos et S = Re(E) = θ
sin .
sin 2
2 sin 2
2
92 CHAPITRE 8. LES COMPLEXES
n
Proposition III.18 (Formules de Moivre). Si θ ∈ R et n ∈ N, alors : einθ = eiθ . Et ainsi :
Méthode III.19. Les formules de Moivre permettent d’exprimer cos(nθ) ou sin(nθ) comme des polynômes
en cos(θ) et/ou sin(θ).
cos(3θ) = cos3 (θ)−3cos(θ)sin2 (θ) = 4cos3 (θ)−3cos(θ) et sin(3θ) = 3cos2 (θ)sin(θ)−sin3 (θ) = −4sin3 (θ)+3sin(θ).
Remarque III.21. On peut toujours exprimer cos(nθ) comme un polynôme en cos(θ). On peut seulement
exprimer sin(nθ) comme un polynôme en sin(θ) si n est impair.
Remarque III.23. Comme : ∀x ∈ R, ex > 0, alors ex · eiy est la forme trigonométrique de ez . De sorte
que : |ez | = eRe(z) et arg(ez ) ≡ Im(z) [2π].
z ∈ Un ⇔ zn = 1
⇔ rn einθ = 1 · ei0
⇔ rn =√1 et nθ ≡ 0 [2π]
⇔ r = n 1 = 1 (car r > 0) et nθ = 2kπ, k ∈ Z
2ikπ
⇔ z=e n , k∈Z
Exemples IV.3.
1. U2 = {±1} ;
2. U4 = {±1, ±i} ;
2iπ 4iπ 2iπ
3. U3 = {1, e 3 ,e 3 } = {1, j, j 2 } avec j = e 3 .
Corollaire IV.4. Si n ∈ N∗ et a ∈ C∗ , alors a possède exactement n racines n-èmes. Si l’on note a = reiθ ,
leur ensemble est :
n √ θ+2kπ o
i n
n
re | k ∈ J0; n − 1K = {z0 × ω | ω ∈ Un }
√ θ+2kπ
Démonstration. Il est immédiat que les n
rei n sont des racines de a.
Réciproquement, si z0 est une racine n-ème de a, alors z0 ̸= 0 et :
n
n n z z
z =a⇔z = z0n ⇔ =1⇔ ∈ Un
z0 z0
2iπ
Démonstration. On fait apparaı̂tre une somme géométrique de raison e n .
a = reiθ
2iπ
z0 e 5
√
C(O, 5 r)
√ θ
4iπ z0 = 5
rei 5
z0 e 5
θ
θ/5 R+
z0 · U5
8iπ
z0 e 5
6iπ
z0 e 5
On trouve x et y (au signe près) avec les deux premières égalités. On trouve le signe avec la dernière.
Exemple IV.9. Trouver les racines carrées de −5 + 12i : on les cherche sous la forme z = x + iy. On a :
√
x2 + y 2 = 52 + 122 = 13
x2 − y 2 = −5 .
2xy = 12
Et ainsi : 2
x = 4
y2 = 9 .
xy > 0 donc x, y de même signe
Démonstration. Toute application z 7→ az + b avec a ̸= 0 est bien un similitude directe (il suffit de regarder
les arguments).
Réciproquement : soit f un similitude.
Lemme V.6. Une similitude préserve les rapports de longueurs.
O′ M ′ OM ′ O ′ M ′ = AOM
′ ′
= et A\ \
OA OA
donc, par égalité des modules et arguments :
z′ − b z−0
=
c−b 1−0
et donc : z ′ = az + b, avec a = c − b ̸= 0.
L’existence et l’unicité du point fixe si a ̸= 1 vient du fait que pour un tel a :
b
z = az + b ⇔ z − az = b ⇔ z = .
1−a
Remarque V.7. Parmi les transformations précédentes, seule la conjugaison n’est pas une similitude di-
recte : elle change tout angle en son opposé.
Démonstration.
1. si a = 1 : alors f : z 7→ z + b est la translation de vecteur d’abscisse b ;
b
2. si a ̸= 1 : alors ω = vérifie f (ω) = ω. On note : a = λeit , h : z 7→ λ(z − ω) + ω l’homothétie
1−a
de centre Ω de rapport λ, et r : z 7→ eit (z − ω) + ω la rotation de centre Ω d’angle t. Alors :
b it b b − ab
(h ◦ r)(z) = + |{z}
λe z− = az + = az + b = f (z)
1−a 1−a 1−a
=a
98 CHAPITRE 8. LES COMPLEXES
4
z r Ω
π 3
4
√
2r 2 π
4
f (z) 1
f (O)
−4 −3 −2 −1 O 1 2 3 4
−1
−2
Proposition VI.2. Si f, g sont des fonctions dérivables sur I à valeurs dans C, et λ ∈ C, alors on a les
fonctions dérivées suivantes :
1. (f + λg)′ = f ′ + λg ′ (la dérivation est linéaire) ;
2. (f g)′ = f ′ g + f g ′ ;
′
1 g′
3. si g ne s’annule pas : =− 2;
g g
′
f f ′g − f g′
4. si g ne s’annule pas : = .
g g2
Démonstration. Toutes les formules découlent de la dérivabilité des fonctions à valeurs réelles, en ramenant
le calcul à des dérivées de combinaisons linéaires, produits ou quotient de fonctions réelles. Montrons par
exemple la formule pour le produit.
Soient f, g deux fonctions à valeurs complexes dérivables sur I, et notons f1 = Re(f ), f2 = Im(f ),
g1 = Re(g) et g2 = Im(g). De sorte que :
Par dérivée d’un produit (pour les fonctions à valeurs réelles), on déduit que Re(f g) et Im(f g) sont
dérivables, donc f g aussi, de dérivée :
Exemple VI.4. Si α ∈ C, la fonction f : t 7→ exp (αln(t)) est dérivable sur R∗+ . Si t ∈ R∗+ , alors :
α
f ′ (t) = exp (αln(t)) = αexp ((α − 1)ln(t))
ln(t)
Primitives
I Primitives et intégrales
I.1 Généralités sur les primitives
Définition I.1. Si f est définie sur un intervalle I, on dit qu’une fonction F dérivable sur I est une
primitive de f si F ′ = f .
Exemples I.2.
1. x 7→ x3 ou x 7→ x3 − 4 sont des primitives de x 7→ 3x2 sur n’importe quel intervalle de R ;
x2
2 si x ≥ 0
2. x 7→ signe(x) x2 = 2
x2 est une primitive de x 7→ |x| sur R.
− 2 si x ≤ 0
Proposition I.3. Si I est un intervalle, f : I → R et F une primitive de f sur I, alors les primitives de f
sur I sont exactement les fonctions F + λ, pour λ ∈ R.
Démonstration. Si F est une primitive de f , et G une fonction dérivable sur I, alors :
Remarques I.4. 1. Ce résultat dit que, s’il existe une primitive, il en existe un infinité. Mais il ne dit
pas qu’il en existe.
2. Le résultat est faux si I n’est plus un intervalle. Par exemple, les fonctions 1R∗+ et 1R∗− sont des
primitives de la fonction nulle sur R∗ , mais ne diffèrent pas d’une constante. Mais il permet quand
même de chercher des primitives : par exemple pour chercher une primitive de x 7→ |x|, on peut
regarder les primitives de x 7→ x sur R+ et de x 7→ −x sur R− , puis chercher à recoler ces primitives
en une fonction dérivable sur R.
Théorème I.5 (Théorème fondamental de l’analyse). Si f est continue sur un intervalle I, alors f admet
une primitive.
Démonstration. Admis (pour le moment).
Corollaire I.6. Si f est continue sur un intervalle I et (x0 , y0 ) ∈ I × R, alors il existe une unique primitive
F de f sur I telle que F (x0 ) = y0 .
Remarque I.7. Ilexiste desfonctions non continues qui ont des primitives. Considérons par exemple la
x2 sin x1 si x ̸= 0
fonction f : x 7→ .
0 si x = 0
La fonction f est dérivable sur R :
101
102 CHAPITRE 9. PRIMITIVES
— sur R∗ : par composée et produit, f est dérivable sur R∗ avec : ∀x ∈ R∗ , f ′ (x) = 2xsin x1 − cos 1
x
.
— en 0 : f (x)−f (0) 1
−→ 0 par encadrement. Donc f est dérivable en 0 avec f ′ (0) = 0
x−0
= xsin x x→0
Mais f est une primitive de f ′ (qui est bien définie), c’est-à-dire que f ′ admet une primitive sur R. Mais
f ′ n’est pas continue en 0 car f ′ (x) n’a pas de limite quand x tend vers 0.
1 1
En effet : 2xsin x tend vers 0 en 0 (par encadrement) mais cos x n’a pas de limite en 0 (car cos n’a
pas de limite en +∞).
1.5
Cf ′
1
0.5
−0.5
−1
Démonstration. Il suffit de voir que cette quantité ne dépend pas du choix de F . Soient G, F deux primitives
de f sur I, et λ ∈ R tel que G = F + λ.
Alors : G(b) − G(a) = F (b) + λ − F (a) − λ = F (b)F (a).
Remarques I.9.
1. On donnera une autre définition de l’intégrale (pour des fonctions plus générales que les fonctions
continues). Et on verra que les deux définitions coı̈ncident.
2. Une intégrale est un peu comme une somme : la variable d’intégration correspond à l’indice de
sommation. On peut donc changer sa dénomination, et il n’a pas de sens hors de l’intégrale.
3. Cette définition n’a de sens que si f est continue (donc f doit avoir une primitive de classe C 1 ).
Proposition I.10. Si f, g sont deux fonctions continues sur le segment [a; b], et λ, µ ∈ R, alors :
Rb R R
b b
1. a (λf (t) + µg(t)) dt = λ a f (t)dt + µ a g(t)dt (linéarité de l’intégrale) ;
Rb Rc Rb
2. si c ∈ [a; b] : a f (t)dt = a f (t)dt + c f (t)dt (relation de Chasles) ;
I. PRIMITIVES ET INTÉGRALES 103
Rb Rb
3. a
f (t)dt = −f (t)dt ;
a
Rb
4. si f ≥ 0 sur [a; b] : a f (t)dt ≥ 0 (positivité de l’intégrale) ;
Rb Rb
5. si f ≥ g sur [a; b] : a f (t)dt ≥ a g(t)dt (croissance de l’intégrale).
Démonstration.
1. par linéarité de la dérivation, λF + µG est une primitive de λf + µG, et donc :
Rb
a
(λf (t) + µg(t)) dt = λF(b) + µG(b)
Rb − λFR (a) − µG(a)
= λ (F (b) − F (a)) + µ (G(b) − G(a))
b
= λ a f (t)dt + µ a g(t)dt
Rb Rc Rb
2. a
f (t)dt = F (b) − F (a) = (F (c) − F (a)) + (F (b) − F (c)) = a
f (t)dt + c
f (t)dt ;
Rb Ra
3. a f (t)dt = F (b) − F (a) = − (F (a) − F (b)) = − b f (t)dt ;
Rb
4. si f ≥ 0, alors F est croissante, donc F (b) ≥ F (a) et ainsi : a f (t)dt = F (b) − F (a) ≥ 0 ;
5. on applique le résultat précédent à f − g.
Remarque I.11. La croissance de l’intégrale se comprend en terme d’application sur des ensembles ordon-
nés. Cela revient en fait à dire que l’application :
F([a, b], R) → R
φ: Rb
f 7→ a f (t)dt
est croissante, en munissant F([a, b], R) de l’ordre partiel défini par g ⪯ f si, et seulement si, ∀t ∈ [a, b],
g(t) ≤ f (t), et qu’on munit R de son ordre usuel ≤.
Proposition I.12. Si f est continue de signe constant sur [a; b], alors :
Z b
f =0⇔ f (t)dt = 0.
a
Démonstration. La première
Rb implication découle de la linéarité car alors f = 0 · f .
Réciproquement, si a f (t)dt = 0 : on peut supposer f ≥ 0 sur [a; b] (quitte à changer f en −f ). On a
donc : F (b) = F (a). Mais F est croissante sur [a; b], comme F ′ = f ≥ 0, donc F est constante. Et donc
f = F ′ = 0.
Théorème
Rx I.13. Si f est une fonction continue sur un intervalle I, et a ∈ I, alors l’application F : x 7→
a
f (t)dt est l’unique primitive de f sur I qui s’annule en a.
Démonstration. Notons G une primitive de f . Alors, si x ∈ I : F (x) = G(x) − G(a). Et donc F ′ (x) =
G′ (x) = f (x) et F (a) = G(a) − G(a) = 0. L’unicité provient du théorème fondamental de l’analyse.
Rx
Remarque I.14. Toutes les primitives
Rx de f sont de la forme x →
7 a
f (t)dt + λ. Pour éviter un choix
arbitraire pour a et λ, on notera f (t)dt une primitive générique de f
Proposition I.15 (Intégrales dépendant de leurs bornes). Si I, J sont deux intervalles, u, v deux fonctions
dérivables sur I à valeurs dans J, et f continue sur J.
R v(x)
Alors la fonction φ définie sur I par : φ(x) = u(x) f (t)dt est dérivable sur I, avec :
Démonstration. Si F est une primitive de f sur J, alors : φ(x) = F (v(x)) − F (u(x)), qu’on peut dériver
comme une composée.
104 CHAPITRE 9. PRIMITIVES
Remarque I.17. Le deuxième résultat dit en fait que toute primitive d’une fonction continue impaire est
paire.
Rπ
Exemple I.18. Calculons I = 0 cos2 (t)dt. Par π-périodicité de t 7→ sin2 (t) :
Z π Z 3π/2 Z π
2 2
I= sin (π/2 + t)dt = sin (t)dt = sin2 (t)dt
0 π/2 0
Rπ R 2π
cos2 (t) + sin2 (t) dt = 0 1 · dt = π. Donc I = π2 .
et donc I + I = 0
II. CALCUL DE PRIMITIVES ET D’INTÉGRALES 105
f (x) Df F (x)
0 R 0
c (c ∈ C∗ ) R cx
xn+1
xn (n ∈ N) R
n+1
1
R∗ ln (|x|)
x
n ∗ xn+1
x (n ∈ Z, n ≤ −2) R
n+1
xα+1
xα (α ∈ R \ {−1}) R∗+
α+1
√
cas particulier : √1x R∗+ 2 x
ex R ex
ln(|x|) R∗ xln(|x|) − x
cos(x) R sin(x)
sin(x) R −cos(x)
π
tan(x) R\ 2
+ kπ | k ∈ Z −ln (|cos(x)|)
1 π
1 + tan2 (x) = R \ 2
+ kπ | k ∈ Z tan (x)
cos2 (x)
1
√ ] − 1, 1[ Arcsin(x)
1 − x2
1
−√ ] − 1, 1[ Arccos(x)
1 − x2
1
R Arctan(x)
1 + x2
sh(x) R ch(x)
ch(x) R sh(x)
th(x) R ln(ch(x))
1
1 − th2 (x) = 2 R th(x)
ch (x)
Remarque II.2. En pratique, on n’aura pas dès le départ les écritures précédentes : on utilisera la linéarité
de l’intégrale et la proposition suivante.
106 CHAPITRE 9. PRIMITIVES
Proposition II.3. Si u : I → J et φ définie sur J sont deux fonctions de classe C 1 , alors la fonction
u′ · (φ′ ◦ u) est continue, et admet pour primitive φ ◦ u.
Démonstration. Par dérivée d’une composée.
Corollaire II.4. Si u est de classe C 1 sur un intervalle I :
1
1. pour n ∈ N, une primitive de u′ · un sur I est un+1 ;
n+1
2. une primitive de u′ · eu sur I est eu ;
u′
3. si u ne s’annule pas sur I, une primitive de sur I est ln (|u|) ;
u
1
4. si u > 0 sur I et que α ̸= −1, alors une primitive de u′ · uα est uα+1 .
α+1
Exemples II.5.
2 −1 2 2 2
1. xe−x = 2
· (−2x)e−x , donc une primitive de x 7→ xe−x est x 7→ − 12 e−x ;
sin(x) −sin(x)
2. tan(x) = =− , donc une primitive de tan est x 7→ −ln (|cos(x)|) ;
cos(x) cos(x)
ex x 1 ex
3. = e · , donc une primitive de x →
7 est Arctan ◦ exp.
1 + e2x 1 + (ex )2 1 + e2x
Remarque II.6. On peut créer d’autres formules du même type, mais qu’on rencontre moins souvent.
Comme par exemple qu’une primitive de u′ · cos(u) est sin(u). Par rapport au tableau, cela revient à
changer tous les x en u(x) et de multiplier la colonne de gauche par u′ (x).
Corollaire II.7. Soient F est une primitive d’une fonction continue f , et a, b ∈ R avec a ̸= 0. Alors, là où
elle est définie, la fonction x 7→ f (ax + b) est continue et admet pour primitive x 7→ a1 F (ax + b).
Exemples II.8.
1. Si on note F une primitive de t 7→ sin2 (t) sur R, alors t 7→ F ( π2 +t) est une primitive de t 7→ sin2 (t).
Ainsi on retrouve que :
Z π Z 3π/2
2 3π π
sin (π/2 + t)dt = F ( ) − F ( ) = sin2 (t)dt
0 2 2 π/2
Démonstration. Par dérivée d’un produit, une primitive de u′ v + v ′ u est uv. Et ainsi :
Z b Z b Z b
b ′ ′ ′
[u(t)v(t)]a = (u (t)v(t) + u(t)v (t)) dt = u (t)v(t)dt + u(t)v ′ (t)dt.
a a a
II. CALCUL DE PRIMITIVES ET D’INTÉGRALES 107
Remarque II.10. En pratique, pour être que cette formule soit utile, il faudra que v ′ soit facile à primitiver,
tandis que le fait de dériver u ne rende pas la fonction à intégrer plus compliquée.
Corollaire II.11. Si u, v sont deux fonctions de classe C 1 sur I, et x ∈ I, alors :
Z x Z x
′
u (t)v(t)dt = u(x)v(v) − u(t)v ′ (t)dt.
Exemples II.12.
R1 1 R1
1. 0 |{z} et dt = [tet ]0 − 0 |{z}
t |{z} et dt = e1 − 0 − (e1 − 1) = 1 ;
1 |{z}
v u′ v′ u
R π/2 R π/2
π/2 R π/2
2. 0
t2 sin(t) dt =
|{z} [−t
2
cos(t)]0 − 0 |{z}
2t (−cos(t)) dt = [2tsin(t)]π/2
0 − 0
2sin(t)dt = π − 2
| {z } | {z }
v u′ v′ u
(en faisant deux intégrations par parties successives) ;
R1
3. si I = 0 Arctan(t)dt : on pose u′ (t) = 1 et v(t) = Arctan(t) (donc u(t) = t et v ′ (t) = 1
1+t2
). On
trouve :
Z 1 1
1 t 1 2 π
I = [tArctan(t)]0 − 2
dt = Arctan(1) − ln(1 + t ) = − ln(2).
0 1+t 2 0 4
Exemples II.13.
1. avec u′ (x) = 1 et v(x) = ln(x), donc u(x) = x et v ′ (x) = x1 , on trouve :
Z x Z x
ln(t)dt = xln(x) − 1dt = xln(x) − x.
Démonstration. Par dérivée d’une composée, si F est une primitive de F , alors F ◦ φ est une primitive de
φ′ · (f ◦ φ). Et ainsi :
Z b Z φ(b)
′ b φ(b)
φ (x) · f (φ(x)) dx = [F (φ(t))]a = F (φ(b)) − F (φ(a)) = [F (t)]φ(a) = f (t)dt.
a φ(a)
Remarque II.15. Ce théorème peut s’utiliser dans les deux sens (comme on va le voir dans les exemples).
R 1 e2x
Exemple II.16. Calculons I = 0
dx.
1 + ex
t
On fait le changement de variable φ(x) = ex , avec f : t 7→ . Alors φ est C 1 sur [0; 1], avec φ([0; 1]) =
1+t
[1; e], et f est continue sur [1; e]. On déduit :
Z 1 Z e Z e
′ t 1
I= φ (x)f (φ(x)) dx = dt = 1− dt = (e − 1) − ln(e − 1) + ln(2).
0 1 1+t 1 1+t
108 CHAPITRE 9. PRIMITIVES
Remarque II.17. En pratique, on ne fait pas apparaı̂tre φ. On procède en trois étapes en posant directement
t = φ(x) :
1. on dérive t en fonction de x : dt = φ′ (x)dx ;
2. on exprime toute l’expression dans l’intégrale en fonction de t (et plus x) ;
3. on change les bornes.
Pour l’exemple précédent, cela donne avec t = ex :
1. dt = ex dx ;
e2x t
2. dx = dt ;
1 + ex 1+t
R 1 e2x Re t
3. 0 dx = 1
dt.
1 + ex 1+t
R1 √
Exemple II.18. Calculons −1 1 − t2 dt.
On va faire le changement de variable t = cos(x). Pour x = 0, on a t = 1 et pour x = π, on a t = −1. La
fonction cos est bien C 1 . Et on a dt = −sin(x)dx. Et donc :
Z 1 √ Z 0 p Z π
π
1 − t2 dt = 1 − cos2 (x) (−sin(x)) dx = sin2 (x)dx =
−1 π 0 2
p
en inversant les bornes, et en reconnaissant que 1 − cos2 (x) = sin(x) pour x ∈ [0; π].
R 1 e2x
Exemple II.19. Calculons l’intégrale 0 1+e x dx.
1 dt
On pose x = ln(t), où la fonction ln est C . On a t = 1 pour x = 0 et t = e pour x = 1. Et dx = t
. Et
donc : Z 1 2x Z e 2ln(t) Z e 2 Z e
e e dt t dt t
x
dx = ln(t)
= = dt.
0 1+e 1 1+e t 1 1+t t 1 1+t
Méthode II.20 (Règles de Bioche). Pour simplifier le calcul d’une fraction rationnelle f en cos et sin, on
peut utiliser les règles de Bioche : si f (t)dt est invariant par le changement t 7→ −t (resp. t 7→ π − t,
t 7→ π + t), alors on peut faire le changement de variable u = cos(t) (resp. u = sin(t), u = tan(t)).
Remarques II.21.
1. Les changements de variables correspondent aux fonctions invariantes utilisées : cos(−t) = cos(t),
sin(π − t) = sin(t) et tan(π + t) = tan(t).
2. Si tous les changements fonctionnent, on peut poser u = cos(2t).
t
3. Si aucun des changements ne fonctionne, on peut poser u = tan 2
.
tan(t)
Exemple II.22. Déterminons une primitive de f : t 7→ à l’aide des règles de Bioche :
1 + cos(t)
−tan(t)
— avec t 7→ −t : f (−t)d(−t) = · (−dt) = f (t)dt ;
1 + cos(t)
tan(t)
— avec t 7→ π − t : f (π − t)d(π − t) = dt ̸= f (t)dt ;
1 − cos(t)
tan(t)
— avec t 7→ π + t : f (π + t)d(π + t) = dt ̸= f (t)dt.
1 − cos(t)
Donc on fait le changement de variable u = cos(t), avec donc du = −sint)dt, ce qui donne :
Z x Z x Z cos(x)
tan(t) sin(t) du
dt = dt = −
1 + cos(t) cos(t)(1 + cos(t)) u(u + 1)
II. CALCUL DE PRIMITIVES ET D’INTÉGRALES 109
1 1 1
Or, on a : − =− + . Et finalement :
u(u + 1) u u+1
x
Z
tan(t) 1 + cos(x) 1
dt = ln (|1 + cos(x)|) − ln (|cos(x)|) = ln = ln 1 + .
1 + cos(t) cos(x) cos(x)
Exemple II.23. Pour primitiver, pour p, q ∈ N, la fonction t 7→ sinp (t)cosq (t), on trouve ainsi que :
1. si p et q sont impairs : on fait le changement de variable u = cos(2t) ;
2. si p est impair et q est impair : on fait le changement de variable u = cos(t) ;
3. si q est pair et q est impair, on fait le changement de variable u = sin(t).
Si p et q sont pairs, il est plus efficace de linéariser.
Par exemple, pour calculer une primitive de t 7→ sin5 (t), les règles de Bioche montrent que l’on peut faire
le changement de variable u = cos(t), et donc du = −sin(t)dt, ce qui donne :
Rx 5 Rx
sin (t)dt = − sin4 (t) ·(−sin(t))dt
| {z }
=(1−cos2 (t))2
R cos(x)
= − (1 − u2 )2 du
1 2
= − cos5 (x) + cos3 (x) − cos(x)
5 3
Exemple II.26. Cherchons une primitive de x 7→ e3x sin(4x). On a : e3x sin(4x) = Im(e3x e4ix ) = Im(e(3+4i)x ).
1
Mais x 7→ e(3+4i)x est une primitive de x 7→ e(3+4i)x . Donc En prenant la partie imaginaire, on aura
3 + 4i
une primitive de x 7→ e3x sin(4x) :
1 3 − 4i 3x
e(3+4i)x = e (cos(4x) + isin(4x))
3 + 4i 25
e3x
donc : x 7→ (3sin(4x) − 4cos(4x)) est une primitive de x 7→ e3x sin(4x).
25
Exemple II.27. Cherchons une primitive de x 7→ cos(2ln(x)).
On a : cos(2ln(x)) = Re(e2iln(x) ).
1
Mais x 7→ 2i+1 · e(2i+1)ln(x) est une primitive de x 7→ e2iln(x) .
1
· e(2i+1)ln(x) = xcos(2ln(x)) + 2xsin(2ln(x))
Donc : x 7→ Re 2i+1 5 5
.
Méthode II.28. Outre les règles de Bioche, on peut chercher à primitiver une puissance de cos ou de sin,
ou un produit de telles puissances, par linéarisation.
Remarque II.30. On voit que la primitive d’une fonction périodique n’est pas nécessairement périodique.
110 CHAPITRE 9. PRIMITIVES
1
II.5 Intégrales de fonctions du type ax2 +bx+c
1
Proposition II.31. Soient a, b, c ∈ R, avec a > 0, et posons f : x 7→ ax2 +bx+c
, P = ax2 + bx + c et
∆ = b2 − 4ac :
1. si ∆ > 0 : en notant r1 , r2 les racines de P , on a P = a(x − r1 )(x − r2 ). Ainsi :
1 1 1 1
f (x) = = −
a(x − r1 )(x − r2 ) a(r2 − r1 ) x − r2 x − r1
1 x − r2
donc une primitive de f est x 7→ ln ;
a(r2 − r1 ) x − r1
2. si ∆ = 0 : en notant r l’unique racine de P , on a P = a(x − r)2 . Ainsi :
1 1
f (x) =
a (x − r)2
1
donc une primitive de f est x 7→ − ;
a(x − r)
b ∆
3. si ∆ < 0 : en notant p = 2a
et q = − 4a , on a la forme canonique P = a(x + p)2 + q. Ainsi :
1 1
f (x) = a
q q (x + p)2 + 1
q
1 a
donc une primitive de f est x 7→ √ Arctan q
(x + p) .
aq
Exemple II.32. Si a, b ∈ R, avec b ̸= 0, et α = a + ib, alors pour tout x ∈ R :
1 (x − a) − ib x−a b
= 2 2
= 2 2
−i
x−α (x − a) + b (x − a) + b (x − a)2 + b2
1
et donc une primitive sur R de x 7→ est :
x − (a + ib)
1 x−a
x 7→ ln (x − a)2 + b2 + iArctan
.
2 b
Chapitre 10
I Généralités
Définition I.1. Si n ∈ N∗ , une équation différentielle linéaire d’ordre n est une équation, dont
l’inconnue y est une fonction de I dans K, et de la forme :
(E) : an y (n) + · · · + a1 y ′ + a0 y = b
où b et les ai sont des fonctions définies sur I à valeur dans K, et an ne s’annulant pas sur I. Les fonctions
ai s’appellent les coefficients.
Son équation homogène associée est l’équation différentielle obtenue en remplaçant b par la fonction
nulle.
Remarque I.2. En général, l’intervalle I sur lequel on résout l’équation est donné dans l’énoncé. Sinon,
on le cherchera le plus grand possible comme intervalle de R.
Exemples I.3.
1. la fonction cos est une solution sur R de l’équation différentielle linéaire d’ordre 1 : y ′ = −sin, ou
des équations différentielles y ′′ + y = 0 et y ( 4) − y = 0 ;
2. la fonction x 7→ − x1 est une solution sur R∗+ ou sur R∗− de l’équation différentielle linéaire homogène
d’ordre 1 : xy ′ + y = 0.
Exemple I.5. En mécanique classique du point, le principe fondamental de la dynamique fournit une
équation différentielle linéaire d’ordre 2 en la position de l’objet étudié. Une condition initiale correspond
à la donnée de la position et de la vitesse à un instant donné.
Proposition I.6. Si (E0 ) : an y (n) + · · · + a1 y ′ + a0 y = 0 est une équation différentielle linéaire homogène.
Alors l’ensemble S0 de ses solutions est non vide et stable par combinaisons linéaires, c’est-à-dire que :
∀f, g ∈ S0 , ∀λ, µ ∈ K, λf + µg ∈ S0 .
111
112 CHAPITRE 10. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES
Démonstration. La fonction nulle est infiniment dérivable, de dérivées successives nulles, et est bien solution
du système homogène.
Si f, g ∈ S0 et λ, µ ∈ K, alors h = λf + µg est n-fois dérivable (par linéarité de la dérivation), avec :
∀k ∈ J1; nK, h(k) = λf (k) + µg (k) . Et donc h ∈ S0 car :
an h(n) + · · · + a1 h′ + a0 h = λ an f (n) + · · · + a1 f ′ + a0 f +µ an g (n) + · · · + a1 g ′ + a0 g = 0.
| {z } | {z }
=0 car f ∈S0 =0 car g∈S0
Théorème I.7 (Ensemble des solutions). Soit (E) une équation différentielle linéaire d’ordre n. On note
S l’ensemble de ses solutions, et S0 l’ensemble des solutions de l’équation homogène associée.
Alors, si f est une solution de (E), on a :
S = f + S0 = {f + g | g ∈ S0 }.
Démonstration. Posons f ∈ S et considérons h une fonction n-fois dérivable sur I.
Alors :
h ∈ S ⇔ an h(n) + · · · + a1 h′ + a0 h = b = an f (n) + · · · + a1 f ′ + a0 f
⇔ an (h − f )(n) + · · · + a1 (h − f )′ + a0 (h − f ) = 0 .
⇔ (h − f ) ∈ S0
Remarque I.8. Cet énoncé ne dit pas qu’il existe des solutions. Il dit en revanche que, si on sait résoudre
l’équation homogène et que l’on possède une solution à l’équation, alors on a toutes les solutions.
Proposition I.9 (Principe de superposition). Soient b1 , b2 deux fonctions définies sur I, λ, µ ∈ K, et
b = λb1 + µb2 . On considère les équations différentielles
(E) : an y (n) + · · · + a1 y ′ + a0 y = b
(E1 ) : an y (n) + · · · + a1 y ′ + a0 y = b1
(E2 ) : an y (n) + · · · + a1 y ′ + a0 y = b2
Si f est une solution de (E1 ) et g est une solution de (E2 ), alors λf + µg est une solution de (E).
Remarque II.2. On peut retrouver partiellement ce résultat : si une solution f de (E0 ) ne s’annule pas,
f′
elle vérifie que = −a(x), donc : (ln(|f |))′ = −a(x). En primitivant, puis en prenant l’exponentielle, on
f
retrouve que f = e−A(x)+C = λe−A(x) , avec λ = eC une constante.
Corollaire II.3 (Équation à coefficients constants). Si a ∈ C, les solutions de l’équation homogène (Ea ) :
y ′ + ay = 0 sont les fonctions x 7→ λe−ax pour λ ∈ K.
Exemples II.4.
2 x2
1. si a(x) = x : alors A(x) = x2 donc les solutions sur R sont de la forme x 7→ λe− 2 ;
2. si a(x) = − x1 : alors A(x) = −ln(|x|) donc les solutions sur R∗+ ou R∗− sont de la forme x 7→
λeln(|x|) = λ|x|. Mais, quitte à changer λ en son opposé, on déduit que les solutions sur R∗+ ou R∗−
sont de la forme x 7→ λx.
Remarque II.5. Dans le deuxième exemple, on peut recoller les solutions sur R∗+ et R∗− pour obtenir des
solutions qui sont des restrictions de fonctions dérivables sur R entier. Mais ce n’est pas toujours le cas.
Remarque II.7. Pour simplifier la recherche d’une solution, on pourra décomposer b en sommes de fonc-
tions plus simples, et utiliser le principe de superposition.
Exemples II.8.
1. On considère l’équation (E) : y ′ + xy = x sur R. Les solutions de l’équation homogène sont les
x2
x 7→ λe− 2 , pour λ ∈ K.
x2
Prenons donc λ dérivable sur R et posons f : x 7→ λ(x)e− 2 . Alors :
x2
x2 ′
′ ′
f ∈ S ⇔ λ (x) = xe ⇔ λ (x) = e 2
2
x2 x2
donc : f : x 7→ e 2 e− 2 = 1 est une solution de (E).
x2
Et finalement : S = {x 7→ 1 + λe− 2 | λ ∈ K}.
2. On considère l’équation (E) : y ′ − x1 y = x sur R∗+ . Les solutions de l’équation homogène sont les
x 7→ λx, pour λ ∈ K.
Prenons donc λ dérivable sur R∗+ et posons f : x 7→ λ(x) · x. Alors :
x
f ∈ S ⇔ λ′ (x) = = 1 = (x)′
x
2
donc : f : x 7→ x est une solution de (E).
Et finalement : S = {x 7→ x2 + λx | λ ∈ K}.
Proposition II.9 (Formulation intégrale). Si on fixe x0 ∈ I, l’ensemble des solutions de (E) est :
Z x
−A(x) A(t)
S = x 7→ e λ+ b(t)e dt |λ ∈ K .
x0
114 CHAPITRE 10. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES
— ensembles solution : les ensembles de solutions sur R∗+ ou R∗− sont donc données respectivement par
les ensembles :
S+ = {x 7→ x − 1 + λe−1/x | λ ∈ K} et S− = {x 7→ x − 1 + µe−1/x | µ ∈ K}
— recollement continu : comme lim− e−1/x = +∞ et lim+ e−1/x = 0 (par limite d’une composée), alors
x→0 x→0
le seul moyen d’avoir une solution continue en 0 en recollant des éléments de S+ et S− est de
prendre µ = 0. Donc les solutions possibles de (E) sont les fonctions de la forme :
x − 1 + λe−1/x si x > 0
x 7→ −1 si x = 0 , pour λ ∈ K.
x−1 si x < 0
— dérivabilité du recollement : soit f une solution continue obtenue par recollement. Alors :
f (x) − f (0)
— si x < 0 : = 1 −→− 1 ;
x x→0
f (x) − f (0) λe−1/x −1/x
−→+ 1 où on utilise que lim+ e x = lim+ − −1
−1/x
— si x > 0 : =1+ x
e =
x x x→0 x→0 x→0
lim (−x) · ex = 0 par croissances comparées.
x→−∞
donc une telle fonction est bien dérivable.
Conclusion : les solutions de (E) sont exactement les fonctions :
x − 1 + λe−1/x si x > 0
x 7→ −1 si x = 0 , λ ∈ K.
x−1 si x < 0
5 5
4 4
3 3
2 2
1 1
−5 −4 −3 −2 −1 0 1 2 3 4 5 −5 −4 −3 −2 −1 0 1 2 3 4 5
−1 −1
−2 −2
−3 −3
−4 −4
−5 −5
Ainsi, le problème de Cauchy associé à (E) avec condition initiale y(x0 ) = y0 admet :
— une unique solution si x0 > 0 et y0 ∈ K (quelconque) ;
— une infinité de solutions si x0 ≤ 0 et y0 = x0 − 1 ;
— aucune solution si x0 ≤ 0 et y0 ̸= x0 − 1.
116 CHAPITRE 10. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES
f ∈ S0 ⇔ f ′′ = −af ′ − bf
⇔ g ′ = −ag ′ − bg − r2 g ′
⇔ g ′ = r1 f ′ − r1 r2 f = r1 g
donc z est solution de (E0 ) si, et seulement si, g est de la forme x 7→ λer1 x pour λ ∈ K.
Ainsi, f est solution de (E0 ) si, et seulement si, f est solution de l’équation différentielle linéaire d’ordre
1:
(E ′ ) : y ′ − r2 y = λer1 x
dont les solutions de l’équation homogène sont de la forme x 7→ µer2 x , pour µ ∈ K.
Reste à trouver une solution particulière, ce que l’on fait par variation de la constante en cherchant
une solution sous la forme x 7→ µ(x)er2 x : c’est une solution si, et seulement si, µ est une primitive de
x 7→ λe(r1 −r2 )x .
e(r1 −r2 )x
1. si ∆ ̸= 0 : alors r1 ̸= r2 , donc µ : x 7→ λ . Donc :
r1 − r2
λ
S = {x 7→ er1 x + µer2 x | λ, µ ∈ K} = {x 7→ λer1 x + µer2 x | λ, µ ∈ K}.
r1 − r2
S = {x 7→ (λx + µ)erx }.
Exemples III.3.
1. Les solutions de l’équation y ′′ − y ′ − 2y = 0 sont les x 7→ λe−x + µe2x , λ, µ ∈ K ;
2. Les solutions de l’équation y ′′ − 4y ′ + 4y = 0 sont les x 7→ (λx + µ)e2x , λ, µ ∈ K.
III. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES DU SECOND ORDRE À COEFFICIENTS CONSTANTS
Et il est clair que les fonctions de cette forme sont bien des solutions.
Remarques III.5.
1. Dans le dernier cas, avec les mêmes notations, les solutions sont aussi les fonctions de la forme :
x 7→ Aeαx cos(βx + φ), pour A ∈ R+ et φ ∈] − π; π], suivant un résultat de trigonométrie. On dit
alors que A est l’amplitude, φ le déphasage, α le coefficient d’amortissement, et β la fréquence.
Cette notation est fréquente lorsque l’on travaille avec des circuits électriques.
2. De manière cachée, la dernière égalité nécessite que λ1 = µ1 : c’est un résultat que l’on peut
retrouver par le théorème de Cauchy–Lipschitz qui assure l’unicité de l’écriture des solutions, et du
fait que, pour f réelle, f = f fournit une autre écriture qui revient à changer λ1 en µ1 et µ1 en λ1 .
Exemple III.6. Si ω ∈ R∗ , les solutions réelles de l’équation différentielle y ′′ + ω 2 y = 0 sont les fonctions
de la forme :
x 7→ λcos(ωx) + µsin(ωx), λ, µ ∈ R.
Remarque III.8. Le passage de C à R permet de trouver par la même méthodes des solutions réelles lorsque
c est de la forme Beαx cos(βx) ou Beαx sin(βx) en raisonnant dans les complexes puis en prenant les parties
réelles ou imaginaire.
Exemple III.9. Considérons l’équation (E) : y ′′ − y ′ − 2y = e−x .
Le polynôme caractéristique est X 2 − X − 2 = (X − 2)(X + 1), donc −1 est racine simple du polynôme
caractéristique, et il existe une solution particulière sous la forme x 7→ λxe−x . Posons f : x 7→ λxe−x .
Alors :
∀x ∈ R, f ′ (x) = λ(1 − x)e−x et f ′′ (x) = λ(x − 2)e−x .
Donc : f ′′ (x) − f ′ (x) − 2f (x) = λe−x · [(x − 2) − (1 − x) − 2x] = −3λe−x .
Donc : f : x 7→ − 13 xe−x est une solution de (E).
Donc les solutions de (E) sont les fonctions de la forme :
1
x 7→ λ − x e−x + µe2x .
3
Exemple III.10. Considérons l’équation (E) : y ′′ + 2y ′ + 2y = −2e−x cos(x), dont on cherche les solutions
réelles.
On lui associe l’équation : (E ′ ) : y ′′ + 2y ′ + 2y = −2e−x eix = −2e(−1+i)x .
Le polynôme caractéristique est X 2 + 2X + 2 = (X − (−1 + i))(X − (−1 − i)), donc (−1 + i) est racine
simple du polynôme caractéristique, et il existe une solution particulière sous la forme x 7→ λxe(−1+i)x .
Posons f : x 7→ λxe(−1+i)x . Alors :
Donc : f ′′ (x) + 2f ′ (x) + 2f (x) = λe(−1+i)x · [(−2 + 2i − 2ix) + 2(1 + (−1 + i)x) + 2x] = 2iλe(−1+i)x .
Donc : f : x 7→ ixe(−1+i)x est une solution de (E ′ ).
Donc y : x 7→ Re(f (x)) = −xe−x sin(x) est une solution de (E).
Donc les solutions de (E) sont les fonctions de la forme :
Remarque III.11. Au lieu de passer par les parties réelles, on pouvait aussi utiliser le principe de super-
ix −ix
position, en constatant que : cos(x) = e +e2
.
Remarque III.12. En général, on précisera sous quelle forme chercher une solution particulière. Notons
que, plus généralement, si le second membre est de la forme Q(x)eλx , on peut trouver une solution de la
forme xm R(x)eλx où m est la multiplicité de λ comme racine du polynôme caractéristique et R est un
polynôme de même degré que Q.
III. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES DU SECOND ORDRE À COEFFICIENTS CONSTANTS
Idée de preuve. On admet que l’équation différentielle (E) possède une solution, que l’on note f . Alors :
1. si ∆ ̸= 0 : les solutions sont de la forme x →7 λer1 x + µer2 x + f (x). Donc on souhaite résoudre le
système d’inconnues λ, µ suivant :
rx
e 1 0 λ + er2 x0 µ = y0 − f (x0 )
r1 er1 x0 λ + r2 er2 x0 µ = y1 − f ′ (x0 )
qui est un système de linéaire à 2 inconnues, et 2 équations. Son déterminant est : (r2 −r1 )e(r1 +r2 )x0 ̸=
0, donc ce système admet une unique solution.
2. si ∆ = 0 : on procède de même, et on est amené à chercher les solutions du système :
x0 erx0 λ + erx0 µ = y0 − f (x0 )
(1 + rx0 )erx0 λ + rerx0 µ = y1 − f ′ (x0 )
qui est de déterminant −e2rx0 ̸= 0, et admet donc aussi une unique solution.
Dans les deux cas, il n’y a donc qu’une seule solution au problème de Cauchy.
Remarque III.14. Comme pour le degré 1, on peut montrer l’existence de solution par une méthode de
variation de la constante, mais celle-ci est plus complexe pour le degré 2.
Si c est de l’une des formes du paragraphe précédent (ou une fonction constante), on sait trouver des
solutions donc la démonstration est complète.
120 CHAPITRE 10. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES
Chapitre 11
Exemples I.2.
1. les diviseurs de 15 sont 1, 3, 5, 15 et leurs opposés ;
2. 1 et −1 divisent tout entier, tandis que ce sont les seuls diviseurs de 1 ;
3. 0 est multiple de tout entier, tandis que son seul multiple est 0.
Proposition-Définition I.3. Si n ∈ Z, on note D(n) l’ensemble des diviseurs de n. C’est un ensemble fini
si, et seulement si, n est non nul.
On note de même nZ = {n × k | k ∈ Z} l’ensemble des multiples de n. C’est un ensemble infini si, et
seulement si, n est non nul.
Démonstration. On a déjà D(0) = Z qui est infini et 0Z = {0} qui est fini.
Si n ̸= 0 : si a ∈ D(n), alors il existe c ∈ Z tel que n = ac. Comme n ̸= 0, alors c ̸= 0, donc |c| ≥ 1. Ainsi :
|a| ≤ |n|, donc D(n) ⊂ J−n; nK est fini.
Z → nZ
Pour un tel n, l’application φ : est une fonction injective de l’ensemble infini Z dans nZ,
k 7→ n × k
donc nZ est infini.
Proposition-Définition I.5. Si a, b ∈ Z vérifient simultanément que a|b et b|a, on dira que a et b sont
associés.
C’est le cas si, et seulement si, |a| = |b|.
121
122 CHAPITRE 11. ARITHMÉTIQUE DANS LES ENTIERS
a = bq + r et 0 ≤ r < b.
On dit alors que q est le quotient et que r est le reste de la division euclidienne de a par b.
Démonstration.
— existence : l’ensemble A = {a − bk | k ∈ Z} ∩ N est une partie non vide de N (prendre k = −|a|),
donc elle possède un plus petit élément r. En notant q la valeur de k associée à r, on a : r = a − bq.
Par définition de r, on a r ≥ 0. Il suffit de montrer que r < b : si ce n’était pas le cas, alors r − b ≥ 0,
et r − b = a − b(q + 1), donc (r − b) ∈ A, ce qui contredit la définition de r.
— unicité : si bq1 +r1 = bq2 +r2 , alors b(q1 −q2 ) = r2 −r1 avec −b < r2 −r1 < b. Donc : −1 < q1 −q2 < 1,
donc q1 − q2 = 0, c’est-à-dire q1 = q2 , puis r1 = r2 . Ce qui montre l’unicité.
Remarque I.7. Le théorème reste vrai si b < 0, en imposant que 0 ≤ r < |b|.
I.2 Congruences
Définition I.8. Si a, b ∈ Z et n ∈ N∗ , on dit que a et b sont congrus modulo n, ce que l’on note a ≡ b [n],
si n|(a − b).
Remarque I.9. L’entier a est un multiple de n si, et seulement si, a ≡ 0 [n].
Proposition I.10. La relation de congruence est une relation d’équivalence sur Z.
Démonstration. Évident.
Proposition I.11 (Calculs modulaires). Si n ∈ N∗ et a, b, c, d ∈ Z, alors :
1. si a ≡ b [n] et c ≡ d [n], alors a + c ≡ b + d [n] ;
2. si a ≡ b [n] et c ≡ d [n], alors ac ≡ bd [n] ;
3. si a ≡ b [n] et k ∈ N, alors : ak ≡ bk [n] ;
4. si m ∈ N∗ , alors : a ≡ b [n] ⇔ am ≡ bm [nm].
Démonstration.
1. on note a − b = nk et c − d = nl. Alors : (a + c) − (b + d) = n(k + l), donc a + c ≡ b + d [n].
2. Avec les mêmes notations : ac = (b + nk)(d + nl) = bd + n(kd + lb + nkl) donc ac ≡ bd [n].
3. Par récurrence sur k, grâce au résultat précédent.
4. On procède par équivalence :
a ≡ b [n] ⇔ ∃k ∈ Z, a − b = kn
⇔ ∃k ∈ Z, m(a − b) = mnk car m ̸= 0
.
⇔ ∃k ∈ Z, am − bm = (mn)k
⇔ am ≡ bm [mn]
Exemple I.12. Par exemple, pour n = 3 ou 9, on retrouve les critères usuels de divisibilité car :
I. DIVISIBILITÉ ET NOMBRES PREMIERS 123
— 10 ≡ 1 [n] ;
— pour tout k ∈ N : 10 ≡ 1k = 1 [n] ;
— si m ∈ N∗ a pour écriture décimale ar ar−1 . . . a1 a0 , alors m = rk=0 ak 10k , et donc : a ≡ N
P P
k=0 ak [n].
Et on peut adapter un peu pour trouver un critère de divisibilité par 37.
Démonstration.
1. on a directement a − r = nq est un multiple de n, donc a ≡ r [n] ;
2. si a = nq1 + r1 et b = nq2 + r2 sont les divisions euclidiennes de a et b par n, alors :
— si a ≡ b [n] : alors r1 ≡ r2 [n], donc r1 − r2 est un multiple de n. Mais −n < r1 − r2 < n, donc
r1 = r2 .
— si r1 = r2 : alors r1 ≡ r2 [n] donc a ≡ b [n].
Remarque I.17. Comme tout nombre est divisible par 1 et par lui-même, les nombres premiers sont les
nombres distincts de 1 possédant le moins de diviseurs possibles.
∀a, b ∈ N, p = ab ⇒ (a = 1 ou b = 1).
Démonstration. Si p est premier et p = ab, alors a, b sont des diviseurs de p, donc égaux à 1 ou p. Donc si
a ̸= 1, alors a = p donc b = 1.
Réciproquement, soit a un diviseur de p différent de 1. Alors il existe b tel que ab = p. Mais, comme a ̸= 1,
alors b = 1 donc a = p.
Exemples I.19. Les premiers nombres premiers sont 2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31 et 37.
Proposition I.20. Si n est un entier √naturel composé, alors son plus petit diviseur plus grand que 1 est un
nombre premier inférieur ou égal à n.
— si p n’était pas premier, comme p > 1, alors p possède un diviseur d avec 1 < d < p. Mais d serait
un diviseur de n, plus grand que 1 et plus petit que p, ce qui est impossible.
Corollaire I.22. Un entier p est premier si, et seulement si, il n’admet aucun diviseur parmi les nombres
√
premiers inférieurs ou égaux à p.
Remarque I.23. Ce résultat permet d’expliquer la méthode du crible pour déterminer les nombres premiers :
— on représente dans une grille tous les nombres entiers (par exemple ceux plus petits que 40) ;
— on barre 1 ;
— on entoure le premier nombre non barré, puis on barre tous ses multiples ;
— on répète ce processus jusqu’à ce que tous les nombres soient barrés ou entourés.
Les nombres entourés sont les nombres premiers.
1 ⃝2 ⃝3 4 ⃝5 6 ⃝7 8 9 10
⃝
11 12
⃝
13 14
16 ⃝
15
⃝
17
18 19 20
21
22
⃝
23 29
24
25
26
27
28
⃝ 30
⃝
31 32
33
34
35
⃝
36 37
38
39
40
Démonstration. Raisonnons par l’absurde, en notant p1 , p2 , . . . , pn les nombres premiers, où n désigne le
nombre de nombres premiers. Alors N = p1 × · · · × pn + 1 est soit premier, soit il admet un diviseur
premier :
— il ne peut pas être premier, comme il est distincts de tous les pi ;
— s’il était divisible par un nombre premier, ce serait l’un des pi , mais alors pi diviserait n − p1 × · · · ×
pn = 1, ce qui est impossible.
D’où la contradiction, donc il existe une infinité de nombres premiers.
II PGCD et PPCM
II.1 PGCD et algorithme d’Euclide
Définition II.1. Si a, b ∈ Z, avec a ou b non nul, le plus grand commun diviseur (abrégé en pgcd ou
PGCD) de a et b est le plus grand diviseur commun à a et b :
Exemples II.2.
1. 90 ∧ 75 = 15 car D(90) ∩ D(75) = {±1, ±3, ±5, ±15} ;
2. si a|b, alors a ∧ b = |a|. Plus généralement, si b = 0, alors a ∧ b = |a|.
Démonstration. Soit d ∈ Z :
— si d divise à la fois a et b, alors d divise a + kb et b ;
— si d divise à la fois a + kb et b, alors d divise a = (a + kb) − kb et b.
II. PGCD ET PPCM 125
Et donc : D(a) ∩ D(b) = D(a + kb) ∩ D(b). D’où l’égalité cherchée en prenant le maximum dans les deux
ensembles.
Si on écrit a = bq + r comme étant la division euclidienne de a par b, alors r = a − qb, donc on a bien un
cas particulier.
Théorème II.4 (Algorithme d’Euclide). Si a, b ∈ N avec a ≥ b, on détermine le pgcd de a et b avec
l’algorithme d’Euclide :
1. on pose r1 le reste de la division euclidienne de a par b ; donc a ∧ b = b ∧ r1 et 0 ≤ r1 < b ;
2. si r1 ̸= 0, on pose pose r2 le reste de la division euclidienne de b par r1 ;
3. on continue en posant rk+1 le reste de la division euclidienne de rk−1 par rk , tant que rk est non
nul.
La suite des rk ainsi construite est une suite strictement décroissante d’entiers (ce qui assure bien que l’un
des rk est nul et que l’on s’arrête).
Si l’on note rn le dernier reste non nul, alors :
a ∧ b = b ∧ r1 = r1 ∧ r2 = · · · = rn ∧ rn+1 = rn .
|{z}
=0
Donc le pgcd de a et b est le dernier reste non nul dans l’algorithme d’Euclide.
Remarque II.5. Quitte à changer a et b par |a| et |b|, ou à échanger les rôles de a et b, on sera bien dans
cette situation.
Exemple II.6. Calculons 5742 ∧ 1320 :
• 5742 = 1320 × 4 + 462 ;
• 1320 = 462 × 2 + 396 ;
• 462 = 396 × 1 + 66 ;
• 396 = 66 × 6 + 0.
Donc 5742 ∧ 1320 = 66.
Corollaire II.7. Si a, b ∈ Z, alors : D(a) ∩ D(b) = D(a ∧ b).
Démonstration. On avait vu que, si k ∈ Z : D(a) ∩ D(b) = D(a + kb) ∩ D(b).
En reprenant l’algorithme d’Euclide, on a donc :
Corollaire II.8. Si a, b ∈ Z, le pgcd de a et b est le plus grand élément de D(a) ∩ D(b) au sens de la
divisibilité, c’est-à-dire que le pgcd de a et b est l’unique entier naturel d tel que :
Démonstration. Il est clair que a ∧ b vérifie bien ces hypothèses comme D(a) ∩ D(b) = D(a ∧ b).
Réciproquement, si d ∈ N les vérifie, alors :
— comme d|d, on utilise l’implication précédente avec n = d, et alors d|a et d|b, donc d ∈ D(a)∩D(b) =
D(a ∧ b), donc d|a ∧ b ;
— a ∧ b divise a et b, alors en utilisant l’implication précédente avec n = a ∧ b on trouve que a ∧ b|d.
Donc d et a ∧ b sont des entiers naturels associés : ils sont égaux.
Proposition II.9. Si a, b, k ∈ Z, alors :
∀a ∈ Z, ∃u, v ∈ Z, a ∧ b = au + bv.
— si b = 1 : alors a ∧ b = 1 = a × 0 + b × 1 ;
— si b ∈ N∗ tel que la proposition a été vérifiée jusqu’à b − 1.
Soit a ∈ Z. On écrit a = bq + r avec 0 ≤ r ≤ b − 1 :
— si r = 0 : alors b divise a donc a ∧ b = b = a × 0 + b × 1 ;
— si r > 0 : alors a∧b = b∧r. Par hypothèse de récurrence, il existe u, v ∈ Z tels que b∧r = bu+rv.
Et donc : a ∧ b = b ∧ r = bu + rv = bu + (a − bq)v = av + b(u − qv)
Ce qui prouve la récurrence.
Le cas où b = 0 est immédiat. Et le cas où b < 0 se déduit du cas où b ∈ N∗ .
Remarque II.11. Suivant la preuve, on peut trouver u et v grâce à l’algorithme d’Euclide à l’envers, en
tenant compte des quotients obtenus à chaque étape. Il s’agit de l’algorithme d’Euclide étendu.
66 = 462 − 396
= 462 − (1320 − 462 × 2) = −1320 + 462 × 3
= −1320 + (5742 − 1320 × 4) × 3 = 5742 × 3 − 1320 × 13
Remarque II.13. On savait déjà que, pour tous u, v ∈ Z, a ∧ b divise au + bv. Ce résultat dit ainsi que :
Exemples II.15.
1. deux nombres premiers sont premiers entre eux si, et seulement si, ils sont distincts ;
2. 999 et 484 sont premiers entre eux, 354 et 2035 aussi, et il y en a beaucoup d’autres...
Théorème II.16 (de Bézout). Deux entiers a et b sont premiers entre eux si, et seulement si, il existe
u, v ∈ Z tels que au + bv = 1.
Démonstration.
— si a ∧ b = 1 : on utilise la relation de Bézout ;
— si au + bv = 1 pour u, v ∈ Z : soit d un diviseur de a et b. Alors d divise au + bv = 1, donc d = ±1.
Donc D(a) ∩ D(b) = {±1}, puis a ∧ b = 1.
Remarque II.17. Du fait de la preuve, on peut trouver u, v par l’algorithme d’Euclide étendu.
II. PGCD ET PPCM 127
999 = 2 × 484 + 31
484 = 15 × 31 + 19
31 = 1 × 19 + 12
19 = 1 × 12 + 7 .
12 = 1×7+5
7 = 1×5+2
5 = 2×2+1
1 = 5 − 2 × 2 = 5 − 2 × (7 − 1 × 5)
= 3 × 5 − 2 × 7 = 3 × (12 − 1 × 7) − 2 × 7
= 3 × 12 − 5 × 7 = 3 × 12 − 5 × (19 − 1 × 12)
= 8 × 12 − 5 × 19 = 8 × (31 − 1 × 19) − 5 × 19
= 8 × 31 − 13 × 19
= 8 × 31 − 13 × (484 − 15 × 31)
= 203 × 31 − 13 × 484 = 203 × (999 − 2 × 484) − 13 × 484
= 203 × 999 − 419 × 484
Pour 354 et 2035, on trouve par l’algorithme d’Euclide étendu : 1 = 175 × 2035 − 1006 × 354.
Définition II.19 (Inverse modulaire). Si n ∈ N∗ et a ∈ Z, on dit que a est inversible modulo n s’il existe
b ∈ Z tel que ab ≡ 1 [n].
On dira alors que b est l’inverse modulaire de a (ou que b est l’inverse de a).
Proposition II.20. Si n ∈ N∗ , alors a admet un inverse modulaire si, et seulement si, a est premier avec
n.
Démonstration. L’entier a admet un inverse si, et seulement si, il existe b tel que ab ≡ 1 [n]. C’est-à-dire
si, et seulement si, il existe b, k ∈ Z tels que ab − nk = 1, ce qui revient à ce que a ∧ n = 1 par théorème
de Bézout.
Remarque II.21. En particulier, l’inverse modulaire est donné par l’identité de Bézout.
Exemple II.22.
1. 999 et 203 sont inverses l’un de l’autre modulo 419 ou 484 ;
2. −419 et 484 sont inverses l’un de l’autre modulo 999 ou 203.
Démonstration.
— si a ∧ bc = 1 : on considère u, v ∈ Z tels que au + bcv = 1. Alors :
— comme au + b(cv) = 1 : a ∧ b = 1 ;
— comme au + c(bv) = 1 : a ∧ c = 1.
— si a ∧ b = a ∧ c = 1 : alors, par théorème de Bézout, il existe u1 , v1 , u2 , v2 ∈ Z tels que : 1 =
au1 + bv1 = au2 + cv2 . Donc en les multipliant :
donc ad ∧ db = 1.
Pour n, a′ , b′ comme dans l’énoncé, on a :
Proposition-Définition II.29. Si r ∈ Q, alors il existe une unique écriture de la forme r = ab avec (a, b) ∈
Z × N∗ , et a et b premiers entre eux.
Cette écriture est appelée forme irréductible de r.
′
Si r = ab′ est une autre écriture avec (a′ , b′ ) ∈ Z × N∗ , alors il existe k ∈ N∗ tel que a′ = ak et b′ = bk.
A
Démonstration. Soit r = B ∈ Q avec A, B ∈ Z et B ̸= 0. Quitte à changer (A, B) en (−A, −B), on peut
supposer que B ∈ N∗ .
Le cas où r = 0 est immédiat (car alors a = 0 et b = 1 conviennent). Supposons donc r ̸= 0, c’est-à-dire
A ̸= 0.
A B
Alors a = A∧B et b = A∧B conviennent, ce qui assure l’existence.
′ ′
Donnons-nous b′ une autre écriture. Alors ab′ = ab , donc a′ b = ab′ . Ainsi, b divise ab′ et est premier avec a,
a
′ ′
donc b′ divise b. Et de même a′ divise a. Ce qui assure que aa = bb est un entier (par divisibilité) positif
(comme b, b′ ∈ N∗ ). En le notant k, on a donc : a′ = ka et b′ = kb.
′
Si l’écriture ab′ est irréductible, alors on trouve de même que b′ divise b, et a′ divise a. Donc b et b′ sont
associés et de même signe : ils sont égaux. Donc k = 1, et a = a′ . Ce qui assure l’unicité.
II. PGCD ET PPCM 129
Démonstration. En exercice.
II.3 PPCM
Définition II.31. Si a, b ∈ Z, avec a et b non nul, le plus petit commun multiple (abrégé en ppcm ou
PPCM) de a et b est le plus petit multiple strictement positif commun à a et b :
Démonstration. Supposons déjà que a et b sont premiers entre eux. On chercher alors à montrer que
a ∨ b = |ab|, et donc :
∀n ∈ Z, (a|n et b|n) ⇔ ab|n.
Considérons donc n ∈ Z :
— si ab|n : comme ab est un multiple de a et b, alors n est un multiple de a et de b (par transitivité) ;
— si n est un multiple de a et b : on écrit m = au = bv pour u, v ∈ Z. Et ainsi : a divise bv et est
premier avec b, donc a divise v. On peut donc écrire v = ak, pour k ∈ Z, et donc m = bv = abk est
un multiple de ab.
130 CHAPITRE 11. ARITHMÉTIQUE DANS LES ENTIERS
(a ∨ b) = 0 = ab
a b
Sinon, on applique le résultat précédent à a∧b et a∧b , qui sont premiers entre eux. On a par la proposition
précédente :
a b ab ab
a ∨ b = (a ∧ b) ∨ = (a ∧ b) × 2
=
a∧b a∧b (a ∧ b) a∧b
donc, en multipliant par (a ∧ b) on trouve bien l’égalité voulue.
et on pose 0 ∧ · · · ∧ 0 = 0.
Proposition II.36. Si a1 . . . , an sont des entiers, alors :
n
\
D(pgcd(a1 , . . . , an )) = D(ai ).
i=1
Démonstration. On procède par récurrence sur n ∈ N avec n ≥ 2. Le cas n = 2 ayant été montré avant.
Pour l’hérédité, on pose d = pgcd(a1 , . . . , an ). On a :
n+1 n
!
\ \
D(ai ) = D(ai ) ∩ D(an+1 ) = D(d) ∩ D(an+1 ) = D(d ∧ an+1 )
i=1 i=1
et en prenant le maximum des ensembles précédents, il vient que d ∧ an+1 est le pgcd de a1 , . . . , an+1 , ce
qui donne le résultat voulu.
Remarque II.37. On peut ainsi calculer récursivement le pgcd d’une famille d’entier.
Corollaire II.38. Le pgcd de a1 , . . . , an est le plus grand diviseur commun des ai pour la divisibilité.
n
X
Proposition II.39. Si a1 , . . . , an sont des entiers non nuls, alors il existe u1 , . . . , un ∈ Z tels que : ai ui =
i=1
n
^
ai .
i=1
Démonstration. On procède par récurrence sur n ∈ N avec n ≥ 2. Le cas n = 2 ayant été montré avant.
Pour l’hérédité, on pose d = pgcd(a1 , . . . , an ) : Pn
— par hypothèse de récurrence (pour n) : d = i=1 ai ui ;
— par le point précédent : n+1
V
a
i=1 i = d ∧ a n+1 .
Et ainsi par théorème de Bézout :
n+1
^ n
X
ai = du + an+1 v = ai (dui ) + an+1 v.
i=1 i=1
III. DÉCOMPOSITION EN PRODUIT DE NOMBRES PREMIERS 131
Définition II.41. On dit que des entiers a1 , . . . , an sont premiers entre eux dans leur ensemble si
leur pgcd vaut 1.
On dit qu’ils sont premiers entre eux deux-à-deux si ai et aj sont premiers entre eux pour tous i ̸= j
Proposition II.42. Si les ai sont deux-à-deux premiers entre eux, ils le sont dans leur ensemble.
Démonstration. On a : a1 ∧ a2 ∧ · · · ∧ an == 1.
| {z }
=1
p ∧ n ̸= 1 ⇔ p ∧ n = p ⇔ p|n.
Corollaire III.2 (Lemme d’Euclide). Un nombre premier divise un produit si, et seulement si, il divise l’un
des facteurs.
Démonstration. Soit p un nombre premier :
Théorème III.3 (Théorème fondamental de l’arithmétique). Tout entier strictement positif s’écrit comme
produit (éventuellement vide) de nombres premiers, de manière unique à l’ordre près des facteurs.
Démonstration. Montrons l’existence par récurrence forte sur n ∈ N∗ :
— si n = 1 : alors n est le produit de 0 nombres premiers (un produit vide) ;
— supposons le résultat vrai jusqu’à n ∈ N∗ . Alors :
— si n + 1 est premier : n + 1 = n + 1 (produit à un élément) ;
— si n + 1 est composé : alors n + 1 a un diviseur premier p ≥ 2 et on peut écrire n + 1 = pm avec
m ∈ N∗ et m ≤ n+12
≤ n ; et on applique l’hypothèse de récurrence à m.
132 CHAPITRE 11. ARITHMÉTIQUE DANS LES ENTIERS
Remarque III.5. On a en particulier que p divise n si, et seulement si, vp (n) > 0 (ou vp (n) ̸= 0).
Proposition III.6. Si n est un entier et p un nombre premier, alors pvp (n) est la plus grande puissance de
p qui divise n.
En particulier, on a : Y
n= pvp (n) .
p premier
Démonstration. On regroupe les “p” ensemble dans l’écriture de n en produit de nombres premiers, ce qui
donne l’écriture voulue et le fait que pvp (n) divise n. L’unicité assure que c’est bien la plus grande puissance
de p qui divise n.
Remarque III.7. Le produit ci-dessus est en fait fini (dans le sens où seulement un nombre fini de facteurs
sont différents de 1). Les diviseurs premiers de n sont en nombre fini, donc les nombres premiers p tels
que vp (n) > 0 sont en nombre fini. Pour les autres : vp (n) = 0 donc pvp (n) = 1.
ce qui donne bien que pour tout p premier : vp (ab) = vp (a) + vp (b) par unicité de l’écriture précédente.
Le deuxième point s’en déduit en utilisant que a × ab = b.
Démonstration.
b
— si a divise b : soit p un nombre premier. On a alors vp (a) = vp (b) − vp a
≤ vp (b).
III. DÉCOMPOSITION EN PRODUIT DE NOMBRES PREMIERS 133
— réciproquement : on pose c = p premier pvp (b)−vp (a) qui est un entier naturel (comme tous les vp (b) −
Q
vp (a) sont des entiers naturels) et qui vérifie :
Y Y Y
a×c= pvp (a) × pvp (b)−vp (a) = pvp (b) = b
p premier p premier p premier
donc a divise b.
Démonstration.
1. le lien entre valuation et diviseurs donne que, pour tout entier d :
c divise a vp (c) ≤ vp (a)
⇔ ∀p premier,
et c divise b vp (c) ≤ vp (b)
⇔ ∀p premier,
Q vp (c) ≤ min(vp (a), vp (b))
⇔ c divise p premier pmin(vp (a),vp (b))
et comme le pgcd de a et b est le plus grand diviseur commun pour la divisibilité, on trouve le
résultat voulu.
ab
2. On utilise que a ∨ b = et que pour tous m, n ∈ N : m + n = max(m, n) + min(m, n).
a∧b
Corollaire III.11. Soient a, b ∈ N∗ . Alors a et b sont premiers entre eux si, et seulement si : pour tout p
premier, vp (a) · vp (b) = 0.
a∧b=1 ⇔ ∀p premier, vp (a ∧ b) = 0
⇔ ∀p premier, min(vp (a), vp (b)) = 0
⇔ ∀p premier, vp (a) = 0 ou vp (b) = 0
⇔ ∀p premier, vp (a) · vp (b) = 0
Donc p divise le membre de droite, donc un de ses facteurs. Mais il ne divise pas
p
k! = 1 · · · · · k comme
k < p, et pas non plus (p − k)! = 1 · · · · · (p − k) comme k > 1. Donc p divise k .
Montrons alors par récurrence que le résultat est vrai si a ∈ N :
— si a = 0 : ap = 0p ≡ 0 = a [p] ;
— si ap ≡ a [p] : alors par formule du binôme :
p
p
X p k
(a + 1) = a ≡ ap + 1 ≡ a + 1 [p]
k=0
k
Exemple III.18. Montrons que, si n ∈ Z, tous les diviseurs premiers impairs de n2 + 1 sont congrus à 1
modulo 4.
Soit p un nombre premier impair divisant n2 + 1. Alors p ne divise pas n2 (sinon il diviserait 1), donc il
ne divise pas non plus n.
Donc par le petit théorème de Fermat : np−1 ≡ 1 [p].
Mais n2 ≡ −1 [p]. Et comme p est impair, p−1 2
∈ N. Et on a :
p−1 p−1
1 ≡ np−1 ≡ (n2 ) 2 ≡ (−1) 2 [p]
Mais (−1)k = ±1, pour k ∈ Z. Et −1 n’est pas congru à 1 modulo p (comme p est premier impair, donc
p−1
p > 2). Donc finalement : (−1) 2 = 1, donc p−1
2
est pair, c’est-à-dire que p est bien congru à 1 modulo 4.
136 CHAPITRE 11. ARITHMÉTIQUE DANS LES ENTIERS
Chapitre 12
Calculs matriciels
Si (i, j) ∈ J1; nK × J1; pK, le scalaire ai,j est appelé le coefficient d’indice (i, j) de A.
On note Mn,p (K) l’ensemble des matrices à n lignes et p colonnes à coefficients dans K.
Si n = p, on notera plus simplement Mn (K) au lieu de Mn,n (K), et on parlera de matrices carrées de
taille n.
Remarques I.2.
1. Pour spécifier une matrice par ses coefficients, en précisant son nombre de lignes et de colonne, on
pourra noter A = (ai,j ) 1 ≤ i ≤ n , ou plus simplement A = (ai,j ) s’il n’y a pas d’ambiguı̈té.
1≤j ≤p
2. Inversement, on notera [A]i,j le coefficient d’indice (i, j) de A, pour éviter d’introduire trop de
notations.
3. Deux matrices sont égales si elles définissent la même application, c’est-à-dire si elles ont même
taille et mêmes coefficients.
Exemples I.3. On a :
1 2 3 1 i
∈ M2,3 (R) et ∈ M2 (C)
2 1 4 i 1
.
On a de même :
1 1
j
i 1≤i≤3 = 2 4 ∈ M3,2 (C).
1≤j ≤2
3 9
137
138 CHAPITRE 12. CALCULS MATRICIELS
Définition I.6. On appelle matrice nulle l’unique matrice de Mn,p (K) dont tous les coefficients sont nuls.
On la note parfois 0n,p .
Quand n = p, on la note plus simplement 0n .
Quand il n’y aura pas d’ambiguı̈té, on la notera plus simplement 0.
Définition I.7. Soient n ∈ N∗ et A = (ai,j ) ∈ Mn (K). On dira que la matrice A est :
1. triangulaire supérieure si : ∀i, j ∈ J1; nK, i > j ⇒ ai,j = 0, c’est-à-dire que A est de la forme :
a1,1 a1,2 . . . . . . a1,n
0 a2,2 . . . . . . a2,n
0 0 a 3,3 . . . a 3,n
.. .. .. ..
. . . .
0 0 . . . . . . an,n
2. triangulaire inférieure si : ∀i, j ∈ J1; nK, i < j ⇒ ai,j = 0, c’est-à-dire que A est de la forme :
a1,1 0 0 ... 0
a2,1 a2,2 0 . . . 0
..
a3,1 a3,2 a3,3 . . . .
. .. .. ..
.. . . .
an,1 an,2 . . . . . . an,n
3. diagonale si ∀i, j ∈ J1; nK, i ̸= j ⇒ ai,j = 0, c’est-à-dire que A est de la forme :
a1,1 0 . . . 0
0 a2,2 . . . 0
.. . . . . ..
. . . .
0 . . . 0 an,n
4. scalaire si elle est diagonale et que tous ses coefficients diagonaux sont égaux, c’est-à-dire qu’il
existe λ ∈ K tel que A est de la forme :
λ 0 ... 0
0 λ . . . 0
.. . . . . ..
. . . .
0 ... 0 λ
Dans le cas particulier où λ = 1, on parlera de la matrice identité (d’ordre n), notée aussi In .
II. COMBINAISONS LINÉAIRES DE MATRICES 139
Remarques I.8.
1. Les matrices diagonales correspondent aux matrices à la fois triangulaire supérieure et triangulaire
supérieure.
2. Si λ1 , . . . , λn ∈ K, on note Diag(λ1 , . . . , λn ) la matrice diagonale dont les coefficients sont les
λ1 , . . . , λn dans cet ordre, c’est-à-dire que :
λ1 0 . . . 0
0 λ2 . . . 0
Diag(λ1 , . . . , λn ) = .. . . . .
..
. . . .
0 . . . 0 λn
(λµ) · A = λ · (µ · A).
Démonstration. Si (i, j) ∈ J1; nK × J1; pK, alors par associativité du produit sur K :
donc les matrices considérées ont même taille et mêmes coefficients : elles sont égales.
Définition II.4 (Somme de matrices). Si A = (ai,j ) et B = (bi,j ) sont deux matrices de Mn,p (K), on définit
la somme de A et B, notée A + B, comme la matrice : A + B = (ai,j + bi,j ) ∈ Mn,p (K).
Proposition II.5. Si A, B, C ∈ Mn,p (K) et λ, µ ∈ K, alors :
1. A + B = B + A (commutativité de la somme) ;
2. A + (B + C) = (A + B) + C (associativité de la somme) ;
3. 0n,p + A = A = A + 0n,p (0n,p est un élément neutre pour la somme) ;
4. la matrice (−1) · A, qu’on notera plus simplement −A, est l’unique matrice D ∈ Mn,p (K) telle que :
A + D = 0n,p = D + A ;
5. (λ + µ)A = λA + µA ;
6. λ · (A + B) = λ · A + λ · B.
Démonstration. Dans toutes les égalités à montrer, les matrices ont même taille (à savoir (n, p)). Donc
pour vérifier les égalités, il suffit de vérifier les égalités des coefficients. Soit (i, j) ∈ J1; nK × J1; pK :
1. Par commutativité de l’addition sur K, on a :
Remarque II.6. L’idée est que l’on peut manipuler les additions de matrices et les multiplications par des
scalaires exactement comme les opérations usuelles + et × sur K.
j ème colonne
↓
0 ... 0 ... 0
.. .. ..
. . .
i-ème ligne → 0 . . . 1 ... 0
. .. ..
.. . .
0 ... 0 ... 0
Les matrices Ei,j ainsi définies sont appelées matrices élémentaires (de taille (n, p)).
Remarque II.8. On prendra garde au fait que la taille d’une matrice élémentaire n’apparaı̂t pas dans sa
notation.
Définition II.10 (Symbole de Kronecker). Si i, j ∈ Z (et plus souvent i, j ∈ N), on appelle symbole de
1 si i = j
Kronecker la quantité notée δi,j et définie par : δi,j = .
0 si i ̸= j
Proposition II.11. Si n, p ∈ N∗ , les matrices élémentaires de Mn,p sont données par :
donc seuls le coefficient d’indice (k, l) est non nul, et vaut alors 1. Il s’agit donc bien de Ek,l .
Proposition II.12. Si A ∈ Mn,p (K), alors A est une combinaison linéaire de matrices élémentaires :
il existe des scalaires λi,j tels que :
p
n X
X
A= λi,j Ei,j .
i=1 j=1
p
n X
X
A= ai,j Ei,j .
i=1 j=1
est la seule écriture possible de A comme combinaison linéaire des matrices élémentaires.
Démonstration. Considérons λi,j une famille de scalaire indexée par (i, j) ∈ J1; nK × J1; pK. Posons B =
P n Pp
i=1 j=1 i,j i,j .
λ E
Par définition des opérations matricielles, le coefficient d’indice (k, l) de B est λk,l : puisque c’est le
coefficient de λk,l Ek,l , et toutes les autres matrices de la double somme ont comme coefficient 0 en indice
(k, l).
Et ainsi, comme les matrices A et B ont même taille :
Remarque III.2. Cette formule se visualise assez bien : pour calculer le coefficient d’indice (i, j) de la
matrice AB, on multiplie dans l’ordre les éléments de la i-ème ligne de A avec ceux de la j-ème colonne
de B, et on ajoute les produits obtenus.
Pour multiplier deux matrices, il faut donc que la première matrice ait autant de colonnes que la seconde
a de lignes ; par exemple, on peut toujours multiplier ensemble des matrices carrées de même taille.
142 CHAPITRE 12. CALCULS MATRICIELS
j ème colonne
↓
b1,1 . . . b1,j . . . b1,q
b2,1 . . . b2,j . . . b2,q
.. .. ..
. . .
bp,1 . . . bp,j . . . bp,q
a1,1 a1,2 . . . a1,p c1,1 . . . c1,j . . . c1,q
.. .. .. .. .. ..
. . . . . .
i-ème ligne → ai,1 ai,2 . . . ai,p ci,1 . . . ci,j . . . ci,q
. .. .. . .. ..
.. . . .. . .
an,1 an,2 . . . an,p cn,1 . . . cn,j . . . cn,q
j ème colonne
↓
ai,1 b1,j b1,1 . . . b1,j . . . b1,q
ai,2 b2,j b2,1 . . . b2,j . . . b2,q
.. .. .. ..
. . . .
ai,p bp,j bp,1 . . . bp,j . . . bp,q
a1,1 a1,2 . . . a1,p c1,1 . . . c1,j . . . c1,q
.. .. .. .. .. ..
. . . . . .
i-ème ligne → ai,1 ai,2 . . . ai,p ci,1 . . . ci,j . . . ci,q
. .. .. . .. ..
.. . . .. . .
an,1 an,2 . . . an,p cn,1 . . . cn,j . . . cn,q
Exemples III.3.
2 3 1 −4
2 1
1. 1 −2 = 4 5 ;
−1 −2
2 −3 7 8
1 3 0 1 6 10
2. =
0 1 2 3 2 3
0 1 1 3 0 1
3. = ;
2 3 0 1 2 9
1 −1 1 2 0 0
4. = .
−2 2 1 2 0 0
Remarque III.4.
Si A, B sont deux matrices non carrées, les produits AB et BA n’ont pas la même taille (il se peut même
qu’un seul ait un sens).
Mais même si A et B sont carrées de même taille, on n’a pas toujours AB = BA (c’est même rare).
Pire : on peut avoir AB = 0 sans que ni A ni B ne soit nulles.
Proposition III.5. Le produit matriciel vérifie les propriétés suivantes : si A, A′ ∈ Mn,p (K), B, B ′ ∈
Mp,q (K), C ∈ Mq,r (K), λ, µ ∈ K, alors :
1. (AB)C = A(BC) (associativité du produit matriciel) ;
2.
(λA + µA′ )B = λAB + µA′ B et A(λB + µB ′ ) = λAB + µAB ′ (bilinéarité du produit matriciel);
III. PRODUIT MATRICIEL 143
en notant que, à i fixé, la seule valeur de k pour laquelle [In ]i,k ̸= 0 est k = i, et alors [In ]i,i = 1.
4. soit (i, j) ∈ J1; nK × J1; qK :
n p
X X
[(λA)(µB)]i,j = [λA]i,k [µB]k,j = λµ [A]i,k [B]k,j = λµ[AB]i,j = [(λµ)(AB)]i,j .
k=1 k=1
Corollaire III.6. Si λ ∈ K, la multiplication par la matrice scalaire de coefficient λ (à gauche ou à droite)
coı̈ncide avec la multiplication scalaire par λ.
Démonstration. On applique les points 3 et 4 :
et en particulier le produit d’une matrice ligne par une matrice colonne n’a de sens que si elles ont autant
de coefficients.
144 CHAPITRE 12. CALCULS MATRICIELS
À l’inverse, le produit (dans cet ordre) d’une matrice colonne par une matrice ligne a toujours un sens,
et la matrice obtenue a autant de lignes que la matrice colonne, et de colonnes que la matrice ligne. Ses
coefficients donnent tous les produits possibles de coefficients des deux matrices :
a1 a1 b 1 a1 b 2 . . . a 1 b p
a2 a2 b 1 a2 b 2 . . . a 2 b p
.. · b1 b2 . . . bp = .. .. = (ai bj )i,j ∈ Mn,p (K)
..
. . . .
an an b1 an b2 . . . an bp
Proposition III.8. Si A, B sont deux matrice, alors AB est la matrice des produits des lignes de A par les
colonnes de B (en identifiant M1,1 (K) à K).
Démonstration. Soient A = (ai,j ) ∈ Mn,p (K) et B = (bi,j ) ∈ Mp,q (K). Notons A1 , . . . , An les lignes de A,
et B1 , . . . , Bq les colonnes de B. Alors pour tout (i, j) ∈ J1; nK × J1; qK :
p p
X X
[AB]i,j = ai,k bk,q = [Ai ]1,k [Bj ]k,1 = [Ai Bj ]1,1 .
k=1 k=1
.
..
Remarque III.10. Si (i, j) ∈ J1; nK × J1; pK, en prenant X = Ej = 1 ∈ Mp,1 (K) avec un 1 en j-ème
..
.
position et des 0 sinon, et Y = Fj = . . . 1 . . . ∈ M1,n (K) avec un 1 en i-ème position et des 0 sinon,
on trouve : Fi A = Li et AEj = Cj .
III. PRODUIT MATRICIEL 145
Remarque III.12. On peut aussi définir récursivement, en notant que Ak = A × Ak−1 si k > 0.
Remarque III.13. Si on ne considère qu’une seule matrice A, les puissances se comportent bien avec les
produits : ∀k, l ∈ N, Ak Al = Ak+l .
En revanche, on n’a pas en général que (AB)k = Ak B k .
Définition III.14 (Matrices nilpotentes). Soit A ∈ Mn (K). On dit que A est nilpotente s’il existe p ∈ N
tel que Ap = 0n .
On appelle alors l’indice de nilpotence de A le plus petit entier k tel que Ak = 0n , c’est-à-dire que :
Ak = 0n et que Ak−1 ̸= 0n .
Exemples III.15.
1. la matrice nulle est la seule matrice nilpotente d’indice 1 ;
0 1 0
2. considérons A = 0 0 1. Alors :
0 0 0
0 0 1 0 0 0
A2 = 0 0 0 ̸= 03 et A3 = 0 0 0 = 03
0 0 0 0 0 0
Remarque III.19. En fait, le précédent est un peu plus fort : on peut changer l’ordre des facteurs comme
on veut dans une succession de puissances de A et B, et le regrouper comme cela nous arrange.
Théorème III.20 (Formule du binôme). Soient A, B deux matrices qui commutent et n ∈ N. Alors :
n
n
X n k n−k
(A + B) = A B .
k=0
k
et ainsi (par associativité) toutes les puissances de B plus grande que 2 sont nulles.
La somme donnée par le binôme se simplifie donc pour n ̸= 0 :
1 n
n
X n n−k k n n−1 2 n · 2n−1
A = 2 B = 2 I2 + |n · 2{z B} = .
k |{z} 0 2n
k=0 k=0 k=1
Pour n = 0, on a A0 = I2 et la formule
n précédente
reste donc valable.
n−1
2 n · 2
Et ainsi pour tout n ∈ N : An = .
0 2n
3 1
Exemple III.23. Calculons les puissances de la matrice A = .
1 3
3 0 0 1
On a : A = + .
0 3 1 0
| {z } | {z }
=3·I2 =B
Comme 3I2 est scalaire, alors elle commute avec B et on peut appliquer la formule du binôme, qui donne
pour tout n ∈ N :
n n
n n
X n n−k k
X n n−k k
A = (3I2 + B) = (2I2 ) B = 2 B
k=0
k k=0
k
III. PRODUIT MATRICIEL 147
= S1 I2 + S2 B
n n
X n n−k X n n−k
où S1 = 3 et S2 = 3 que l’on va calculer. On a :
k=0
k k=0
k
k pair k impair
n n
X n n−k k n
X n n−k
S1 + S2 = 3 1 = 4 et S1 − S2 = 3 (−1)k = 2n
k=0
k k=0
k
4n + 2n 4n − 2n
et ainsi : S1 = et S2 = .
2 2
Et en réinjectant ces valeurs on trouve que pour tout n ∈ N :
4n + 2n 4n − 2n 0 1
n 1 0 1 4n + 2n 4n − 2n
A = + = .
2 0 1 2 1 0 2 4n − 2n 4n + 2n
On pourrait aussi calculer les puissances de A par la formule du binôme en décomposant A comme :
1 1 −1 1
A = 2 · I2 + ou A = 4 · I2 +
1 1 1 −1
où le point important est que les matrices que l’on somme pour obtenir A commutent, et leurs puissances
se calculent facilement.
c’est-à-dire que : Ei,j Ek,l = 0n,q si k ̸= j, et qu’il s’agit sinon de la matrice élémentaire d’indice (i, l) de
taille (n, q).
Corollaire III.26. Si A est une matrice et Ei,j une matrice élémentaire. Alors si les produits suivants sont
bien définis :
1. A · Ei,j est la matrice dont la j-ème colonne est la i-ème colonne de A, et tous ses autres coefficients
sont nuls ;
2. Ei,j · A est la matrice dont la i-ème ligne est la j-ème ligne de A, et tous ses autres coefficients sont
nuls.
P
Démonstration. On écrit A comme combinaisons de matrices élémentaires : A = k,l ak,l Ek,l .
Par bilinéarité du produit matriciel, on trouve que :
X X
A · Ei,j = ak,l Ek,l Ei,j = ak,i Ek,j
k,l k
X X
Ei,j · A = ak,l Ei,j Ek,l = aj,l Ei,l
k,l l
Proposition III.27. Le produit de deux matrices triangulaires supérieures (resp. triangulaires inférieures,
diagonales) est une matrice triangulaire supérieure (resp. triangulaire inférieure, diagonale).
De plus, les coefficients diagonaux de la matrice produit sont égaux (dans l’ordre) aux produits deux-à-deux
des coefficients diagonaux des matrices de départ.
Remarque III.28. On retrouve que le produit de matrices scalaires est une matrice scalaire. Qu’on savait
déjà car :
(λIn )(µIn ) = (λµ)In .
IV. TRANSPOSITION 149
Définition III.29 (Matrices par blocs). Si n1 , n2 , p1 , p2 ∈ N∗ et A1,1 ∈ Mn1 ,p1 (K), A1,2 ∈
Mn1 ,p2 (K), A2,1 ∈
A1,1 A1,2
Mn2 ,p1 (K), A2,2 ∈ Mn2 ,p2 (K), on leur associe la matrice en blocs notée , qui est l’élément
A2,1 A2,2
A ∈ Mn1 +n2 ,p1 +p2 (K) défini par :
[A1,1 ]i,j si 1 ≤ i ≤ n1 et 1 ≤ j ≤ p1
si 1 ≤ i ≤ n1 et p1 + 1 ≤ j ≤ p1 + p2
[A ]
1,2 i,(j−p1 )
[A]i,j =
[A2,1 ](i−n1 ),j si n1 + 1 ≤ i ≤ n1 + n2 et 1 ≤ j ≤ p1
si n1 + 1 ≤ i ≤ n1 + n2 et p1 + 1 ≤ j ≤ p1 + p2
[A ]
2,2 (i−n1 ),(j−p1 )
Proposition III.30. Le produit d’une matrice est compatible avec les matrices en blocs, dans le sens où,
sous réserve que tous les produits matriciels ci-dessous aient un sens :
A1,1 A1,2 B1,1 B1,2 A1,1 B1,1 + A1,2 B2,1 A1,1 B1,2 + A1,2 B2,2
· = .
A2,1 A2,2 B2,1 B2,2 A2,1 B1,1 + A2,2 B2,1 A2,1 B1,2 + A2,2 B2,2
IV Transposition
Définition IV.1. Si A = (ai,j ) ∈ Mn,p (K), on appelle transposée de A, notée AT (ou parfois t A) la
matrice AT = (bi,j ) ∈ Mp,n (K) telle que :
Remarque IV.2. Prendre la transposée revient à échanger les lignes et les colonnes (les lignes de A sont
les colonnes de AT et inversement). Visuellement, prendre la transposée revient à effectuer une symétrie
par rapport à la diagonale. En particulier, les coefficients diagonaux ne changent pas.
1 0
1 3 2 −1 3 -2
Exemple IV.3. Si A = , alors AT = 2 1 .
0 -2 1 2
−1 2
Proposition IV.4. La transposition est involutive, c’est-à-dire que, si A ∈ Mn,p (K), alors :
T
AT =A
Remarque IV.5. La transposition est une application de Mn,p (K) sur Mp,n (K) : comme ces ensembles
sont a priori distincts (sauf si n = p), alors il ne s’agit pas d’une involution comme on l’entendait pour
les applications. S
Mais on peut pallier ce problème en posant E = n,p∈N∗ Mn,p (K) : et dans ce cas on peut bien voir la
transposition comme une application bijective de E sur lui-même qui est sa propre réciproque.
Proposition IV.6 (Linéarité de la transposition). Si A, B ∈ Mn,p et λ, µ ∈ K, alors :
Démonstration. Comme les matrices ont même taille, on regarde chaque coefficient. Si (i, j) ∈ J1; pK ×
J1; nK : h i
T
= [λA + µB]j,i = λ[A]j,i + µ[B]j,i = λ AT i,j + µ [B]i,j .
(λA + µB)
i,j
(AB)T = B T AT .
Démonstration. Soit (i, j) ∈ J1; qK × J1; nK :
p
X
(AB)T i,j = [AB]j,i = [A]j,k [B]k,i
k=1
p
X .
T T T T
= [B ]i,k [A ]k,j = [B A ]i,j
k=1
Remarque IV.10. Le dernier point ressemble beaucoup à l’écriture d’une fonction comme somme d’une
fonction paire et d’une fonction impaire. L’idée derrière est que l’on cherche à décomposer en somme d’un
élément stable (c’est-à-dire dont l’image est lui-même) par une involution et d’un élément “anti”-stable
(c’est-à-dire un élément dont l’image est son opposé) par cette même involution.
Pour les fonction, il s’agissait de l’involution :
F(R, R) → F(R, R)
φ:
f 7→ (x 7→ f (−x))
Et on retrouve même un autre résultat analogue : la valeur “x = 0” correspond sensiblement aux coefficients
de la diagonale dans une matrice (ce sont les éléments stables par la symétrie derrière l’involution). Et
une fonction impaire s’annule en 0, comme les coefficients diagonaux d’une matrice antisymétrique.
V. MATRICES INVERSIBLES ET SYSTÈMES LINÉAIRES 151
B = B · In = B · (AC) = (BA) · C = In · C = C.
Exemples V.3.
1. la matrice In est inversible, d’inverse elle-même.
2. plus généralement, une matrice diagonale dont les coefficients valent tous ±1 est inversible d’inverse
elle-même.
3. dès lors qu’une matrice possède une ligne ou une colonne nulle, elle ne peut pas être inversible. Par
exemple la matrice nulle n’est pas inversible.
4. Une matrice nilpotente n’est pas inversible.
Démonstration.
1. A · A−1 = In = A−1 A ;
2. (λA) λ1 A−1 = λ λ1 AA−1 = In , et de même 1 −1
λ
A (λA) = In ;
3. (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIn A−1 = AA −1
= In et de même (B −1 A−1 )(AB) = In ;
4. on procède par récurrence sur k en utilisant le point précédent ;
T
5. par transposée d’un produit : AT (A−1 )T = (A−1 A) = InT = In et de même (A−1 )T AT .
Définition V.5 (Puissances négatives d’une matrice inversible). Si A ∈ GLn (K) et k ∈ Z. On pose :
Ak
k si k ≥ 0
A = −1 −k .
(A ) si k < 0
Proposition V.6. Une matrice triangulaire supérieure (resp. triangulaire inférieure) est inversible si, et
seulement si, ses coefficients diagonaux sont non nuls.
Dans ce cas, son inverse est également triangulaire supérieure (resp. triangulaire inférieure) et se coeffi-
cients diagonaux sont les inverses de ceux de la matrice de départ.
152 CHAPITRE 12. CALCULS MATRICIELS
Démonstration. Montrons le pour une matrice triangulaire supérieure. Le cas des matrices triangulaires
inférieures découlera par transposition.
Montrons par récurrence sur n ∈ N∗ que : tout matrice triangulaire supérieure de taille n est inversible si,
et seulement si, ses coefficients diagonaux sont non nuls.
— si n = 1 : alors
1
A = (a). Et donc : si a = 0, A = 01 n’est pas inversible ; si a ̸= 0, A est inversible
d’inverse a .
— supposons le résultat vérifié pour toutes les matrices triangulaires supérieure de taille n, et donnons-
nous A ∈
Mn+1 (K) triangulaire supérieure. Écrivons A sous forme de la matrice par blocs : A =
A1 A2
où A1 ∈ Mn (K), A2 ∈ Mn,1 (K) et a ∈ K. Notons que A1 est triangulaire supérieure,
01,n a
et que les coefficients diagonaux de A sont ceux de A1 et a.
B 1 B 2
— si A est inversible : notons, suivant les mêmes tailles de blocs que A, écrivons : A−1 = .
B3 b
Par produit en blocs, on a :
−1 A1 B1 + A2 B3 A1 B2 + A2 b In 0n,1 −1 B1 A1 B1 A2 + B2 a
AA = = =A A=
aB3 ab 01,n 1 B3 A1 B3 A2 + ab
| {z }
In+1
(E) : AX = B
où A = (ai,j ) ∈ Mn,p (K) et B = (bi ) ∈ Mn,1 sont donnés, et X = (xi ) ∈ Mp,1 (K) est l’inconnue.
Démonstration. Clair.
Proposition V.10. Avec les mêmes notations, le système précédent est compatible si, et seulement si, B
est combinaison linéaire des colonnes de A.
Proposition V.11. On suppose le système (S) compatible, et on pose X0 une de ses solutions.
Alors les solutions de (S) sont les X0 + Y , où Y est une solution du système homogène associé.
AX = B ⇔ AX = AX0 ⇔ A(X − X0 ) = 0
Corollaire V.12. Avec les mêmes notations, si p > n, alors l’équation AX = B admet soit une infinité de
solutions, soit aucune.
Démonstration. Découle de l’ensemble solution d’un système homogène possédant plus d’inconnues que
d’équations.
Proposition V.13. Soit A ∈ Mn (K). Alors A est inversible si, et seulement si, l’équation AX = B
d’inconnue X ∈ Mn,1 (K) possède une solution pour tout B ∈ Mn,1 (K).
Dans ce cas, pour tout B, le système AX = B admet une unique solution.
donc nécessairement y0 ̸= 0.
En posant Ye = y10 Y0 , on a ainsi : Ye A = In .
Ainsi A est inversible à gauche (d’inverse X) e et à droite (d’inverse Ye ). Et on a aussi que :
Ye = Ye · In = Ye (AX)
e = (Ye A)X
e = In X
e =X
e
Théorème V.14. Soit A ∈ Mn (K). Alors A est inversible si, et seulement si, l’une des conditions suivantes
est vérifiée :
1. pour tout B ∈ Mn,1 (K) le système AX = B a une solution ;
2. pour tout B ∈ Mn,1 (K) le système AX = B a une unique solution ;
3. il existe B ∈ Mn,1 (K) le système AX = B a une unique solution ;
4. l’équation AX = 0 a pour seule solution X = 0 ;
5. il existe une matrice C ∈ Mn (K) telle que AC = In ;
6. il existe une matrice C ∈ Mn (K) telle que CA = In .
Remarque V.15. Un matrice est donc inversible à droite si, et seulement si, elle est inversible à gauche.
Ceci est tout à fait remarquable compte tenu du fait que la multiplication matricielle n’est pas commutative
sur Mn (K). En particulier, dans 5 et 6, la matrice C est unique et est égale à A−1 .
Démonstration. Soit A ∈ Mn (K). On considère Ei,j la matrice élémentaire d’indice (i, j) de taille n. On
rappelle que :
— la matrice Ei,j A est la matrice dont la i-ème ligne est la j-ème ligne de A ;
— la matrice AEi,j est la matrice dont la j-ème colonne est la i-ème colonne de A.
On peut alors exprimer les opérations élémentaires sur les lignes en terme de multiplication à gauche :
— la permutation Li ↔ Lj : par In − Ei,i − Ej,j + Ei,j + Ej,i ;
— la dilatation Li ← λLi : par Diag(1, . . . , 1, λ, 1, . . . , 1) = In + (λ − 1)Ei,i ;
— la transvection Li ← Li + λLj : par In + λEi,j .
Donc on trouve bien le résultat voulu.
Les opérations élémentaires sur les colonnes s’obtiennent de même par multiplication à droite :
— la permutation Ci ↔ Cj : par In − Ei,i − Ej,j + Ei,j + Ej,i (comme pour les lignes) ;
— la dilatation Ci ← λCi : par Diag(1, . . . , 1, λ, 1, . . . , 1) = In + (λ − 1)Ei,i (comme pour les lignes) ;
— la transvection Ci ← Ci + λCj : par In + λEj,i (la transposée de la matrice pour les lignes).
Proposition V.19. Réaliser des opérations élémentaires sur les lignes ou les colonnes d’une matrice ne
change pas son inversibilité.
Démonstration. Notons que, si B est une matrice inversible, alors une matrice A est inversible si, et
seulement si, AB est inversible (par inversibilité d’un produit).
Le résultat découle alors du fait que les matrices associées aux opérations élémentaires sont inversibles :
pour les dilatations ou transvection, il s’agit de matrices triangulaires de coefficients diagonaux non nuls ;
pour les permutations on peut voir que la matrice est son propre inverse.
Corollaire V.20. Une matrice possédant deux lignes identiques ou deux colonnes identiques n’est pas in-
versible.
Démonstration. Par opérations élémentaires, on se ramène à l’inversibilité d’une matrice qui possède une
ligne ou une colonne nulle.
Corollaire V.21. Si A ∈ Mn (K), alors A est inversible si, et seulement si, le système AX = 0 a pour seule
solution 0.
Corollaire V.22. La matrice A est inversible si, et seulement si, pour un B ∈ Mn,1 (K) l’équation AX = B
admet une unique solution.
Démonstration. Pour le premier cas, le système admet toujours une solution peu importe la valeur de Y ,
donc A est inversible.
Réciproquement, si A est inversible, alors A′ = A−1 convient.
1 −1 1 x a
Exemple V.25. Considérons la matrice A = −2 −1 0 . Posons X = y et Y = b . Alors :
3 −1 2 z c
x − y + z = a
AX = Y ⇔ −2x − y = b
3x − y + 2z = c
x − y + z = a
⇔ − 3y + 2z = 2a + b
2y − z = −3a + c
x − y + z = a
⇔ − 3y + 2z = 2a + b
z = −5a + 2b + 3c
x − y = 6a − 2b − 3c
⇔ − 3y = 12a − 3b − 6c
z = −5a + 2b + 3c
x − y = 6a − 2b − 3c
⇔ y = −4a + b + 2c
z = −5a + 2b + 3c
x = 2a − b − c
⇔ y = −4a + b + 2c
z = −5a + 2b + 3c
2 −1 −1
⇔ X = −4 1
2 Y
−5 2 3
1 −1 1 2 −1 −1
Donc −2 −1 0 est inversible d’inverse −4 1 2 .
3 −1 2 −5 2 3
V. MATRICES INVERSIBLES ET SYSTÈMES LINÉAIRES 157
1 −1 1
Exemple V.26. Faisons la même chose avec B = −2 −1 1 et reprenons les mêmes X, Y . Alors :
3 −1 1
x
− y + z = a
AX = Y ⇔ −2x − y + z = b
3x − y + z = c
x − y + z = a
⇔ − 3y + 3z = 2a + b
2y − 2z = −3a + c
x − y + z = a
⇔ − 3y + 2z = 2a + b
0 = −5a + 2b + 3c
1
Donc l’équation BX = 0 n’a pas de solution, car alors :−5a + 2b + 3c = −5 ̸= 0.
0
Donc B n’est pas inversible.
On pouvait aussi directement chercher à résoudre BX = 0, et voir qu’il y a une solution
non
nulle.
Comme
0 −1 1
les deuxième et troisième colonnes de B sont opposées, on a (sans calcul) que B 1 = −1+1 = 0,
1 −1 1
donc l’équation BX = 0 admet une solution non nulle, et B n’est pas inversible.
Proposition V.27. Si A est inversible, la suite d’opérations élémentaires sur les lignes qui transforme A
en In transformera In en A−1 .
Démonstration. Notons P1 , P2 , . . . , Pr les opérations élémentaires que l’on effectue dans cet ordre, c’est-à-
dire que :
Pr . . . P1 P0 A = In .
Remarques V.28.
1. On pourrait faire avec les opérations sur les colonnes, mais il ne faut pas mélanger les opérations
sur les lignes et les colonnes dans un même calcul d’inverse de matrice.
2. On a même mieux : si, avec des opérations élémentaires, on transforme A en une matrice non
inversible, alors A n’était pas inversible.
1 1 1
Exemple V.29. Étudions l’inversibilité de la matrice A = 1 2 3 par opérations élémentaires sur les
1 4 8
158 CHAPITRE 12. CALCULS MATRICIELS
lignes :
1 1 1 1 0 0
1 2 3 0 1 0
1 4 8 0 0 1
1 1 1 1 0 0
0 1 2 −1 1 0
0 3 7 −1 0 1
1 1 1 1 0 0
0 1 2 −1 1 0
0 0 1 2 −3 1
1 1 0 −1 3 −1
0 1 0 −5 7 −2
0 0 1 2 −3 1
1 0 0 4 −4 1
0 1 0 −5 7 −2
0 0 1 2 −3 1
4 −4 1
donc la matrice A est inversible. Son inverse est : A−1 = −5 7 −2.
2 −3 1
Remarque V.30. Quand on cherche à inverser la matrice A par opérations élémentaires sur les lignes, au
lieu de travailler avec deux matrices simultanément, on peut travailler avec la matrice rectangulaire (AIn )
(de taille n × 2n), que l’on cherche à échelonner, ce qui revient exactement au même.
Chapitre 13
Les réels
159
160 CHAPITRE 13. LES RÉELS
Remarque I.7. L’idée derrière étant que la borne supérieure est le plus petit majorant : tout nombre
strictement plus petit n’est plus un majorant.
Définition I.8. Étant donné I un intervalle non-vide de R, notons ∂I l’ensemble (éventuellement vide) de
ses bornes inférieure et supérieure (selon que I est minoré, majoré ou borné). On définit alors l’adhérence
de I, notée I, comme I = I ∪ ∂I.
L’ensemble ∂I est appelé l’ensemble des extrémités de I.
Remarques I.9.
1. L’adhérence se voit bien sur la notation avec les crochets : cela consiste à tourner les crochets qui
définissent I vers l’intérieur.
2. Un segment est égal à son adhérence.
Exemples I.10.
1. [0; 1[ = [0; 1] ;
2. R∗+ = R+ ;
3. si I = R, alors I = R (et donc on prendra garde à ne pas confondre avec R).
Théorème I.11. L’ensemble R est archimédien, c’est-à-dire que :
∀a ∈ R∗+ , ∀b ∈ R, ∃n ∈ N, na ≥ b.
Démonstration. Soient a ∈ R∗+ et b ∈ R. Par l’absurde, supposons que : ∀n ∈ N, na < b.
Alors l’ensemble A = {na, n ∈ N} est une partie non vide majorée de R, donc possède une borne supérieure
M.
Soit n ∈ N. Alors (n + 1) ∈ N, donc (n + 1)a ∈ A, donc : (n + 1)a ≤ M . Et finalement : na ≤ M − a, donc
M − a est un autre majorant de A.
Ceci contredit le fait que M est la borne supérieure de A.
Théorème-Définition I.12. Soit x ∈ R. On appelle partie entière de x, notée ⌊x⌋, l’unique entier relatif
n tel que : n ≤ x < n + 1.
Démonstration. 1. unicité : supposons que n, n′ ∈ Z conviennent, c’est-à-dire tels que :
n ≤x< n+1
.
n′ ≤ x < n ′ + 1
n < n′ + 1
Alors : et donc −1 < n − n′ < 1.
n′ < n + 1
Mais n − n′ est un entier, donc n − n′ = 0, donc n = n′ .
II. APPROXIMATION D’UN RÉEL 161
2. existence : posons A = {k ∈ Z |k ≤ x}, qui est une partie de Z majorée (par x) et non vide car :
— si x ≥ 0 : alors 0 ∈ A ;
— si x < 0 : comme R est archimédien, il existe n ∈ N tel que n × 1 ≥ −x, et alors −n ∈ A.
Ainsi, A possède un plus grand élément, que l’on note n, et qui vérifie :
— comme n ∈ A : n ≤ x ;
— comme n + 1 ∈ / A : x < n + 1.
Et donc n convient.
Cette écriture est appelée division euclidienne de x par y. On appelle r le reste et q le quotient.
x
Démonstration. Découle des propriétés de la partie entière appliquées à .
y
Remarque I.14. La partie entière n’est autre que le quotient de la division euclidienne par 1.
Remarque II.5. En fait, on a même que D est dense dans R grâce à l’approximation décimale.
Proposition III.3. Tout intervalle I de R est de la forme ]a; b[, ]a; b], [a; b[ ou [a; b] pour a, b ∈ R.
Et dans ce cas, si ces quantités sont définies, on a : sup(I) = b et inf(I) = a.
Suites numériques
I Généralités
Dans cette partie K désignera R ou C.
Définition I.1. On appelle suite numérique une famille (un )n∈N d’éléments de K indexée par N.
On notera plus simplement u ou (un ) la suite, et un est le terme général de u.
Remarque I.2. On pourra indexer une suite par N privé de ses premiers éléments. Par exemple, une suite
indexée par N \ J0; n0 J sera notée : (un )n≥n0 .
Exemples I.3. Une suite peut être définie de différentes manières :
— explicite, avec une formule : ∀n ∈ N, un = n2 + 3n + 1 ;
— implicite : ∀n ∈ N, un est l’unique solution positive de l’équation xn + nx − 1 = 0 ;
— par récurrence : u0 = 10 et ∀n ∈ N, un+1 = sin(un ).
Remarque I.4. On peut voir une suite comme une fonction u : N → R, et la représenter comme telle :
un
Définition I.5. Si u, v sont deux suites numériques et λ ∈ K, on définit les suites u + v, λu et u × v par :
(u + v)n = un + vn
∀n ∈ N, (λu)n = λun .
(u × v)n = un × vn
163
164 CHAPITRE 14. SUITES NUMÉRIQUES
Définition I.8. On dira qu’une suite u est constante si elle ne prend qu’une seule valeur.
On dira qu’une suite est stationnaire si elle est constante à partir d’un certain rang.
Remarque I.10. Il faut bien faire attention à ce que les majorants ou minorants ne dépendent pas de
n.
Proposition I.11. La suite (un ) est bornée si, et seulement si,la suite (|un |) est majorée.
Remarque I.13. En pratique, pour étudier la monotonie d’une suite, on étudie le signe de la suite (un+1 −
un+1
un ). Si la suite (un ) est de signe constant, on peut aussi étudier la suite un (en faisant attention au
signe de un ).
n+1
Exemple I.14. Étudions la monotonie de la suite : (un ) = .
n+2
La suite un a tous ses termes strictement positifs. Et pour tout n ∈ N on a :
n+2
un+1 n+3 (n + 2)2 n2 + 4n + 4
= n+1 = = 2 >1
un n+2
(n + 1)(n + 3) n + 4n + 3
Définition I.15. Un suite (un ) est dite périodique s’il existe N ∈ N∗ tel que :
∀n ∈ N, un+N = un .
Proposition I.16. Une suite périodique (ou périodique à partir d’un certain) ne prend qu’un nombre fini
de valeurs.
Remarque I.17. De fait, les suites périodiques ne présentent pas un grand intérêt...
II. LIMITE D’UNE SUITE RÉELLE 165
Remarque II.2. Cela revient à dire que : pour tout ε > 0, l’intervalle [l − ε; l + ε] contient tous les termes
de la suites à partir d’un certain rang.
l+ε
l
l−ε
n0
Remarques II.3.
1. En pratique, on montre que la suite (|un − l|) converge vers 0.
2. Toute la subtilité sera de trouver les bons ε, en étant sûr que ε > 0, ou de trouver un n0 convenable.
1 1 1
n ≥ n0 ⇒ n ≥ ⇒ 0 ≤ ≤ ε ⇒ | − 0| ≤ ε.
ε n n
Proposition II.5 (unicité de la limite). Si une suite converge, alors sa limite est unique.
Démonstration. Par l’absurde, supposons que la suite (un ) converge simultanément vers l1 , l2 ∈ R avec
l1 ̸= l2 .
|l1 − l2 |
Posons ε = et utilisons la définition de la limite :
3
— il existe n1 tel que : n ≥ n1 ⇒ |un − l1 | ≤ ε ;
— il existe n2 tel que : n ≥ n2 ⇒ |un − l2 | ≤ ε.
166 CHAPITRE 14. SUITES NUMÉRIQUES
Remarques II.7.
1. La réciproque est évidemment fausse : la suite (un ) = (−1)n est bornée mais ne converge pas.
2. L’idée de la preuve est qu’une suite est bornée si elle l’est à partir d’un certain rang ; et c’est
clairement le cas pour une suite convergente.
Proposition II.8. Si (un ) converge vers l ̸= 0, alors tous les termes sont du signe de l (et ne s’annulent
pas) à partir d’un certain rang.
|l| l 3l 3l l
Démonstration. On utilise ε = . À partir d’un certain rang, les termes sont dans ; ou ;
2 2 2 2 2
selon le signe de l.
Remarques II.9.
1. On utilisera plutôt que, si u converge vers l > 0, alors u est strictement positive à partir d’un certain
rang.
2. Le résultat montré est plus fort en fait : si l > 0, alors il existe m > 0 tel que u est minorée par
m à partir d’un certain rang ; si l < 0, il existe M < 0 tel queu est majorée par M à partir d’un
1
certain rang. Ce résultat est plus fort dans le sens où la suite un est ainsi bornée.
Définition II.10. On dit qu’une suite réelle (un ) tend vers +∞ si :
∀A ∈ R, ∃n0 ∈ N, ∀n ∈ N, n ≥ n0 ⇒ un ≥ A.
On écrira alors : lim un = +∞ (ou plus simplement lim un = +∞) ou un → +∞.
n→+∞ n→+∞
De même, on dit qu’une suite (un ) tend vers −∞ si :
∀A ∈ R, ∃n0 ∈ N, ∀n ∈ N, n ≥ n0 ⇒ un ≤ A.
et on utilisera les notations idoines.
n0
II. LIMITE D’UNE SUITE RÉELLE 167
√
Exemple II.11. Montrons que la suite ( n) tend vers +∞ :
Soit A ∈ R. Alors n0 = ⌊A2 ⌋ + 1 convient car n0 > A2 et ainsi :
√ √
n ≥ n0 ⇒ n ≥ A2 ⇒ n ≥ A2 = |A| ≥ A.
Corollaire II.13. Une suite ayant une limite est majorée ou minorée.
Démonstration. Par disjonction de cas suivant que la limite est finie ou non.
— si l = +∞ et l′ ̸= −∞ : alors u tend vers +∞, et v est nécessairement minorée (elle est soit
convergente, soit elle tend vers +∞). Donc u+v tend bien vers l+l′ = +∞ d’après la proposition
suivante.
— si l = −∞ et l′ ̸= +∞ : même constat.
2. la seule forme indéterminée est serait λ = 0 et l = ±∞, mais en fait λu serait la suite stationnaire
(de valeur 0), qui converge vers 0. On considère donc λ ̸= 0 :
— si l ∈ R : on veut montrer que (λu) converge vers λl ∈ R. Soit ε > 0. Si n ∈ N :
|λun − λl| = |λ| × |un − l|.
ε
On applique la définition de la limite de u à |λ| > 0, donc il existe n0 tel que : n ≥ n0 ⇒
ε
|un − l| ≤ |λ| .
Et donc : n ≥ n0 ⇒ |λun − λl| < ε. Donc (λu) tend bien vers λl.
— si l = +∞ : on veut montrer que (λu) converge vers λl = signe(λ)∞. Soit A ∈ R. On applique
la définition de la limite de u à Aλ , donc il existe n0 tel que : n ≥ n0 ⇒ un ≥ Aλ . Et donc :
λun ≥ A si λ > 0
n ≥ n0 ⇒ .
λun ≤ A si λ < 0
+∞ si λ > 0
donc λu tend bien vers λl = .
−∞ si λ < 0
3. les formes indéterminées sont si l = ±∞ et l′ = 0 (ou l’inverse) :
— si l, l′ ∈ R : on veut montrer que (uv) converge vers ll′ ∈ R. Soit ε > 0. Si n ∈ N :
|(un vn ) − (ll′ )| = |un vn − lvn + lvn − ll′ | = |(un − l)vn + l(vn − l′ )| ≤ |vn ||un − l| + |l||vn − l′ |.
Comme v est convergente, alors elle est bornée, et il existe donc M ∈ R tel que : ∀n ∈ N, |vn | ≤
M . Posons a = max(M, |l|, 1) > 0.
ε
On applique la définition des limites de u et v à 2a >0:
ε
∃n1 ∈ N, ∀n ≥ n1 , |un − l| ≤ 2a
′ ε
∃n2 ∈ N, ∀n ≥ n2 , |vn − l | ≤ 2a
En prenant n0 = max(n1 , n2 ), pour tout n ≥ n0 , on a :
ε ε
|un vn − ll′ | ≤ a + a = ε.
2a 2a
Donc (uv) converge bien vers ll′ .
— pour les autres cas : on aura toujours une des suites qui tend vers ±∞ et l’autre qui est minorée
par un nombre strictement positif ou majorée par un nombre strictement négatif à partir d’un
certain rang. Donc le résultat découle d’une proposition suivante.
4. grâce à la limite d’un produit, il suffit de montrer que u1 tend vers 1l :
— si l ∈ R∗ : on veut montrer que u1 converge vers 1l ∈ R. Soit ε > 0. Comme l ̸= 0, il existe un
rang n1 tel que : n ≥ n1 ⇒ |un | ≥ |l|2 > 0, ce qui assure déjà que u est bien définie à partir d’un
certain rang.
Si n ≥ n1 , on a :
− 1 = l − un ≤ 2 |un − l| .
1
un l lun l2
2 2
On applique la définition de la limite de u à ε l2 donc il existe n2 tel que : n ≥ n2 ⇒ |un −l| ≤ ε l2 .
D’où, avec n0 = max(n1 , n2 ) :
1 1
∀n ≥ n0 , − ≤ ε.
un l
1
Donc u
converge vers 1l .
II. LIMITE D’UNE SUITE RÉELLE 169
Remarque II.16. Une autre manière de dire est que les limites se comportent bien avec les opérations dans
R : la limite d’une somme est la somme des limites, la limite d’un produit est le produit des limites, etc.
|A|
n ≥ n0 ⇒ un vn ≥ mvn ≥ m = |A| ≥ A
m
donc uv tend bien vers +∞.
3. idem.
Proposition II.19 (Limite de valeurs absolues). Si u a pour limite l ∈ R, alors |u| a pour limite |l|.
170 CHAPITRE 14. SUITES NUMÉRIQUES
Démonstration. — si l ∈ R : alors pour tout n ∈ N : ||un | − |l|| ≤ |un − l| (par inégalité triangulaire).
Si ε > 0, il existe n0 ∈ N tel que : n ≥ n0 ⇒ |un − l| ≤ ε.
Et donc : n ≥ n0 ⇒ ||un | − |l|| ≤ ε, donc |u| converge vers |l|.
— si l = +∞ : soit A ∈ R. Par définition de la limite de u avec |A|, il existe n0 tel que : n ≥ n0 ⇒
un ≥ |A| ≥ 0.
Et donc : n ≥ n0 ⇒ |un | = un ≥ |A| ≥ A.
Remarque II.20. La réciproque est fausse en générale (reprendre la suite (un ) = ((−1)n )). Elle est vraie
si l = 0 : lim u = 0 ⇔ lim |u| = 0.
Démonstration. Il suffit de voir que uv tend vers 0. Mais, comme u tend vers l ̸= 0, alors 1
u
converge, donc
est bornée. Donc uv = v × u1 tend vers 0.
Remarques III.2.
III. LIMITES ET INÉGALITÉS 171
1. on ne peut pas avoir d’inégalité stricte en passant à la limite : par exemple prendre u = 0 (la suite
nulle) et (vn ) = ( n1 ) ;
2. il suffit en fait d’avoir un ≤ vn à partir d’un certain rang ;
3. en pratique, on l’utilisera avec u ou v qui est une suite constante.
Théorème III.3 (Théorème d’encadrement, ou des gendarmes). Si u, v, w sont des suites réelles telles que :
∀n ∈ N, un ≤ vn ≤ wn .
Si les suites u et w convergent vers une même limite l, alors v converge aussi vers l.
En posant n0 = max(n1 , n2 ), on a :
n ≥ n0 ⇒ l − ε ≤ un ≤ vn ≤ wn ≤ l + ε donc |vn − l| ≤ ε
Remarque III.4. Il suffit en fait d’avoir l’inégalité à partir d’un certain rang.
Exemples III.5.
sin(n)
1. montrons que la suite (un ) = n
tend vers 0.
Pour tout n ∈ N∗ , on a : −1 n
≤ un ≤ n1 .
Les suites de terme général −1
n
et n1 convergent vers 0, donc u converge vers 0 par encadrement.
2. étudions la limite de la suite u de terme général : un = n2n+1 + n2n+2 + · · · + n2n+n = nk=1 n2n+k .
P
Proposition III.6 (Divergence par minoration ou majoration). Soient u, v deux suites réelles telles que :
∀n ∈ N, un ≤ vn . Alors :
1. si u tend vers +∞, alors v aussi ;
2. si v tend vers −∞, alors u aussi.
Corollaire III.10. Toute suite réelle monotone a une limite (finie ou non).
∀n, m ∈ N, un ≤ l ≤ vm .
Démonstration. Comme u est croissante et v est décroissante, alors la suite u − v est croissante. Comme
elle converge vers 0, on déduit que : 0 est un majorant de u − v, donc u − v est toujours négative ou nulle.
Ainsi : ∀n ∈ N, un ≤ vn .
En utilisant à nouveau les monotonies, on a :
∀n ∈ N, u0 ≤ un ≤ vn ≤ v0
donc :
— la suite u est croissante, majorée par v0 , donc converge vers un réel l ;
— la suite v est décroissante, minorée par u0 , donc converge vers un réel l′ ;
— lim (un − vn ) = l′ − l = 0.
Donc u et v convergent toutes les deux vers l.
Par monotonies de u et v, on a :
sup{un | n ∈ N} = l = inf{vn | n ∈ N}
Remarque III.12. Si les suites u, v sont strictement monotones, on peut mettre des inégalités strictes à la
fin.
q · q! · uq < p · q! < q · q! · uq + 1.
Mais q! · uq ∈ N (en regardant la formule). Donc p · q! serait un entier strictement compris entre
deux entiers consécutifs, ce qui est impossible.
Donc e est irrationnel.
Théorème III.14 (des segments emboı̂tés). On considère (In ) une suite décroissante (pour l’inclusion) de
segments, dont la longueur tend vers 0.
T+∞
Alors : n=0 In est un singleton.
IV Suites extraites
Définition IV.1. Soient u une suite et φ : N → N strictement croissante. La suite uφ(n) , notée aussi uφ ,
est appelée suite extraite de u. La fonction φ est appelée fonction extractrice.
Exemples IV.2.
1. les suites (u2n ) et (u2n+1 ) sont les suites extraites de u correspondant aux indices pairs et impairs ;
2. la suite (un+n0 ) correspond à la suite u privée de ses n0 premiers termes.
174 CHAPITRE 14. SUITES NUMÉRIQUES
Proposition IV.3. Si u est (strictement) croissante (ou (strictement) décroissante, constante, stationnaire,
majorée, minorée, bornée), alors toute suite extraite de u aussi.
Démonstration. Évident.
Proposition IV.4. Si u a pour limite l ∈ R, alors toute suite extraite de u a aussi pour limite l.
Remarque IV.6. En pratique, on utilise plutôt la contraposée pour montrer qu’une suite n’a pas de limite :
— soit en exhibant une suite extraite qui n’a pas de limite ;
— soit en exhibant deux suites extraites qui ont des limites différentes.
Démonstration. Notons l la limite de u. Alors (un+1 ) converge vers l. Donc (un+1 − un ) converge vers
l − l = 0.
Proposition IV.10. La suite u a pour limite l ∈ R si, et seulement si, les deux suites (u2n ) et (u2n+1 ) aussi.
Démonstration. La première implication découle du fait que l’on a des suites extraites.
Réciproquement, supposons que (u2n ) et (u2n+1 ) convergent vers l ∈ R (les cas l = ±∞ se traitent pareil).
Soit ε > 0. Alors :
∃n1 ∈ N, ∀n ≥ n1 , |u2n − l| ≤ ε
∃n2 ∈ N, ∀n ≥ n2 , |u2n+1 − l| ≤ ε
Posons n0 = max(2n1 , 2n2 + 1). Alors si n ≥ n0 :
— si n est pair : n = 2m avec m ≥ n1 , donc : |un − l| = |u2m − l| ≤ ε ;
V. TRADUCTION SÉQUENTIELLE DE PROPRIÉTÉS DE R 175
Théorème IV.11 (de Bolzano–Weierstrass). De toute suite bornée on peut extraire une suite convergente.
Démonstration. Considérons une suite bornée u. On veut construire une fonction extractrice φ telle que
uφ converge, ce que l’on va faire récursivement.
On fixe I0 = [a0 ; b0 ] qui contient tous les termes de la suite u, c’est-à-dire : ∀n ∈ N, a0 ≤ un ≤ b0 .Et on
pose φ(0) = 0.
On partage I0 en son milieu en deux segments : nécessairement l’un de ces segments contient une infinité
de termes de u. Notons le I1 = [a1 ; b1 ]. Et on choisit N1 ∈ N tel que : uN1 ∈ I1 .
On répète ce processus : pour tout n ∈ N, on construit une suite décroissante de segments (In ) = ([an ; bn ])
et une suite strictement croissante d’entiers (Nn ) tels que pour tout n ∈ N∗ :
— In est une des moitiés de In−1 ;
— In contient une infinité de termes de u ;
— uNn ∈ In .
b 0 − a0
Comme la longueur de In est (bn − an ) = → 0, alors on peut appliquer le théorème des fermés
2n
emboı̂tés, et les suites (an ), (bn ) convergent vers l’unique élément l de ∩n∈N In .
Considérons la fonction φ : n 7→ Nn . Elle est bien strictement croissante par construction. Et comme
uNn = uφ(n) ∈ In , on déduit que :
∀n ∈ N, an ≤ uφ(n) ≤ bn .
Donc par encadrement uφ converge vers l : on a bien une suite extraite convergente.
Et donc M = sup A.
2. Si A n’est pas majoré. Alors, pour tout n ∈ N, n n’est pas un majorant de A. On construit ainsi
une suite u d’éléments de A avec : ∀n ∈ N, un ≥ n.
Par minoration, on a lim u = +∞.
Inversement, si u tend vers +∞, on a vu que u n’est pas majorée, donc A non plus.
Proposition V.2 (Caractérisation séquentielle de la borne inférieure). Soit A une partie non vide de R, et
m ∈ R. Alors :
176 CHAPITRE 14. SUITES NUMÉRIQUES
1. m est la borne inférieure de A si, et seulement si, m est un minorant de A et qu’il existe une suite
à valeurs dans A qui converge vers m ;
2. A n’est pas minorée si, et seulement si, il existe une suite à valeurs dans A qui tend vers −∞.
Exemple V.3. L’ensemble A = { n1 , | n ∈ N∗ } admet 1 comme maximum (donc comme borne supérieure),
et 0 comme borne inférieure.
Il est clair que 0 est un minorant de A, et la suite de terme général n1 tend vers 0.
Proposition V.4 (Caractérisation séquentielle de la densité). Soit A une partie de R. Alors A est dense
dans R si, et seulement si, pour tout x ∈ R il existe une suite à valeurs dans A qui converge vers x.
Démonstration. Si A est dense dans R : tout intervalle non vide de R contient un élément de A. En
∗
particulier, si x ∈ R, pour n ∈ N il existe un ∈ A ∩ x − n1 ; x + n1 . La suite u ainsi construite converge
VI Suites complexes
Proposition-Définition VI.1. Une suite complexe u est dite bornée si la suite réelle |u| est bornée.
C’est le cas si, et seulement si, les suites réelles (Re(u)) et (Im(u)) sont bornées.
Démonstration. Provient des inégalités :
— |Re(un )| ≤ |un | et |Im(un )| ≤ |un | ;
— |un | ≤ |Re(un )| + |Im(un )|.
Remarque VI.3. Cela revient à dire que la suite réelle |u − l| tend vers 0.
Proposition VI.4. Si u est une suite complexe, alors u converge vers l si, et seulement si, les suites Re(u)
et Im(u) convergent.
Et dans ce cas, si u converge vers l ∈ C, alors Re(u) et Im(u) convergent respectivement vers Re(l) et
Im(l).
VII. SUITES CLASSIQUES 177
∀n ∈ N, un+1 = un + r.
∀n, m ∈ N, un = um + (n − m)r.
Proposition VII.2. Une suite arithmétique de raison r converge si, et seulement si, r = 0 (elle est alors
constante).
Une suite arithmétique de raison r > 0 (resp. r < 0) tend vers +∞ (resp. −∞).
Proposition-Définition VII.3 (suites géométriques). Soient u une suite numérique et q ∈ K. On dit que u
est une suite géométrique de raison q si :
∀n ∈ N, un+1 = un × q.
∀n ≥ m ∈ N, un = um × q n−m .
Proposition VII.4. Une suite géométrique (non nulle) de raison q converge si, et seulement si, |q| < 1
(elle tend alors vers 0) ou si q = 1 (elle est alors constante).
Démonstration. Les cas où |q| =
̸ 1 découlent du lemme qui suit.
Le cas où |q| = 1 est plus subtile, et découle de la divergence des suites (cos(nθ)) et sin(nθ)) pour
θ ∈]0; 2π[.
Lemme VII.5. Soit q ∈ R :
1. si q > 1, alors lim q n = +∞ ;
2. si q ∈] − 1; 1[, alors lim, q n = 0 ;
3. si q = 1, alors lim q n = 1 ;
4. si q ≤ −1, la suite (q n ) n’a pas de limite.
Démonstration.
178 CHAPITRE 14. SUITES NUMÉRIQUES
Démonstration. Si n ∈ N :
un+1 − l = aun + b − (al + b) = a(un − l).
b n b
Remarque VII.9. On a donc la formule : un = a u0 − + , mais qu’il ne faut pas retenir
1−a 1−a
par cœur.
1 2
l = l − 2 ⇔ l = −2 ⇔ l = −3.
3 3
Remarque VII.11. D’autres suites se ramènent à des suites arithmético-géométriques. Par exemple, si
a, b, k ∈ K (k ̸= 0), considérons la suite u telle que : ∀n ∈ N, un+1 = aun + b · k n .
Alors la suite (vn ) = uknn vérifie : ∀n ∈ N, vn+1 = ka vn + kb .
VII. SUITES CLASSIQUES 179
D’où la récurrence.
Théorème VII.14. On considère u une suite linéaire récurrente d’ordre 2, et on note ∆ le discriminant
de son équation caractéristique :
1. si ∆ ̸= 0 : l’équation caractéristique possède deux racines distinctes, que l’on note r1 , r2 . Et il existe
λ, µ ∈ C tels que :
∀n ∈ N, un = λr1n + µr2n .
2. si ∆ = 0 : l’équation caractéristique possède une unique solution, que l’on note r. Et il existe
λ, µ ∈ C tels que :
∀n ∈ N, un = λrn + µnrn .
Dans les deux cas, le choix de λ, µ est unique et peut être fixé en utilisant les valeurs de u0 et u1 .
Démonstration. Prouvons le premier cas :
— si λ, µ ∈ C, posons (vn ) = (λr1n + µr2n ). Pour tout n ∈ N, on a :
mais on reconnaı̂t un système linéaire à deux équations et deux inconnues : son déterminant est
r1 − r2 ̸= 0 donc un tel choix de λ, µ est possible (et est même unique).
Pour le deuxième cas tout se passe pareil. On utilise que, si r est l’unique solution de x2 = ax + b, alors
2
r = a2 et b = − a4 .
180 CHAPITRE 14. SUITES NUMÉRIQUES
Corollaire VII.15. Avec les mêmes notations, si a, b, u0 , u1 sont réels, alors la suite u est à valeurs réelles.
Si l’équation caractéristique admet deux solutions distinctes, celles-ci sont complexes conjuguées, donc de
la forme ρe±iθ (pour ρ > 0 et θ ∈ R). Il existe alors λ, µ ∈ R tels que :
∀n ∈ N, un = ρn [λcos(nθ) + µsin(nθ)] .
Démonstration. Une récurrence immédiate montre déjà bien que tous les un sont réels.
Par le théorème, il existe λ1 , µ1 tels que : ∀n ∈ N, un = λ1 r1n + µ1 r2n .
Et donc pour tout n ∈ N :
un = ρn [(λ1 + µ1 )cos(nθ) + i(λ1 − µ1 )sin(nθ)] .
Mais u est réelle, donc :
n λ = Re(λ1 + µ1 )
un = Re(un ) = ρ [λcos(nθ) + µsin(nθ)] avec .
µ = Re(i(λ1 − µ1 ))
Remarque VII.16. Dans la preuve, comme u est réelle, on peut voir que l’unicité du choix de λ1 , µ1 impose
que λ1 = µ1 . Et ainsi : λ = 2Re(λ1 ) et µ = −2Im(λ1 ).
Exemple VII.17. On considère la suite de Fibonacci, définie par : u0 = 0, u1 = 1 et pour tout n ∈ N,
un+2 = un+1 + un . √ √
L’équation caractéristique est x2 = x + 1, qui possède comme solutions : r1 = 1−2 5 et r2 = 1+2 5 (le
nombre d’or). Donc il existe λ, µ ∈ C tels que :
√ !n √ !n
1+ 5 1− 5
∀n ∈ N, un = λ +µ .
2 2
Comme u0 = 0 et u1 = 1, alors :
√
λ + µ
√
= 0
1+ 5 1− 5
2
λ + 2
µ = 1
√ √
5
ce qui donne : λ = √1
5
= 5
et µ = −λ = − 55 .
Et finalement :
√ √ !n √ !n !
5 1+ 5 1− 5
∀n ∈ N, un = − .
5 2 2
Au passage, montrons que la formule précédente définit bien des rationnels : suivant la définition de la
suite de Fibonacci, on peut voir par une récurrence immédiate qu’il doit s’agir d’entiers, ce qui n’est clair
quand on regarde la formule précédente.
Par la formule du binôme, pour n ∈ N, on a :
n n
√ n X n √ k √ n X n √
1+ 5 = 5 et 1 − 5 = (− 5)k
k=0
k k=0
k
et ainsi :
n
√ n √ n X n √ k √
1+ 5 − 1− 5 = 5 − (− 5)k
k=0
k
n √ k
X √
= 5 − (− 5)k car les termes de rangs pairs sont nuls
k=0,k impair
⌊n−1/2⌋
√
X n
= 5 · 2 · 5l en simplifiant l’expression précédente
l=0
2l + 1
⌊n−1/2⌋
√
X n
= 5 · 2 · N pour N = · 5l ∈ N
l=0
2l + 1
VII. SUITES CLASSIQUES 181
Les suites définies par une relation du type un+1 = f (un ), pour f une fonction continue, seront vues plus
tard.
182 CHAPITRE 14. SUITES NUMÉRIQUES
Chapitre 15
Structures algébriques
183
184 CHAPITRE 15. STRUCTURES ALGÉBRIQUES
y1 = y1 ∗ e = y1 ∗ (x ∗ y2 ) = (y1 ∗ x) ∗ y2 = e ∗ y2 = y2 .
Remarques I.10.
−1
1. Si x est inversible, alors x−1 aussi, avec : (x−1 ) = x.
2. L’élément neutre est son propre inverse, mais d’autres éléments peuvent vérifier cette propriété :
— −1 pour le produit sur C ;
— les matrices diagonales avec juste des ±1 pour la multiplication matricielle sur Mn (C) ;
— les applications involutives pour la composition sur F(E, E).
3. Il faut bien avoir x ∗ y = e et y ∗ x = e. Il y a juste pour les matrices carrées qu’on avait vu qu’une
seule des égalités suffisait mais c’est un cas très particulier (et à connaı̂tre !).
Proposition I.11. Si x, y sont deux éléments inversibles, alors x∗y est inversible, avec : (x∗y)−1 = y −1 ∗x−1 .
Démonstration. Il suffit de vérifier que y −1 ∗ x−1 est bien l’inverse de x ∗ y :
(y ∗ x−1 ) ∗ (x ∗ y) = y −1 ∗ (x−1 ∗ x) ∗y = y −1 ∗ y = e
−1
| {z }
=e
.
(y ∗ x) ∗ (x−1 ∗ y −1 ) = y ∗ (x ∗ x−1 ) ∗y −1 = y ∗ y −1 = e
| {z }
=e
2. notation multiplicative : la lci est notée ×, son élément neutre 1 ou 1E , l’inverse de x sera x−1 et
pour n ∈ N on notera : x · · × x} = xn .
| × ·{z
n fois
I. LOI DE COMPOSITION INTERNE 185
— si n + m ≤ 0 :
−n −n−m m −n−m
xn ∗ xm = x−1 ∗ xm = x−1 ∗ x−1 ∗ xm = x−1 = xn+m .
186 CHAPITRE 15. STRUCTURES ALGÉBRIQUES
II Groupes
II.1 Généralités
Définition II.1 (Groupe). Si G est un ensemble muni d’une lci ∗, on dit que (G, ∗) est un groupe si :
1. ∗ est associative ;
2. ∗ possède un élément neutre dans G ;
3. tout élément x de G possède un inverse dans G.
Si la loi ∗ est commutative, on dira que G est un groupe commutatif ou un groupe abélien.
Exemples II.2.
1. Z, Q, R ou C, munis de l’addition, sont des groupes abéliens ;
2. Q∗ , R∗ , R∗+ ou C∗ , munis de la multiplication, sont des groupes abéliens ;
3. (N, +) ou (R, ×) ne sont pas des groupes : dans le premier cas, 0 est l’unique élément possédant un
inverse, tandis que dans le second 0 est le seul n’en possédant pas ;
4. si n ∈ N∗ , l’ensemble des classes modulo n des entiers, muni de l’addition modulaire, est un groupe
commutatif.
5. l’ensemble Mn,p (K) est un groupe pour l’addition ; Mn (K) n’est pas un groupe pour la multiplication,
mais GLn (K) en est un.
Remarque II.3. Si (G, ∗) est un groupe, tout élément est régulier. Et il suffit d’avoir x ∗ y = eG pour avoir
y = x−1 (même si G n’est pas commutatif ).
Proposition-Définition II.4. Si E est un ensemble non vide, on note SE ou S(E) l’ensemble des bijections
de E sur lui-même.
Alors (SE , ◦) est un groupe, qu’on appelle le groupe symétrique sur E. Ses éléments sont appelés les
permutations sur E.
Si n ∈ N∗ , on notera plus simplement Sn ou Sn le groupe symétrique sur J1; nK.
Démonstration. Il est clair que ◦ est une lci sur SE (la composée de deux bijections est une bijection).
La composition est associative, et idE est l’élément neutre.
Et si σ ∈ SE , son inverse est la bijection réciproque σ −1 qui est bien dans SE .
Donc (SE , ◦) est bien un groupe.
Remarque II.5. Le groupe S(E) est non commutatif si, et seulement si, E possède au moins trois éléments.
II. GROUPES 187
Proposition-Définition II.6 (Groupe produit). Si (G1 , ∗1 ) et (G2 , ∗2 ) sont deux groupes, on définit la lci ∗
sur G1 × G2 par :
Muni de cette loi, G1 × G2 est un groupe, appelé groupe produit ou produit direct de G1 et G2 .
De plus, (G1 × G2 , ∗) est abélien si, et seulement si, (G1 , ∗1 ) et (G2 , ∗2 ) le sont.
II.2 Sous-groupes
Définition II.7. Si (G, ∗) est un groupe et H est une partie de G, on dit que H est un sous-groupe de G
si H est stable par ∗ et que (H, ∗) est un groupe.
Remarque II.8. Les parties G et {eG } sont toujours des sous-groupes, qu’on appelle sous-groupes tri-
viaux.
Remarque II.10. Un sous-groupe de G contient toujours eG , donc en pratique pour montrer que H est non
vide on pourra chercher à montrer que eG ∈ H.
Exemples II.11.
1. Z, Q ou R sont des sous-groupes de (C, +) ;
2. Q∗+ , Q∗ , R∗+ , R∗ , U sont des sous-groupes de (C∗ , ×) ;
188 CHAPITRE 15. STRUCTURES ALGÉBRIQUES
3. si n ∈ N, l’ensemble nZ = {na | a ∈ Z} est un sous-groupe de (Z, +) (et on verra que tous les
sous-groupes de Z sont de cette forme).
Proposition II.12. Si (Hi )i∈I est une famille de sous-groupes de (G, ∗), alors H = ∩i∈I Hi est un sous-
groupe de G.
Démonstration. Puisque eG est toujours un élément d’un sous-groupe, alors : pour tout i ∈ I, eG ∈ Hi .
Donc eG ∈ H et H ̸= ∅.
Si x, y ∈ H et i ∈ I : alors x, y ∈ Hi , donc x ∗ y −1 ∈ Hi . Comme c’est vrai pour tout i, alors : x ∗ y −1 ∈ H,
donc H est un sous-groupe de G.
T
Corollaire II.13. Si X ⊂ G, alors : H est le plus petit sous-groupe de G contenant
H sous-groupe de G
X⊂H
X.
Proposition-Définition II.14. Soit G un groupe et g ∈ G. on définit ⟨g⟩ = {g n | n ∈ Z}, qu’on appelle le
sous-groupe engendré par g.
C’est le plus petit sous-groupe de G contenant g.
Démonstration. On montre facilement que ⟨g⟩ est un sous-groupe de G : il est non vide et : ∀n, m ∈
Z, g n ∗ (g m )−1 = g n ∗ g −m = g n−m .
Il est minimal par les propriétés des parties stables.
−1
f (x1 ∗ x−1 −1
2 ) = f (x1 ) · f (x2 ) = f (x1 ) · [f (x2 )] ∈ H′
donc x1 ∗ x−1
2 ∈ f
−1
(H ′ ), qui est donc un sous-groupe de G.
2. comme eG ∈ G′ et f (eG ) = eH , alors eH ∈ f (G′ ), donc f (G′ ) ̸= ∅. Si y1 , y2 ∈ f (G′ ). Notons
x1 , x2 ∈ G′ tels que : f (x1 ) = y1 et f (x2 ) = y2 . Alors y1 · y2−1 = f (x1 ∗ x−1 ′ ′
2 ) ∈ f (G ), donc f (G ) est
un sous-groupe de H.
Proposition II.20. Si f : G → H est un morphisme de groupe, alors f est injectif si, et seulement si,
Kerf = {eG }.
Démonstration.
— si f est injective : on a déjà f (eG ) = eH . Mais par injectivité, eH possède au plus un antécédent par
f , donc Kerf = {eG } ;
— si Kerf = {eG } : soient x, y ∈ G. Alors :
d’où l’injectivité de f .
Démonstration. Évident.
III Anneaux
III.1 Généralités
Définition III.1 (Anneau). Si A est un ensemble muni de deux lci + et ×, on dit que (A, +, ×) est un
anneau (unitaire) si :
1. (A, +) est un groupe abélien ;
2. × est associative et possède un élément neutre ;
3. × est distributive par rapport à +.
Si × est commutative, on dira que A est un anneau commutatif
Remarque III.2. Pour correspondre aux lois usuelles, on notera 0A le neutre de + et 1A celui de ×. On
adopte la notation additive pour la loi + et multiplicative pour ×.
Exemples III.3.
1. (Z, +, ×), (Q, +, ×), (R, +, ×) et (C, +, ×) sont des anneaux commutatifs ;
2. si E est un ensemble non vide, l’ensemble A = F(E, R) muni des lois : f + g : x 7→ f (x) + g(x)
et f × g : x →
7 f (x) × g(x) est un anneau commutatif ; 0A est la fonction nulle x →
7 0 et 1A est la
fonction indicatrice de E : x 7→ 1 ;
3. si n ∈ N∗ , l’ensemble des classes modulo n des entiers, muni de l’addition et de la multiplication
modulaires, est un anneau commutatif avec 0A = 0 et 1A = 1. On note cet anneau Z/nZ ;
4. Mn (K) muni de l’addition et de la multiplication matricielles est un anneau ; il est non commutatif
dès que n ≥ 2.
Proposition III.4 (Règles de calcul dans un anneau). Si (A, +, ×) est un anneau et x, y, z ∈ A, alors :
1. x × 0A = 0A = 0A × x ;
2. x × (−y) = −(x × y) = (−x) × y ;
3. x × (y − z) = x × y − x × z et (y − z) × x = y × x − z × x ;
4. pour tout n ∈ Z : x × (ny) = n(x × y) = (nx) × y.
Démonstration.
1. x × 0A + x × 0A = x × (0A + 0A ) = x × 0A . Et en simplifiant par x × 0A (dans le groupe (A, +)),
on a :x × 0A = 0A ;
2. x × y + x × (−y) = x × (y + (−y)) = x × 0A = 0A donc x × (−y) = −(x × y) ;
et le reste en exercice.
Remarque III.6. Si a et b ne commutent pas, les formules deviennent vite compliquées. Par exemple :
(a + b)2 = a2 + a × b + b × a + b2 .
III. ANNEAUX 191
III.3 Sous-anneaux
Définition III.16. Si (A, +, ×) est un anneau, et B est une partie de A, on dit que B est un sous-anneau
de A si :
1. B est stable par + et par × ;
2. B contient 1A ;
3. (B, +, ×) est un anneau.
Proposition III.17. Si B est une partie d’un anneau (A, +, ×), alors B est un sous-anneau de A si, et
seulement si :
1. 1A ∈ B ;
2. ∀x, y ∈ B, x − y ∈ B ;
3. ∀x, y ∈ B, x × y ∈ B.
Démonstration. La nécessité est évidente.
Pour la suffisance :
— par 1 et 2, on déduit que V est un sous-groupe de (A, +), donc est un groupe abélien (donc est
stable par +) ;
— par 3 : B est stable par × ;
— l’associativité et la distributivité de × découlent de celle sur A ;
— B possède 1A donc a un neutre pour ×.
Donc B est bien un sous-anneau.
Exemples III.18.
1. les ensembles Z, Q,R sont des sous-anneaux de (C, +, ×).
2. Si n ∈ N, l’ensemble nZ = {na | a ∈ Z} est un sous-anneau de (Z, +) (et tous les sous-anneaux de
Z sont de cette forme).
3. Les ensembles des matrices triangulaires supérieures, des matrices triangulaires supérieures, ou
des matrices diagonales sont des sous-anneaux de Mn (K) (comme on a vu qu’ils sont stables par
produit).
Remarque III.19. On a aussi ne notion de sous-corps : c’est un sous-anneau qui est un corps.
Exemple III.20. Montrons que Z[i] = {a + ib | a, b ∈ Z} est un anneau (muni de +, ×).
Il suffit de montrer que c’est un sous-anneau de (C, +, ×) ;
1. 1 = 1 + 0 · i ∈ Z[i] ;
2. si x = a + ib, y = α + iβ ∈ Z[i], alors : x − y = (a − α) +i (b − β) ∈ Z[i] ;
| {z } | {z }
∈Z ∈Z
3. de même : x × y = (aα − bβ) +i (aβ + bα) ∈ Z[i].
| {z } | {z }
∈Z ∈Z
Donc (Z[i], +, ×) est un anneau.
On peut voir en revanche que ce n’est pas un corps, et plus précisément que : Z[i]× = {±1; ±i}.
3. f (1A ) = 1B .
Exemples III.22.
1. La conjugaison complexe est un morphisme d’anneaux de C dans lui-même. Sa restriction à Z[i]
est aussi un morphisme d’anneau.
2. L’identité est le seul morphisme d’anneaux de (R, +, ×) dans lui-même.
∗ Z → Z/nZ
3. Pour n ∈ N , l’application qui à un entier associe sa classe de congruence modulo
k 7→ k
n est un morphisme
d’anneaux surjectif de Z dans Z/nZ. Plus généralement, si n divise m, l’ap-
Z/nZ → Z/mZ
plication qui à une classe modulo n associe la classe correspondant modulo
k n 7→ k m
m est également un morphisme d’anneaux.
Démonstration. Comme pour les morphismes de groupes, en vérifiant les propriétés des sous-anneaux.
Continuité et limites
I Limites de fonctions
I.1 Voisinage et points adhérents
Définition I.1. Si I ⊂ R et a ∈ R, on dit que I est un voisinage de a s’il existe ε > 0 tel que ]a−ε; a+ε[⊂ I.
Si a = +∞ (resp. -∞) on dira de même que I est un voisinage de a s’il existe A ∈ R tel que ]A; +∞[⊂ I
(resp. ] − ∞; A[⊂ I).
Remarques I.2.
1. Si a ∈ R et que I est un voisinage de a, alors a ∈ I (c’est une condition nécessaire, mais non
suffisante).
2. Pour le cas où a ∈ R, cela revient à dire que I contient un intervalle ouvert contenant a.
Remarques I.5.
1. Si a ∈ I alors a est adhérent à I (c’est une condition suffisante, mais non nécessaire)
2. Si a = +∞ (resp. −∞), du fait de la forme des voisinages de a, cela revient à dire que I n’est pas
majoré (resp. pas minoré).
195
196 CHAPITRE 16. CONTINUITÉ ET LIMITES
Remarque I.8. Les voisinages et les points adhérents se comprennent bien en terme de réels que l’on peut
approcher. Plus précisément, si a ∈ R et I ⊂ R, alors :
1. I est un voisinage de a si tout réel suffisamment proche de a est dans I :
∃ε > 0, ∀x ∈ R, |x − a| ≤ ε ⇒ x ∈ I;
2. a est adhérent à I si on peut trouver des réel aussi proche de a que l’on veut dans I :
∀ε > 0, ∃x ∈ R, |x − a| ≤ ε et x ∈ I.
Définition I.9. Si f est une fonction définie sur un ensemble I, et a ∈ R, on dira que f vérifie une propriété
au voisinage de a s’il existe un voisinage J de a tel que f |I∩J vérifie cette propriété.
Exemples I.10.
1. du fait des formes des voisinages de +∞, une propriété vraie au voisinage de +∞ est vérifiée pour x
suffisamment grand. Par exemple : ln est positive au voisinage de +∞, de même que tout polynôme
de coefficient dominant positif.
2. au voisinage de 0, on peut dire que :
— la fonction sin est strictement croissante : en la regardant sur [− π2 ; π2 par exemple ,
— la fonction cos ne s’annule pas : en la regardant sur le même intervalle.
En revanche, la fonction cos n’est pas monotone au voisinage de 0.
Définition I.11. On dit qu’une fonction f définie sur I admet un maximum local (resp. minimum local,
extremum local) en a ∈ I si elle admet au voisinage de a un maximum (resp. minimum, extremum) en a.
Remarque I.12. Pour différencier un extremum d’un extremum local, on parlera d’extremum global.
−2 −1 0 1 2 3 4
−1
−2
−3
−4
I. LIMITES DE FONCTIONS 197
(b) on dit que f tend vers +∞ en a, ce que l’on note lim f (x) = +∞, si :
x→a
∀A ∈ R, ∃η > 0, ∀x ∈ I, |x − a| ≤ η ⇒ f (x) ≥ A;
(c) on dit que f tend vers −∞ en a, ce que l’on note lim f (x) = −∞, si :
x→a
∀A ∈ R, ∃η > 0, ∀x ∈ I, |x − a| ≤ η ⇒ f (x) ≤ A;
2. si a = +∞ :
(a) on dit que f tend vers l ∈ R lorsque x tend vers +∞, ce que l’on note lim f (x) = l, si :
x→+∞
∀ε > 0, ∃B ∈ R, ∀x ∈ I, x ≥ B ⇒ |f (x) − l| ≤ ε;
(b) on dit que f tend vers +∞ en +∞, ce que l’on note lim f (x) = +∞, si :
x→+∞
∀A ∈ R, ∃B ∈ R, ∀x ∈ I, x ≥ B ⇒ f (x) ≥ A;
(c) on dit que f tend vers −∞ en +∞, ce que l’on note lim f (x) = −∞, si :
x→+∞
∀A ∈ R, ∃B ∈ R, ∀x ∈ I, x ≥ B ⇒ f (x) ≤ A;
3. si a = −∞ :
(a) on dit que f tend vers l ∈ R lorsque x tend vers −∞, ce que l’on note lim f (x) = l, si :
x→−∞
∀ε > 0, ∃B ∈ R, ∀x ∈ I, x ≤ B ⇒ |f (x) − l| ≤ ε;
(b) on dit que f tend vers +∞ en −∞, ce que l’on note lim f (x) = +∞, si :
x→−∞
∀A ∈ R, ∃B ∈ R, ∀x ∈ I, x ≤ B ⇒ f (x) ≥ A;
(c) on dit que f tend vers −∞ en −∞, ce que l’on note lim f (x) = −∞, si :
x→−∞
∀A ∈ R, ∃B ∈ R, ∀x ∈ I, x ≤ B ⇒ f (x) ≤ A;
Remarques I.15.
1. Vue comme une fonction sur N, on retrouve bien la définition de la limite d’une suite, qui correspond
à la limite en +∞ de la fonction qui lui est associée (où le B joue le rôle de n0 ).
2. Comme pour les suites, on pourra aussi noter f (x) → l au lieu de lim f (x) = l.
x→a x→a
Remarques I.16.
198 CHAPITRE 16. CONTINUITÉ ET LIMITES
1. Le fait de prendre a adhérent à I permet de travailler avec des objets bien définis, et qui existent
bien. Si ce n’était pas le cas, toutes les limites seraient possibles car alors l’ensemble des x ∈ I
tels que |x − a| ≤ η, x ≤ B, x ≥ B (selon les cas) serait vide pour des valeurs suffisamment mal
choisies de η ou de B.
2. On peut synthétiser ces résultats en disant que f tend vers l en a si, et seulement si, pour tout
voisinage Vl de l, il existe un voisinage Va de a tel que : f (Va ) ⊂ Vl . Cela permet surtout de n’avoir
qu’une seule définition, et donc de n’avoir qu’un seul cas à traiter pour toutes les démonstrations
(ce que l’on ne fera pas pour autant dans la suite).
Proposition I.17 (Unicité de la limite). Si une fonction tend vers une limite en a, alors cette limite est
unique.
Démonstration. Montrons le par exemple dans le cas où a ∈ R avec des limites finies.
Par l’absurde, supposons que la fonction f définie sur I tend simultanément en a vers l1 , l2 ∈ R, avec
l1 ̸= l2 .
|l1 − l2 |
Posons ε = . Par définition de la limite de f en a :
3
— il existe η1 > 0 tel que, pour tout x ∈ I : |x − a| ≤ η1 ⇒ |f (x) − l1 | ≤ ε ;
— il existe η2 > 0 tel que, pour tout x ∈ I : |x − a| ≤ η2 ⇒ |f (x) − l2 | ≤ ε.
En posant η = min(η1 , η2 ), considérons x ∈ I tel que |x − a| ≤ η (qui existe bien, comme a est adhérent à
I). On a alors, pour un tel x :
∀x ∈ I, |x − a| ≤ η ⇒ |f (x) − l| ≤ 1
et donc, en notant J =]a − η; a + η[, J est un voisinage de a sur lequel f est bornée par l − 1 et
l + 1, ce qui montre le résultat.
2. si l = +∞ (resp. −∞) : avec A = 0, en prenant η > 0 donné par la définition de la limite, alors
J =]a − η; a + η[ est un voisinage de a sur lequel f est minorée (resp. majorée) par 0.
Remarques I.19.
1. Il faut bien prendre garde que le résultat n’est vrai que au voisinage de a.
2. Les réciproques sont fausses, comme on peut le voir en 0 avec la fonction x 7→ sin( x1 ), qui est bornée
mais n’a pas de limite.
I. LIMITES DE FONCTIONS 199
0.5
−1.4 −1.2 −1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1 1.2 1.4
−0.5
−1
Proposition I.20. Si f tend vers l en a, avec l ̸= 0, alors f est non nulle au voisinage de a.
Définition I.21. Si f est définie sur I et a ∈ I, on dit que f est continue en a si : lim f (x) = f (a).
x→a
Proposition I.22. Si f est définie en a, et que f a une limite en a, alors : lim f (x) = f (a).
x→a
Corollaire I.23. Si f est définie sur I et a ∈ I, alors f est continue en a si, et seulement si, f a une limite
en a.
Exemple I.25. Si f est définie sur [0; 1[, alors f est définie :
— à gauche au voisinage de tout réel de ]0; 1] ;
— à droite au voisinage de tout réel de [0; 1[.
200 CHAPITRE 16. CONTINUITÉ ET LIMITES
Remarque I.27. On peut aussi définir les limites à gauche et à droite avec des ε. Par exemple, dire que f
a pour limite à gauche l en a se traduit par :
— si l ∈ R :
∀ε > 0, ∃η > 0, ∀x ∈ I, a − η ≤ x < a ⇒ |f (x) − l| ≤ ε;
— si l = +∞ :
∀A ∈ R, ∃η > 0, ∀x ∈ I, a − η ≤ x < a ⇒ f (x) ≥ A;
— si l = −∞ :
∀A ∈ R, ∃η > 0, ∀x ∈ I, a − η ≤ x < a ⇒ f (x) ≤ A.
Il faut bien faire attention que a n’est jamais considéré pour les limites à gauche ou à droite.
1
Exemple I.28. La fonction f : x 7→ e− x , définie sur R∗ vérifie :
4
3
2
1
−11 −10 −9 −8 −7 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7 8 9 10 11
−1
Remarque I.30. Dans le premier cas, le fait que f (a) = l exclut le cas où l = ±∞.
Démonstration.
1. Montrons les deux implications :
— Supposons que lim f (x) = l : on a déjà montré que f (a) = l. De plus, pour ε > 0, il existe η tel
x→a
que :
∀x ∈ I, |x − a| ≤ η ⇒ |f (x) − l| ≤ ε
et les limites à gauche et à droite découlent alors des implications : a − η ≤ x < a ⇒ |x − a| ≤ η
et a < x ≤ a + η ⇒ |x − a| ≤ η.
— Réciproquement : supposons que lim+ f (x) = lim− f (x) = f (a) = l. Soit ε > 0 :
x→a x→a
— par définition de la limite à gauche, il existe η1 > 0 tel que :
∀x ∈ I, a − η1 ≤ x < a ⇒ |f (x) − l| ≤ ε;
I. LIMITES DE FONCTIONS 201
∀x ∈ I, a < x ≤ a + η2 ⇒ |f (x) − l| ≤ ε.
Exemples I.31.
1. on peut voir ainsi que la fonction inverse n’a pas de limite en 0, puisque :
1 1
lim+ ̸ lim− = −∞.
= +∞ =
x→0 x x→0 x
1
2. En revanche, la fonction x 7→ x2
a bien une limite en 0 puisque :
1 1
lim+ = +∞ = lim− .
x→0 x x→0 x
3. Plus généralement, un fonction paire définie sur R∗ a une limite en 0 si, et seulement si, elle a une
limite à gauche ou à droite. Tandis qu’une fonction impaire (définie en 0 ou non) a une limite en
0 si, et seulement si, elle a une limite à gauche ou à droite et que cette limite est nulle.
∀x ∈ I, |x − a| ≤ η ⇒ |f (x) − l| ≤ ε;
∀n ∈ N, n ≥ n0 ⇒ |un − a| ≤ η.
202 CHAPITRE 16. CONTINUITÉ ET LIMITES
a un
a−η a+η
l
f (un )
l−ε l+ε
— procédons par contraposée pour la réciproque : supposons que f ne tende pas vers l en a, c’est-à-dire
que :
∃ε > 0, ∀η > 0, ∃x ∈ I, |x − a| ≤ η et |f (x) − l| > ε (⋆)
et donnons-nous un tel ε.
1
Appliquons (⋆) avec η = n+1
pour n ∈ N, et notons un l’élément de I donné par (⋆). On a ainsi
pour tout n ∈ N :
1
|un − a| ≤ et |f (un ) − l| > ε.
n+1
La première inégalité montre que la suite (un ) tend vers a (par encadrement). Tandis que la seconde
assure que la suite (f (un )) ne tend pas vers l.
D’où la contraposée.
D’où l’équivalence.
Remarques I.33.
1. En pratique, on utilisera surtout l’implication 1. ⇒ 2. : soit pour chercher la limite d’une suite, soit
pour montrer qu’une fonction n’a pas de limite en un point.
2. Il faut que la suite soit bien à valeurs dans I, sinon le résultat devient faux.
Corollaire I.34. Si f est définie sur I, et a ∈ I tel que f a une limite en a, alors pour tout suite (un ) à
valeurs dans I tendant vers a, la suite (f (un )) tend vers f (a).
Exemples I.35. 1. La fonction f : x 7→ sin( x1 ) définie sur R∗ n’a pas de limite en 0 :
1
— la suite (un ) = nπ tend vers 0, et la suite (f (un )) = (sin(nπ)) est constante de valeur nulle,
donc tend vers 0 ;
— la suite (vn ) = 2nπ+π/2 tend vers 0 aussi, mais la suite (f (vn )) = (sin(2nπ + π2 )) est constante
1
∀y ∈ J, |y − b| ≤ α ⇒ |g(y) − l| ≤ ε;
— comme lim f (x) = b, alors il existe η > 0 tel que :
x→a
∀x ∈ I, |x − a| ≤ η ⇒ |f (x) − b| ≤ α.
Et ainsi, on trouve que, pour tout x ∈ I :
|x − a| ≤ η ⇒ |f (x) − b| ≤ α ⇒ |g(f (x)) − l| = |g ◦ f (x) − l| ≤ ε
ce qui prouve bien le résultat voulu.
a
x
a−η a+η
b
f (x)
b−α b+α
l
g ◦ f (x)
l−ε l+ε
204 CHAPITRE 16. CONTINUITÉ ET LIMITES
Remarque I.39. On peut aussi le faire par caractérisation séquentielle pour prouver tous les cas. En fait
la caractérisation séquentielle est un cas particulier où a = +∞ et f est une suite à valeurs dans J
tendant vers b, ce qui explique que la démonstration non séquentielle ressemble beaucoup à la preuve de la
caractérisation séquentielle de la limite.
Remarque I.41.
1. Pour le 1., on ne peut pas mettre des inégalités larges au départ.
2. Pour le 2., on peut mettre des inégalités strictes au départ, mais le passage à la limite ne donnera
que des inégalités larges.
Démonstration. On se contente de traiter le cas où a ∈ R (les autres cas se traitent de même).
Supposons que l ∈ R, et montrons le 1.
— si l < M : posons ε = M2−l > 0. Par définition de la limite, il existe η > 0 tel que :
∀x ∈ I, |x − a| ≤ η ⇒ |f (x) − l| ≤ ε ⇒ f (x) ≤ l + ε
∀x ∈ I, |x − a| ≤ η ⇒ |f (x) − l| ≤ ε ⇒ f (x) ≥ l − ε
Corollaire I.42. Si f, g sont deux fonctions définies sur I, et a adhérent à I. Supposons que f, g ont des
limites en a et que, au voisinage de a, on ait : f (x) ≤ g(x). Alors :
Théorème I.43 (Théorème d’encadrement, ou des gendarmes). Si f, g, h sont trois fonctions définies sur
I, a adhérent à I, tels qu’au voisinage de a : f (x) ≤ g(x) ≤ h(x). Si lim f (x) = lim h(x) = l ∈ R, alors
x→a x→a
lim g(x) = l.
x→a
∀x ∈ I, |x − a| ≤ η2 ⇒ |f (x) − l| ≤ ε ⇒ l − ε ≤ f (x);
∀x ∈ I, |x − a| ≤ η3 ⇒ |h(x) − l| ≤ ε ⇒ h(x) ≤ l + ε.
Remarques I.44.
1. Si l = ±∞ le résultat reste vrai, mais on n’a besoin que d’une seule inégalités.
2. On peut aussi le démontrer en passant par des suites et en utilisant le théorème d’encadrement pour
les suites.
Proposition I.45. Si f, g sont définies sur I, et a adhérent à I tels que au voisinage de a : f (x) ≤ g(x).
Alors :
1. si lim f (x) = +∞, alors lim g(x) = +∞ ;
x→a x→a
2. si lim g(x) = −∞, alors lim f (x) = −∞.
x→a x→a
Démonstration.
1. la fonction g − f est minorée par 0 au voisinage de a, et f tend vers +∞ en a, donc g = (g − f ) + f
tend vers +∞ en a ;
2. la fonction f − g est majorée par 0 au voisinage de a, et g tend vers −∞ en a, donc f = (f − g) + g
tend vers −∞ en a.
Théorème I.46 (Théorème de la limite monotone). Soient a, b ∈ R avec a < b, et f :]a; b[→ R une fonction
croissante. Alors :
1. lim f (x) existe, et vaut sup f (x) si f est majorée, et +∞ sinon ;
x→b x∈]a;b[
Démonstration. Montrons par exemple le 1. lorsque b est réel. Posons E = {f (x) | x ∈]a; b[}, qui est un
ensemble non vide (car a < b). Alors :
206 CHAPITRE 16. CONTINUITÉ ET LIMITES
— si E est majoré : notons M sa borne supérieure. Et considérons ε > 0. Par définition de M , il existe
y0 ∈ E tel que : M − ε ≤ y0 ≤ M . Par définition de E, il existe x0 ∈]a; b[ tel que y0 = f (x0 ). Posons
η = b − x0 , alors pour tout x ∈]a; b[ :
|x − b| ≤ η ⇒ b − η ≤ x < b
⇒ x
0 ≤ x < b
y0 = f (x0 ) ≤ f (x) par croissance de f
⇒
f (x) ≤ M par définition de E
⇒ M − ε ≤ f (x) ≤ M
⇒ |f (x) − M | ≤ ε
|x − b| ≤ η ⇒ b − η ≤ x
⇒ x0 ≤ x
⇒ A ≤ y0 ≤ f (x) par croissance de f
Théorème I.47. Avec les mêmes notations, si f est supposée décroissante sur ]a; b[, alors :
1. lim f (x) existe, et vaut inf f (x) si f est minorée, et −∞ sinon ;
x→b x∈]a;b[
Remarque I.48. Les limites considérées dans les deux théorèmes sont en fait des limites à gauche et à
droite. Le théorème peut être mis en défaut si f est défini en a ou b, ou renforcé par le résultat suivant.
2. si f est décroissante sur ]a; b], alors f a une limite à gauche finie en b avec : lim− f (x) ≥ f (b) ;
x→b
3. si f est croissante sur [a; b[, alors f a une limite à droite finie en a avec : lim+ f (x) ≥ f (a) ;
x→a
4. si f est décroissante sur [a; b[, alors f a une limite à droite finie en a avec : lim+ f (x) ≤ f (a).
x→a
Démonstration. Il suffit de voir que f est majorée ou minorée par f (a) ou f (b) suivant les cas considérés.
Corollaire I.50. Si f est une fonction monotone définie sur un intervalle I, alors f admet des limites à
◦
gauche et à droite finies en tout point de I.
Corollaire I.51. Si f est monotone sur I, et a ∈ I, alors f a une limite en a si, et seulement si, elle a des
limites à gauche et à droite de a égales.
II. FONCTIONS CONTINUES 207
II Fonctions continues
II.1 Continuité en un point
Définition II.1. Si f est définie sur I ⊂ R, et a ∈ I, on dit que f est continue en a si elle a une limite
en a.
On dit que f est continue sur I si elle est continue en a pour tout a ∈ I.
On note C(I, R) (ou parfois C 0 (I, R)) l’ensemble des fonctions continues sur I.
Proposition II.2. La somme, le produit, la multiplication par un scalaire, le quotient (s’il est bien défini)
et la composition (si elle est bien définie) de fonctions continues est continue.
Démonstration. Il suffit de regarder les limites en des points donnés. Les opérations sur les limites donnent
le résultat.
Remarque II.3. On voit apparaı̂tre ici que la continuité est une notion locale : il suffit de la regarder
au voisinage d’un point pour la constater. Et la continuité sur un ensemble (par exemple un intervalle)
pourrait en ce sens être qualifiée de “multi-locale”, dans le sens où on ne fait que faire du local en chaque
point, mais à aucun moment on ne regarde les points simultanément (ce qui correspondrait à une approche
globale de la continuité).
Démonstration.
— La fonction constante de valeur 1 est continue, et est l’élément neutre pour ×.
— si f, g sont continues, alors f − g est continue.
— si f, g sont continues, alors f g est continue.
Démonstration. Comme la continuité est préservée par somme, produit et multiplication par un scalaire,
il suffit de voir que la fonction x 7→ x est continue sur R.
Soit a ∈ R et ε > 0. Alors :
|x − a| ≤ ε ⇒ |x − a|ε
où on interprète la première inégalité comme |x − a| ≤ η, et la seconde comme |f (x) − f (a)| ≤ ε.
Ceci montre bien la continuité en a. Et donc la continuité sur R.
D’où le résultat.
Remarque II.7. Cela revient à dire que f |I∩]−∞;a] ou f |I∩[a;+∞[ est continue en a.
Exemple II.8. La fonction partie entière x 7→ ⌊x⌋ est continue à droite en tout a ∈ R. Elle est continue à
gauche en tout les éléments de R \ Z.
Proposition II.9. Si f est définie sur I et a ∈ I, alors f est continue en a si, et seulement si, f est
continue à gauche et à droite en a.
∀x ∈ I, |x − a| ≤ η ⇒ |f (x) − l| ≤ ε
Exemples II.12.
ex − 1
1. Considérons la fonction f définie sur R∗ par : f (x) = . Alors, par limite classique : lim f (x) =
x x→0
1, et donc f se prolonge par continuité en la fonction continue sur R :
R → R
( ex − 1
˜
f: si x ̸= 0
x 7→
x
1 si x = 0
sin(x)
2. Considérons la fonction g définie sur R∗ par : g(x) = . Alors pour x ̸= 0 on a :
x
R → R
sin(x)
(
g̃ : si x ̸= 0
x 7→
x
1 si x = 0
II. FONCTIONS CONTINUES 209
Remarque II.14. Cela revient à dire que, si [a, b] ⊂ I, alors tout élément entre f (a) et f (b) a un antécédente
par f dans [a; b].
Démonstration. Considérons [a; b] ⊂ I. Supposons par exemple que f (a) ≤ f (b), et considérons y avec :
f (a) ≤ y ≤ f (b). Cherchons un antécédent c de y par f dans [a; b]
Si y = f (a) ou y = f (b), alors donc c = a ou c = b, convient. Supposons dans la suite que y ∈]f (a); f (b)[.
On propose deux démonstrations de ce résultats :
• avec des suites adjacentes : on définit les suites (an ) et (bn ) par a0 = a, b0 = b et pour tout n ∈ N :
— si f ( an +b
2
n
) < y : an+1 = an +b
2
n
et bn+1 = bn ;
— si f ( 2 ) > y : an+1 = an et bn+1 = an +b
an +bn
2
n
;
an +bn an +bn
— si f ( 2 ) = y : an+1 = bn+1 = 2 .
Alors les suites suites (an ) et (bn ) sont adjacentes.
— par récurrence, on montre que pour tout n ∈ N : an ≤ bn . En effet, si on pose (un ) = (bn − an ),
on a u0 = b − a > 0 et pour tout n ∈ N : un+1 = 12 un ou 0 (selon les cas).
— on déduit donc que les suites (an ) et (bn ) sont respectivement croissante et décroissante, puisque
pour tout n ∈ N : an+1 − an = bn −a 2
n
ou 0 selon les cas, et bn+1 − bn = an −b
2
n
ou 0 selon les cas.
— la suite (un ) tend vers 0 : soit elle est stationnaire à 0, soit géométrique de raison 12 ∈] − 1; 1[.
Et donc les suites (an ) et (bn ) convergent vers une même limite c ∈ [a; b].
Par construction des suites (an ) et (bn ), on a pour tout n ∈ N : f (an ) ≤ y ≤ f (bn ).
En passant à la limite, comme f est continue : f (c) ≤ y ≤ f (c), et donc f (c) = y.
• avec le théorème de la borne supérieure : on considère l’ensemble A = {x ∈ [a, b] | f (x) ≤ y}. C’est
une partie non vide (car a ∈ A) et majorée (par b) de R, donc A admet une borne supérieure c.
Par caractérisation séquentielle de la borne supérieure, il existe une suite (an ) d’éléments de A qui
tend vers c.
1 1
Par définition de c, pour tout n ∈ N : c + 1+n ∈
/ A. Posons (bn ) = (c + n+1 ), qui est une suite
d’éléments n’appartenant pas à A qui tend vers c.
Par définition de A, on a pour tout n ∈ N : f (an ) ≤ y < f (bn ).
Et donc en passant à la limite, comme f est continue : f (c) ≤ y ≤ f (c), donc f (c) = y.
Exemples II.15.
1. Un polynôme P de degré impair possède toujours une racine réelle. Quitte à changer P en −P , on
peut supposer que le coefficient dominant de P est strictement positif. Ainsi : lim P (x) = +∞ et
x→+∞
lim P (x) = −∞. Par définition des limites, avec A = ±1, il existe a, b ∈ R tels que P (a) < −1
x→−∞
et P (b) > 1, et donc par théorème des valeurs intermédiaire il existe c ∈ R tel que P (c) = 0.
2. Si f est continue sur ]a; b[ avec lim+ f (x) = l et lim− f (x) = l′ , alors tout élément strictement
x→a x→b
entre l et l′ a un antécédent par f . Supposons par exemple que l < l′ et posons y ∈]l, l′ [. Par
définition des limites en a et b, il existe x1 , x2 ∈]a, b[ tels que f (x1 ) ≤ y (avec ε = y − l) et
f (x2 ) ≥ y (avec ε = l′ − y). Et par théorème des valeurs intermédiaires on a bien le résultat.
Théorème II.16 (Théorème des bornes atteintes). L’image d’un segment par une fonction continue est un
segment.
Remarque II.17. Cela revient à dire qu’une fonction f continue sur [a, b] y est bornée et atteint ses bornes.
Considérons l’ensemble A = {f (x) | x ∈ [a; b]}, qui est une partie non vide.
Nécessairement, A est majorée : supposons par l’absurde que ce ne soit pas le cas. Alors il existe une suite
(yn ) d’éléments de A tendant vers +∞. Donc par définition de A, il existe une suite (xn ) d’éléments de
[a, b] telle que la suite (f (xn )) = (yn ) tend vers +∞.
La suite (xn ) est bornée, donc par théorème de Bolzano–Weierstrass il existe une sous-suite (xφ(n) ) qui
converge vers x ∈ [a; b], et par continuité de f la suite (f (xφ(n) )) = (yφ(n) ) converge vers f (x), ce qui
contredit le fait que (yn ) tend vers +∞.
Comme A est bornée, alors elle a une borne supérieure M . Il faut montrer qu’elle est atteinte. Pour cela,
on utilise la caractérisation séquentielle : il existe une suite (yn ) d’éléments de A tendent vers M , et donc
une suite (xn ) d’éléments de [a, b] telle que la suite (f (xn )) = (yn ) tend vers M .
À nouveau par théorème de Bolzano–Weierstrass, il existe une sous-suite (xφ(n) ) qui converge vers x ∈ [a; b],
et par continuité de f la suite (f (xφ(n) )) = (yφ(n) ) converge vers f (x). Mais (yφ(n) ) est une suite extraite
de (yn ), donc a même limite.
Et donc f (x) = M .
Le cas de la borne inférieure m de A se traite de même : elle existe et est atteinte.
Et finalement : f ([a, b]) = [m, M ].
Remarques II.18.
1. Les autres types d’intervalles se comportent assez mal. Par exemple, avec f = sin, on a : f (] −
1, 10[) = [−1, 1] et f ([0; 3π
2
[) =] − 1; 1].
Exemples II.19.
1. Si f est continue sur [a, b] et ne s’y annule pas, alors la fonction f1 est bien définie sur [a, b] et est
bornée.
Par théorème des valeurs intermédiaires, f est de signe constant. On peut supposer par exemple f
strictement positive. Mais par théorème des bornes atteintes on a f ([a, b]) = [m, M ], avec m = f (x1 )
pour x1 ∈ [a, b]. En particulier, m > 0. Et donc :
Remarque II.21. Par “même nature” on veut dire que si f est croissante (resp. décroissante) alors les
crochets de I sont les mêmes que ceux de J (resp. −J) ;
II. FONCTIONS CONTINUES 211
qui sont continues, à valeurs dans I, avec a(0) = x1 , a(1) = x2 , b(0) = y1 et b(1) = y2 .
La fonction g : t 7→ f (a(t)) − f (b(t)) est continue (en tant que combinaison linéaire de composée de
fonctions continues), et vérifie : g(0) = f (x1 ) − f (y1 ) > 0 et g(1) = f (x2 ) − f (y2 ) < 0. Par théorème des
valeurs intermédiaires, il existe dont t0 ∈]0; 1[ tel que g(t0 ) = 0, c’est-à-dire f (a(t0 )) = f (b(t0 )).
Par injectivité de f , on a :
f (a(t0 )) = f (b(t0 )) ⇒ a(t0 ) = b(t0 ) ⇒ (1−t0 )x1 +t0 x2 = (1−t0 )y1 +t0 y2 ⇒ (1 − t0 )(x1 − y1 ) = t0 (y2 − x2 )
| {z } | {z }
<0 >0
d’où la contradiction.
Donc f est monotone. Donc f est strictement monotone par injectivité.
Le fait que J est un intervalle découle du théorème des valeurs intermédiaires. Tandis que la nature de ses
bornes (comprises ou non) découle du théorème de la limite monotone.
Théorème II.22. Si f est continue sur un intervalle I et réalise une bijection de I sur J = f (I), alors f
est strictement monotone, et sa réciproque f −1 est continue sur J, de même monotonie que f .
et donc : l = f −1 (b).
Ce qui prouve bien la continuité à gauche.
1
Exemple II.23. Si n ∈ N∗ , la fonction x 7→ x n est continue sur R+ , en tant que réciproque de la fonction
continue (car polynomiale) x 7→ xn sur R+ .
Remarques II.25.
1. Cela revient à dire que la fonction x 7→ |f (x) − l| tend vers 0 en a.
212 CHAPITRE 16. CONTINUITÉ ET LIMITES
2. La notion de limite infinie sur C est moins naturelle, notamment par le fait qu’on n’a pas cette
relation d’ordre total comme sur R.
Définition II.27. Si I ⊂ R, on dit que f : I → C est continue si elle admet une limite en tout réel a ∈ I.
On note C(I, C) l’ensemble des fonctions continues sur I à valeurs complexes.
Remarque II.29. Les résultats reposant sur la relation d’ordre sur R (comme la limite monotone, le théo-
rème des valeurs intermédiaires, la bijection monotone, etc.) ne sont plus valables sur C. Par exemple,
la fonction t 7→ eit ne vérifie pas le théorème des valeurs intermédiaires : elle prend les valeurs 1 (en 0) et
−1 (en π) mais ne s’annule jamais.
Démonstration.
√ Comme f est continue sur C, alors Re(f ) et Im(f ) sont continues. Comme la fonction
x 7→ x est continue sur R+ , tout comme la fonction
p x 7→ x2 , donc par composée et combinaison linéaire
de fonction continue, la fonction x 7→ |f (x)| = Re(f (x))2 + Im(f (x))2 est continue.
Remarque II.31. La réciproque est fausse : on peut par exemple considérer f : x 7→ (−1)⌊x⌋ , qui vaut
alternativement 1 et −1 selon la parité de ⌊x⌋, tandis que |f | est constante de valeur 1.
Définition II.32. On dit qu’une fonction f : I → C est bornée si la fonction réelle x 7→ |f (x)| est majorée
sur I.
Démonstration. La fonction |f | est continue sur le segment [a, b], donc son image est un segment donc est
bornée.
Remarque II.34. On a même mieux : la fonction f “atteint sa borne”, dans le sens où il existe c ∈ [a, b]
tel que |f (c)| = max |f (x)|.
x∈[a,b]
Remarque III.2. En pratique, on pourra travailler avec des fonctions définies sur R. Mais le fait de
restreindre f à un sous ensemble stable par f sur lequel f est monotone pourra être intéressant.
Théorème III.3. Soient f est définie sur D, et (un ) une suite d’éléments de D définie par : ∀n ∈ N, un+1 =
f (un ). On suppose que (un ) converge vers l ∈ D et que f est continue en l : alors f (l) = l.
Démonstration. Par continuité de f en l, on a :
f (l) = lim f (un ) = lim un+1 = l.
Remarque III.4. Ce théorème ne donne pas l’existence d’une limite pour (un ), mais il donne les limites
possibles. Et il peut ainsi permettre de montrer que la suite (un ) ne converge pas.
y=x
Cf
u0 u1 u2 u3 u3u2 u1 u0
214 CHAPITRE 16. CONTINUITÉ ET LIMITES
3 3 3
0 ≤ un ≤ un+1 ≤ ⇒ f (0) ≤ f (un ) ≤ f (un+1 ) ≤ f ( ) ⇒ 0 ≤ un+1 ≤ un+2 ≤
2 2 2
ce qui conclut la récurrence.
Ainsi, la suite (un ) est croissante majorée (par 32 ) donc elle converge vers un réel l ∈ [0, 23 ]. Comme f est
continue sur R+ , elle est continue en l, donc f (l) = l. Donc l = 32 .
Démonstration. On pose g = f ◦ f , qui est croissante (en tant que composée de deux fonctions décrois-
santes). Alors les suites (vn ) et (wn ) vérifient pour tout n ∈ N :
Remarque III.10. On peut ainsi déduire une convergence éventuelle de (un ) de l’étude de (vn ) et (wn ) :
la suite (un ) a une limite si, et seulement si, les suites (vn ) et (wn ) tendent vers une même limite. Cette
limite est alors nécessairement finie du fait des monotonies de (vn ) et (wn ). Graphiquement, la situation
de convergence correspond à “l’escargot” suivant :
Cf y=x
u0 u2 u4 u5 u3 u1
qui est bien définie car [0, 1] ⊂ [0, π2 ] donc f ([0, 1]) ⊂ [0, 1]. Et f est décroissante sur [0; 1].
On pose g = f 2 qui est croissante, et les suites (vn ) = (u2n ) et (wn ) = (u2n+1 ), qui sont monotones.
La suite (un ) est bornée, donc (vn ) et (wn ) aussi. Comme elles sont monotones, elles convergent. Notons
l1 , l2 leurs limites respectives, qui sont dans [0; 1].
On considère la fonction h suivante :
[0, 1] → [0; 1]
h: .
x 7→ g(x) − x = cos(cos(x)) − x
La fonction h est dérivable sur [0, 1], avec pour tout x ∈ [0, 1] :
Ainsi :
— h est strictement décroissante et continue sur [0, 1] ;
— h(0) = cos(1) − 0 > 0 et h(1) = cos(cos(1)) − 1 < 0 ;
donc il existe un unique l ∈ [0; 1] tel que g(l) = l.
Et finalement, pour un tel l : l1 = l = l2 . Donc (un ) converge vers l.
On peut même aller plus loin et étudier f pour voir qu’elle admet elle aussi un unique point fixe, qui est l.
Remarque III.12. L’unicité du point fixe de f ne doit venir qu’à la fin. Par exemple, si l’on considère la
suite définie par :
u0 = 1
un+1 = 1 − un
alors on peut voir que les suites (vn ) et (wn ) convergent (elles sont même constantes), mais (un ) ne converge
pas. Alors que la fonction f : x 7→ 1 − x possède un unique point fixe.
Et on peut généraliser ce contre-exemple avec d’autres fonctions involutives qui possèdent un unique point
fixe (comme f : x 7→ x1 sur R∗+ ).
Chapitre 17
Polynômes
où n ∈ N et a0 , . . . , an ∈ K.
On dit alors que X est l’indéterminée et a0 , . . . , an sont les coefficients.
Les expressions ai X i (pour i ∈ J0; nK) sont appelées les monômes de P (X).
Plus précisément, pour i ∈ J0; nK, on dira que ai X i est le monôme de degré i, et ai le coefficient de degré
i.
Remarque I.2. On notera 0K[X] le polynôme ayant tous ses coefficients nuls. On l’appelle polynôme nul,
et on le notera plus simplement 0 lorsqu’il n’y aura pas d’ambiguı̈té.
Par définition, deux polynômes sont égaux si, et seulement si, ils ont mêmes coefficients.
Exemples I.3.
1. X 2 + 1 ∈ R[X] ;
2. X 2 + i ∈ C[X] ;
3. 0 ∈ K[X].
Remarques I.4.
1. Comme R ⊂ C, alors R[X] ⊂ C[X].
2. S’il n’y a pas d’ambiguı̈té, on pourra omettre X et noter P au lieu de P (X).
3. Un polynôme est la somme de ses monômes.
Définition I.5. Si a0 , . . . an ∈ K, avec an ̸= 0, on dira que le polynôme P = a0 + a1 X + · · · + an X n est de
degré n, ce que l’on notera : deg(P ) = n.
Par convention, on dira que le polynôme nul est de degré −∞.
Pour n ∈ N, on notera Kn [X] l’ensemble des polynômes à coefficients dans K de degré inférieur ou égal à
n.
Les polynômes de degré 0 sont appelés polynômes constants (selon les conventions, le polynôme nul
pourra être traité à part).
217
218 CHAPITRE 17. POLYNÔMES
Définition I.9. Si P ∈ K[X] est non nul, son coefficient de degré deg(P ) est appelé coefficient dominant.
On dira qu’un polynôme est unitaire si son coefficient dominant vaut 1.
Exemples I.10.
1. le polynôme X 4 + 2X 2 + 1 est unitaire ;
2. le polynôme 2X 2 + 1 n’est pas unitaire.
Remarque I.11. Plus généralement, on dira que le monôme (non nul) de plus haut degré de P est son
monôme dominant. Son coefficient de degré 0 sera lui appelé son coefficient constant.
Démonstration. La seule chose à vérifier est que les expressions définies précédemment sont bien des
polynômes. Comme il s’agit clairement de sommes de monômes, il suffit de vérifier que ces sommes sont
finies, c’est-à-dire que leurs coefficients sont nuls à partir d’un certain degré :
1. pour k > deg(P ), on a ak = 0 et donc λak = 0 ;
2. pour k > max(deg(P ), deg(Q)), on a ak = bk = 0 et donc ak + bk = 0 ;
3. pour k > deg(P ) + deg(Q) et l ∈ J0; kK, on a :
Remarque I.13. Ces formules correspondent au fait de multiplier par un scalaire, d’additionner ou de
multiplier entre elles les expressions suivant les règles usuelles de calcul sur R ou C, en manipulant X
comme on le ferait avec une inconnue dans une équation. C’est clair pour les deux premières opérations.
Pour la multiplication, on a :
De plus, l’amalgame entre K0 [X] et K est légitimé par le fait que, pour λ ∈ K et P ∈ K[X], alors :
λ · P = λP (que λ soit vu comme un scalaire ou un polynôme constant).
où on pose Qk = Q · Q · · · · · Q.
| {z }
k fois
Démonstration. Il faut vérifier que P ◦ Q est bien un polynôme. Comme Q ∈ K[X], alors pour tout k ∈ N
on a Qk ∈ K[X], et donc par stabilité par combinaison linéaire on a bien le résultat.
P ◦ Q = Q2 + 1 = (X + 1)2 + 1 = X 2 + 2X + 2 et Q ◦ P = P + 1 = X 2 + 2.
Remarque I.16. Le fait de travailler avec P (X) plutôt qu’avec P permet d’éviter certaines confusions. Par
exemple, avec Q = X + 1, on notera plutôt P (Q(X)), et donc dans le cas présent P (X + 1) au lieu de
P ◦ Q. Pour ne pas confondre avec le produit de P par (X + 1), on notera ce produit (X + 1)P , ou on
explicitera le signe de multiplication en notant P × (X + 1) ou P · (X + 1).
Démonstration. Notons déjà que, suivant la démonstration précédente, on a déjà certaines inégalités sur
les degrés, à savoir :
degλP ≤ degP
deg(P Q) ≤ deg(P ) + deg(Q)
deg(P + Q) ≤ max(deg(P ) + deg(Q))
deg(P k ) = kdeg(P ).
P Q = 0 ⇒ P = 0 ou Q = 0.
P Q = P R ⇒ Q = R.
P Q = P R ⇒ P (Q − R) = 0 ⇒ Q − R = 0 ⇒ Q = R.
Remarque I.23. Il y a en fait une petite “arnaque” dans la dernière preuve : le fait de factoriser par P
demande d’avoir la distributivité de la multiplication sur l’addition pour les polynômes, mais on la montrera
très bientôt.
Corollaire I.24. Si P, Q ∈ K[X], avec Q non constant, alors :
et ainsi on est dans le cas d’égalité pour le degré d’une somme, donc :
Remarque I.25. Si Q est constant, alors P ◦ Q aussi, mais on ne sait pas a priori s’il est nul ou non :
— si P = X + 1 et Q = 0 : alors P ◦ Q = 1 ;
— si P = X + 1 et Q = −1 : alors P ◦ Q = 0.
I. POLYNÔMES ET FONCTIONS POLYNOMIALES 221
qui est donc égal à celui de P (QR), ce qui montre bien que (P Q)R = P (QR).
3. Soit n ∈ N. Le coefficient de degré n de P (Q + R) est :
n n
! n
!
X X X
ak (bn−k + cn−k ) = ak bn−k + ak cn−k
k=0 k=0 k=0
On définit plus généralement, pour m ∈ N, la dérivée m-ème de P , notée P (m) , par : P (0) = P et
′
P (m) = P (m−1) si m > 0.
Remarque I.33. Bien que cette dérivation ressemble beaucoup à la dérivée classique (pour les fonctions
polynomiales), elle est à prendre comme une formule toute faite et n’est pas sensée refléter une limite de
taux d’accroissement.
Proposition I.34. Si P, Q ∈ K[X] et λ, µ ∈ K, alors :
1. deg(P ′ ) = deg(P ) − 1 si deg(P ) ≥ 1, et −∞ sinon ;
2. (λP + µQ)′ = λP ′ + µQ′ (linéarité de la dérivation)
3. (P Q)′ = P ′ Q + P Q′ ;
4. (P ◦ Q)′ = Q′ × (P ′ ◦ Q).
Démonstration.
1. Si P est constant, alors P ′ = 0 (en tant que valeur d’une somme vide).
Sinon, en notant P = nk=0 ak X k avec an ̸= 0, alors P ′ = k=0
Pn−1
(k + 1)ak+1 X k , donc P ′ est de degré
P
au plus n − 1. Et comme an ̸= 0, alors nan ̸= 0 donc le coefficient de degré n − 1 de P ′ est non nul :
deg(P ′ ) = n − 1.
ak X k et Q = bk X k , on a : λP + µQ = (λak + µbk )X k . Et donc :
P P P
2. En notant P =
X X X
(λP + µQ)′ = (k+1)(λak+1 +µbk+1 )X k = λ (k + 1)ak+1 X k +µ (k + 1)bk+1 X k = λP ′ +µQ′ .
I. POLYNÔMES ET FONCTIONS POLYNOMIALES 223
Proposition I.39. Deux fonctions polynomiales sont égales si, et seulement si, elles ont les mêmes coeffi-
cients.
Démonstration. Supposons f, g deux fonctions polynomiales égales, de coefficients respectifs a0 , . . . , an et
b0 , . . . , bn . Et supposons par l’absurde qu’il existe k ∈ J0, nK tel que ak ̸= bk .
Notons m le plus grand entier tel que am ̸= bm . Ainsi, pour tout x ∈ R, on a :
En passant à la limite pour x tendant vers l’infini, on déduit que 0 = am − bm , d’où la contradiction.
Corollaire I.40. L’application P 7→ Pe est une bijection de K[X] sur l’ensemble des fonctions polynomiales
sur K.
Démonstration. La surjectivité vient de la définition des fonctions polynomiales.
L’injectivité découle de la proposition précédente.
Remarque I.41. En fait, il préserve les opérations + et × (c’est comme ça qu’on les a construites) : c’est
un isomorphisme d’anneaux.
De plus, il est compatible avec la multiplication scalaire et la dérivation, dans le sens où :
Remarque II.6. On a donc sensiblement le même résultat que pour la divisibilité que sur Z : les structures
d’anneaux de Z et de K[X] sont très proches. On parle d’anneaux euclidiens.
Démonstration. Soient A, B, C ∈ K[X]. Alors :
— A = 1 · A, donc A|A, ce qui donne la réflexivité ;
— si A|B et B|C, notons Q1 , Q2 ∈ K[X] tels que AQ1 = B et BQ2 = C. Alors : C = A(Q1 Q2 ), donc
A|C, ce qui donne la transitivité ;
— Montrons l’équivalence relative à la non antisymétrie :
— si A|B et B|A : si A = 0, alors B = 0 et tout λ ∈ K∗ convient.
Sinon, alors A ̸= 0 et B ̸= 0, et donc deg(A) ≤ deg(B) et deg(B) ≤ deg(A), donc deg(A) =
deg(B).
Comme B|A, notons Q ∈ K[X] tel que A = BQ : alors deg(Q) = 0, donc Q = λ pour λ ∈ K∗ ,
ce qui donne le résultat.
— réciproquement si A = λB pour λ ∈ K∗ , alors B|A. Mais on a aussi B = λ1 A, donc A|B.
Définition II.7. On dit que deux éléments de K[X] sont associés chacun divise l’autre. Suivant la remarque
précédente, cela revient à dire que l’on passe de l’un à l’autre par multiplication par un scalaire non nul.
Exemples II.8.
1. Tous les polynômes constants non nuls sont associés.
2. Le polynômes X 2 + 12 et 2X 2 + 1 sont associés. Plus généralement, tout polynôme à coefficients
rationnels est associé à un polynôme à coefficients entiers.
3. Tout polynôme non nul est associé à un unique polynôme unitaire.
et finalement A b est de degré au plus (n − 1), donc par hypothèse de récurrence il existe (Q,
b R)
b
tels que A b = BQb+R b avec deg(R)
b < deg(B).
n−deg(B)
Et donc le couple (Q b + aX , R)
b convient pour A.
D’où l’existence par récurrence.
— Unicité : Supposons que (Q1 , R1 ), (Q2 , R2 ) conviennent. Alors on a : B(Q1 − Q2 ) = (R2 − R1 ).
Comme deg(R1), deg(R2 ) < deg(B), alors deg(R2 − R1 ) < deg(B).
Et ainsi : deg(B(Q1 − Q2 )) = deg(B) + deg(Q1 − Q2 ) < deg(B), donc deg(Q1 − Q2 ) < 0, c’est-à-dire
Q1 − Q2 = 0.
Ainsi on trouve R2 − R1 = 0, et donc : (Q1 , R1 ) = (Q2 , R2 ), ce qui assure l’unicité.
Remarque II.10. On pouvait aussi faire un preuve comme pour la division euclidienne sur Z, en notant
que, pour A, B fixés l’ensemble E = {deg(A − BQ) | Q ∈ K[X]} est une partie non-vide majorée de N.
L’intérêt de la preuve par récurrence est qu’elle fait apparaı̂tre comment on pose des divisions euclidiennes
de polynômes.
Corollaire II.11. Si A, B ∈ K[X] avec B ̸= 0, alors B divise A si, et seulement si, le reste de la division
euclidienne de A par B est nul.
Démonstration. Découle de l’unicité.
Exemple II.12. Si A, B ∈ K[X] et P ∈ K[X] est non constant, alors on a l’équivalence :
B|A ⇔ B ◦ P |A ◦ P.
En effet, le résultat est clair si B = 0 (car alors A = B = A ◦ P = B ◦ P = 0). Et sinon, en écrivant
A = BQ + R la division euclidienne de A par B, alors en composant avec P on a :
A ◦ P = (B ◦ P ) · (Q ◦ P ) + R ◦ P
et l’écriture ci-dessus est en fait la division euclidienne de A ◦ P par B ◦ P : en effet, par définition de
la division euclidienne de A par B on a deg(R) < deg(B), et donc par composition (comme P est non
constant) alors deg(R ◦ P ) < deg(B ◦ P ), ce qui donne bien la division euclidienne voulue par unicité.
Et ainsi on a :
B|A ⇔ R = 0 ⇔ R ◦ P = 0 ⇔ B ◦ P |A ◦ P.
Corollaire II.13. Si A, B ∈ R[X], alors B divise A dans C[X] si, et seulement si, B divise A dans R[X].
Démonstration. Commençons par la réciproque : si B divise A dans R[X], il existe Q ∈ R[X] tel que
A = BQ. L’inclusion R[X] ⊂ C[X] donne le résultat.
Réciproquement : si B divise A dans C[X], alors le reste de la division euclidienne (sur C) de A par B
est nul. Si on note A = BQ + R la division euclidienne (sur R) de A par B, alors cela fournit aussi une
division euclidienne sur C (par l’inclusion R[X] ⊂ C[X]). Et donc par unicité : R = 0. Donc B divise A
dans R[X].
Exemple II.14. Posons la division euclidienne de X 3 + X 2 + 1 par X − 1. On a :
X3 +X 2 −1 X −1
−X 3 +X 2 2
X +2X +2
2X 2
−2X 2 +2X
2X
−2X +2
+1
Remarque III.4. Une autre manière de formuler ce résultat est que la suite (finie) définie par :
u0 = an
uk = auk−1 + an−k pour 0 < k ≤ n
vérifie P (a) = un .
Exemple III.5. Prenons P (X) = X 3 + 2X 2 − X + 1 et calculons P (1 + i). Le calcul de la suite (un )
précédente donne :
u0 = 1
u1 = (1 + i) + 2 = 3 + i
u2 = (3 + i)(1 + i) − 1 = 1 + 4i
u3 = (1 + 4i)(1 + i) + 1 = −2 + 5i
et donc P (1 + i) = −2 + 5i.
Théorème III.6 (Formule de Taylor polynomiale). Si P ∈ K[X] et a ∈ K (quelconque), alors :
X P (k) (a)
P = (X − a)k .
k!
Remarque III.7. La somme précédente est en fait finie, car pour k > deg(P ) on a : P (k) = 0. Et elle
définit donc bien un polynôme.
228 CHAPITRE 17. POLYNÔMES
Démonstration. On procède par récurrence sur n ∈ N pour montrer qu’elle est vraie sur Kn [X] :
— si n = 0 : alors P ∈ K0 [X] est constant, donc pour tout a ∈ K on a : P = P (a) ;
— supposons la formule vérifiée sur Kn−1 [X] pour n ∈ N∗ , et considérons P ∈ Kn [X] : alors P ′ ∈
Kn−1 [X], donc on peut écrire :
n−1 n−1
X (P ′ )(k) (a) X P (k+1) (a)
P′ = (X − a)k = (X − a)k .
k=0
k! k=0
k!
Pn P (k) (a)
Considérons le polynôme Q = k=0 (X − a)k . Par linéarité de la dérivation, on a :
k!
n n n−1
′
X P (k) (a) k ′
X P (k) (a) k−1
X P (k+1) (a)
(X − a)k
Q = (X − a) = (X − a) =
k=0
k! k=1
(k − 1)! k=0
k!
Proposition III.16. Soit P ∈ K[X] et a ∈ K. Alors a est racine de P si, et seulement si, (X − a) divise P .
Démonstration. Il faut juste montrer que {k ∈ N | (X − a)k |P } possède un plus grand élément. Or, cet
ensemble est un sous-ensemble de N :
— non vide : car (X − a)0 = 1 divise P , donc il contient 0 ;
— majoré : car, si (X − a)k |P , comme P ̸= 0, alors deg((X − a)k ) ≤ deg(P ), et donc k ≤ deg(P ).
Donc il possède bien un plus grand élément.
Proposition III.18. Si P ∈ K[X] non nul, a ∈ K et m ∈ N, alors a est racine de multiplicité m de P si,
et seulement si, il existe Q ∈ K[X] tel que :
P = (X − a)m Q et Q(a) ̸= 0.
Corollaire III.19. Si A, B ∈ K[X] avec B|A, alors toute racine de B est une racine de A avec une
multiplicité supérieure ou égale.
Remarque III.22. On pouvait aussi le montrer par dérivée d’un produit. En notant P = (X − a)m Q avec
Q(a) ̸= 0, on a :
Corollaire III.23. Si A, B ∈ K[X] avec B ̸= 0, et que R est le reste de la division euclidienne de A par B,
alors si a est une racine de B de multiplicité m ∈ N : ∀k ∈ J0; m − 1K, A(k) (a) = R(k) (a).
Remarque III.24. Cela permet de calculer des restes de divisions euclidienne lorsque B possède des racines
multiples.
III. RACINES DE POLYNÔMES 231
B(a) = · · · = B (mB −1) (a) = C(a) = . . . C (mC −1) (a) = 0 et B (mB ) (a), C (mC ) (a) ̸= 0.
et donc :
— si n ≤ (mB + mC ) − 1 : pour tout k ∈ J0; nK, k ≤ mB − 1 ou n − k ≤ mC − 1, et donc A(n) (a) = 0 ;
— si n = mB + mC : A(n) (a) = B (mB ) (a)C (mC ) (a) ̸= 0 ;
ce qui donne bien le résultat.
Démonstration. Prouvons par récurrence sur k ∈ J1, rK que P est divisible par Pk = (X − λ1 )m1 . . . (X −
λk )mk .
— si k = 1 : alors cela a déjà été prouvé, car λ1 est racine de multiplicité m1 de P .
— hérédité : supposons pour k ∈ J1, r − 1K que P est divisible par Pk .
On pose Q ∈ K[X] tel que P = Pk Q.
Si on note n1 , n2 les multiplicités de λk+1 comme racines de Pk , Q, alors on a :
— comme P = Pk Q, alors : n1 + n2 = mk+1 ;
— comme les λi sont deux-à-deux distincts, alors Pk (λk+1 ) ̸= 0, donc n1 = 0.
Et donc n2 = mk+1 , donc Q s’écrit : Q = (X − λk+1 )mk+1 A et finalement :
Remarque III.28. On peut utiliser ce résultat dans l’autre sens : si (X − λ1 )m1 . . . (X − λr )mr divise P ,
alors λ1 , . . . , λr sont racines de P de multiplicités respectives au moins m1 , . . . , mr .
Exemple III.30. On peut se demander pour quelles valeurs de n ∈ N le polynôme X 2 +1 divise le polynôme
X n − 1.
Comme X 2 + 1 = (X + i)(X − i), alors cela revient à chercher pour quelle valeur de n on a : in − 1 = 0
et (−i)n − 1 = 0.
La première égalité impose que n ≡ 0 [4] et la seconde aussi. Et donc finalement X n − 1 est divisible par
X 2 + 1 si, et seulement si : n ≡ 0 [4].
Remarque III.31. On retrouve le passage de la division sur C[X] à celle sur R[X]. Il suffit de savoir si le
polynôme X 2 + 1 divise X n + 1 dans C[X] pour avoir aussi la divisibilité sur R[X].
De plus, il y a égalité si, et seulement si, les polynômes P et (X − λ1 )m1 . . . (X − λr )mr sont associés.
Démonstration. Comme (X −λ1 )m1 . . . (X −λr )mr divise P , on peut noter P = (X −λ1 )m1 . . . (X −λr )mr Q
pour Q ∈ K[X].
Et alors en regardant les degrés :
— deg((X − λ1 )m1 . . . (X − λr )mr ) ≤ deg(P ), ce qui donne l’inégalité ;
— le cas d’égalité correspond au cas où deg(Q) = 0, c’est-à-dire que Q est constant (non nul).
Corollaire III.33. Un polynôme non nul a au plus autant de racines comptées avec multiplicité que
sont degré.
En particulier, si P ∈ Kn [X] possède plus de (n + 1) racines, alors P = 0.
Corollaire III.34. Un polynôme qui possède une infinité de racines est nul.
Remarque III.35. Ce résultat peut être utilisé pour montrer que deux polynômes sont égaux : il suffit de
voir qu’il prennent une infinité de valeurs communes.
Exemple III.36. Montrons que la fonction racine carrée n’est pas polynomiale.
√
Par l’absurde, supposons qu’il existe P ∈ C[X] tel que : ∀n ∈ N, P (n) = n.
Alors : ∀n ∈ N, P (n)2 − n = 0
Donc les polynômes P 2 et X sont égaux, donc ont même degré : deg(P 2 ) = 2deg(P ) = deg(X) = 1, ce qui
est impossible.
III.4 Interpolation
Définition III.37. Si x1 , . . . , xn ∈ K sont deux-à-deux distincts et i ∈ J1, nK, le i-ème polynôme de
Lagrange associé à (x1 , . . . , xn ) est le polynôme :
Y X − xk X − x1 X − xi−1 X − xi+1 X − xn
Li = = ... ... .
x i − xk x i − x1 x i − xi−1 xi − xi+1 x i − xn
k̸=i
Remarque III.38. Le point important est que les xk sont deux à deux distincts, pour que Li soit bien défini.
X − xk Q
Démonstration. Si i, j ∈ J1, nK. Notons Pk = de sorte que Li = k̸=i Pk :
xi − xk
— si i ̸= j : Pj (xj ) = 0 apparaı̂t dans le produit qui définit Li (xj ), donc Li (xj ) = 0 ;
— si i = j : alors Pk (xi ) = 1 pour tout k ̸= i, et donc Li (xi ) = 1.
Proposition III.40. Avec les mêmes notation, Li est l’unique polynôme de Kn−1 [X] vérifiant la propriété
précédente.
Démonstration. Si P ∈ Kn−1 [X] vérifie cette propriété, alors pour tout j ∈ J1, nK : (P − Li )(xj ) = 0.
Donc le polynôme P − Li ∈ Kn−1 [X] possède n racines, donc il s’agit du polynôme nul, donc P = Li .
Théorème III.41 (Interpolation de Lagrange). Si x1 , . . . , xn ∈ K sont deux-à-deux distincts, et y1 , . . . , yn ∈
K, alors il existe un unique polynôme P ∈ Kn−1 [X]
Pn tel que : ∀i ∈ J1, nK, P (xi ) = yi .
Plus précisément, un tel P est donné par : P = i=1 yi Li .
Démonstration. Montrons séparément
Pn l’existence et l’unicité.
— existence : posons P = i=1 yi Li . Comme tous les Li sont des éléments de Kn−1 [X], alors P aussi.
Et de plus pour tout j ∈ J1, nK on a :
n
X n
X
P (xj ) = yi Li (xj ) = yi δi,j = yj
i=1 i=1
Remarque III.42. Les polynômes Li sont de degré n − 1, mais le polynôme donné par l’interpolation de
Lagrange peut être de degré plus petit.
Par exemple, si xi = yi = i, alors le polynôme obtenu est P = X est est de degré 1.
Corollaire III.43. Si P ∈ Kn−1 [X], et x1 , . . . , xn ∈ K sont deux-à-deux distincts,
Pn alors P s’écrit de manière
unique comme combinaison linéaire en les Li . Plus précisément : P = i=1 P (xi )Li .
Corollaire III.44. Avec les notations précédentes, l’ensemble des polynômes Q tels que ∀i ∈ J1, nK, Q(xi ) =
yi est exactement l’ensemble des polynômes de la forme :
n
! n
!
X Y
y i Li + P · (X − xi )
i=1 i=1
où P ∈ K[X].
Pn
Démonstration. Posons Q0 = i=1 yi Li . Pour Q ∈ K[X], on a donc :
∀i ∈ J1, nK, Q(xi ) = yi ⇔ ∀i ∈ J1, nK, Q(xi ) = Q0 (xi )
⇔ ∀i
Q∈ J1, nK, (Q − Q0 )(xi ) = 0
n
⇔ ( i=1 (X − xi )) |(Q
Q − Q0 )
⇔ ∃P ∈ K[X], P · ( ni=1 (X − Q xi )) = Q − Q0
⇔ ∃P ∈ K[X], Q = Q0 + P · ( ni=1 (X − xi ))
ce qui donne le résultat.
Remarque III.45. Avec les notations précédente, un tel polynôme Q a pour reste Q0 dans la division eucli-
dienne par ( ni=1 (X − xi )). Donc si l’on possède un polynôme, on peut déduire Q0 par division euclidienne
Q
et retrouver ensuite tous les polynômes voulus avec le résultat précédent.
234 CHAPITRE 17. POLYNÔMES
et donc l’inégalité précédente est une égalité, ce qui impose que rk=1 nr = deg(A), donc A est scindé (et
P
Q aussi).
Si B divise A, alors (X − λ1 )m1 . . . (X − λr )mr divise A, donc chaque λk est racine de A de multiplicité au
moins mk .
Réciproquement, si tous les λk sont racines de A de multiplicité nk ≥ mk , alors il existe un polynôme Q
tel que :
n1 nr m1 mr 1 n1 −m1 nr −mr
A = (X − λ1 ) . . . (X − λr ) · Q = (α(X − λ1 ) . . . (X − λr ) ) (X − λ1 ) . . . (X − λr ) Q
| {z } α
=B
et donc B divise A.
III. RACINES DE POLYNÔMES 235
ak X k un polynôme
P
Proposition III.50 (Formule de Viète, ou relation coefficients-racines). Soit P =
scindé de degré n, dont on note x1 , . . . , xn les racines (avec éventuellement des répétitions selon les mul-
tiplicités).
On note, pour k ∈ J1; nK, le scalaire σk comme le k-ème polynôme symétrique élémentaire en les xi ,
c’est-à-dire que : X
σk = x i 1 x i 2 . . . xi k .
1≤i1 <···<ik ≤n
Remarque III.51. Si l’expression de σk est compliquée dans le cas général, elle l’est beaucoup moins pour
k = 1 ou n : n n
X Y
σ1 = xi et σn = xi
i=1 i=1
Exemple III.52. Si n = 2, notons P = aX 2 + bX + c, qui est scindé sur C. Si on note x1 , x2 ses racines,
alors :
b c
x1 + x2 = − et x1 x2 =
a a
Démonstration. Admis.
Remarques III.55.
1. En utilisant un résultat précédent, pour montrer que B ∈ C[X] divise A ∈ C[X], il suffit de regarder
toutes les racines de B et de vérifier qu’elles sont racines de A de multiplicité plus grande ou égale.
2. On peut appliquer ce résultat à des polynômes de R[X], du fait de l’inclusion R[X] ⊂ C[X], mais
les polynômes seront alors scindés sur C.
Qn 2ikπ
z = (−1)n+1 .
Q
et σn = k=1 e n = z∈Un
IV. ARITHMÉTIQUE DES POLYNÔMES 237
Démonstration. Par exemple, supposons que A est non nul. Alors l’ensemble E = {deg(Q) | Q ∈ K[X], Q ̸=
0, Q|A, Q|B} est un sous-ensemble non vide (il contient 1) et majoré (par deg(A)) de N donc admet un
plus grand élément. Ce qui justifie l’existence d’un diviseur de degré maximal.
Remarque IV.2. On n’a pas unicité du PGCD : plus précisément, si P est un PGCD de A et B, et λ ∈ K∗ ,
alors λP est aussi un PGCD de A et B comme le degré et la divisibilité sont conservés en multipliant par
un scalaire.
Exemple IV.3. Traitons le cas où B = 0 : les PGCD de A et 0 sont alors tous les polynômes associés à A.
Comme tous les polynômes divisent 0, alors les diviseurs communs à A et 0 sont exactement les diviseurs
de A. Et le plus grand degré pour un diviseur de A est deg(A) (réalisé pour A par exemple).
Et si P divise A avec deg(P ) = deg(A), alors le degré du quotient est nul, donc P est associé à A. Ce qui
montre le résultat.
Corollaire IV.5. Avec les mêmes notations, les PGCD de A et B sont ceux de B et R.
Théorème IV.6 (Algorithme d’Euclide). Si A, B ∈ K[X] avec deg(Q) ≥ deg(B), on construit une suite
finie de polynôme R1 , . . . , Rn suivant l’algorithme d’Euclide :
1. on pose R1 le reste de la division euclidienne de A par B ;
2. si R1 ̸= 0, on pose pose R2 le reste de la division euclidienne de B par R1 ;
3. on continue en posant Rk+1 le reste de la division euclidienne de Rk−1 par Rk , tant que Rk est non
nul.
La suite des Rk est telle que la suite des degrés associée est une suite strictement décroissante d’entiers
(ce qui assure bien que l’un des Rk est nul et que l’on s’arrête).
Les diviseurs de A et B, de B et R1 , de R1 et R2 et ainsi de suite jusqu’à Rn−1 et Rn = 0 sont les mêmes.
Donc les PGCD de A et B sont les polynômes associés au dernier reste non nul dans l’algorithme
d’Euclide.
Proposition-Définition IV.7. Si A, B ∈ K[X] ne sont pas tous les deux nuls, leurs PGCD sont associés
deux-à-deux. En particulier, il en existe un unique qui est unitaire : on l’appelle le PGCD unitaire de
A et B, et on le note A ∧ B.
Par convention, on note 0 ∧ 0 = 0.
Corollaire IV.8. Si A, B ∈ K[X], alors les diviseurs communs de A et B sont exactement les diviseurs de
A ∧ B.
Ainsi, les PGCD de A et B sont les plus grands diviseurs commun de A et B au sens de la divisibilité,
c’est-à-dire qu’un polynôme D ∈ K[X] est un PGCD de A et B si, et seulement si :
Démonstration. Si A = B = 0, alors 0 est le seul PGCD de A et B. Les résultats découlent alors du fait
que 0 est divisible par tout polynôme, et que c’est le seul élément de K[X] vérifiant cette propriété.
Si A ou B est non nul : suivant les notations de l’algorithme d’Euclide, les diviseurs communs de A et B
sont exactement les diviseurs de Rn−1 , et donc de tous les polynômes qui lui sont associés, ce qui donne le
premier résultat. Ceci montre que tout PGCD de A et B vérifie l’équivalence.
Inversement, si D vérifie l’équivalence précédente, alors il doit aussi la satisfaire :
— pour P = A ∧ B : alors P |A et P |B donc P |D, c’est-à-dire que A ∧ B|D ;
— pour P = D : alors P |A et P |B, donc P |A ∧ B par le point précédent, c’est-à-dire que D|A ∧ B.
donc D est associé à A ∧ B et est un PGCD de A et B.
Théorème IV.9 (Identité de Bézout). Si A, B ∈ K[X], il existe U, V ∈ K[X] tels que : A ∧ B = AU + BV .
Démonstration. Se fait comme pour l’identité de Bézout pour les entiers : soit par récurrence sur deg(B),
soit par remontée dans l’algorithme d’Euclide (et on parle encore d’algorithme d’Euclide étendu)
Corollaire IV.10. Si A, B ∈ K[X] avec A ou B non nul, alors A ∧ B est le polynôme unitaire de plus petit
degré de la forme AU + BV pour U, V ∈ K[X].
Exemple IV.11. Prenons A = X 3 − 6X 2 + 11X − 6 et B = X 2 − X − 2.
On pourrait calculer le reste de la division euclidienne en évaluant A en les racines de B, mais on a besoin
des quotients pour satisfaire l’identité de Bézout. On a :
X 3 −6X 2 +11X −6 X 2 −X −2
−X 3 +X 2 +2X X −5
−5X 2 +13X −6
5X 2 −5X −10
8X −16
Donc R1 = 8X − 16. Pour simplifier les calcule, on continue l’algorithme d’Euclide avec 18 R1 = X − 2 :
X 2 −X −2 X −2
−X 2 +2X X +1
X −2
−X +2
0
Et donc A ∧ B = X − 2. Et :
1 1 3 2 2
1 1 5
X − 2 = (8X − 16) = (X − 6X + 11X − 6) − (X − X − 2) · (X − 5) = ·A + − X + ·B
8 8 8
|{z} 8 8
| {z }
=U =V
Corollaire IV.15. Si A, B1 , . . . , Bn ∈ K[X], alors A est premier avec le produit B1 . . . Bn si, et seulement
si, il est premier avec chacun des Bi .
Démonstration. Prouvons le par récurrence sur n ∈ N∗ :
— si n = 1 : c’est la définition ;
— si n = 2 :
— si A ∧ B1 B2 = 1 : alors AU + B1 B2 V = 1, donc : AU = B1 (B2 V ) = AU + B2 (B1 V ) = 1 donc A
est premier avec B1 et avec B2 ;
— si A ∧ B1 = A ∧ B2 = 1 : alors AU1 + B1 V1 = AU2 + B2 V2 = 1 pour U1 , U2 , V1 , V2 ∈ K[X]. Et
donc :
Proposition IV.16 (Lemme de Gauss). Si A, B, C ∈ K[X] tel que A divise BC et A est premier avec B,
alors A divise C.
Démonstration. Comme A et B sont premiers entre eux, il existe U, V tels que : AU + BV = 1. Et donc
AU C + BCV = C.
Comme A divise AU C et BV C, alors A divise C.
IV.3 PPCM
Proposition-Définition IV.17. Si A, B ∈ K[X] non nuls, on appelle plus petit commun multiple
(PPCM) de A et B tout multiple non nul de A et B de degré minimal parmi les multiples non nuls
de A et B.
Si A ou B est nul, on pose par convention que le polynôme nul est leur seul PPCM.
Démonstration. Si A et B sont non nuls, alors l’ensemble E = {deg(Q) | Q ∈ K[X], Q ̸= 0, A|Q, B|Q}
est un sous-ensemble non vide (il contient AB) de N donc admet un plus petit élément. Ce qui justifie
l’existence d’un multiple de degré minimal.
Proposition-Définition IV.18. Si A, B ∈ K[X] sont non nuls, leurs PPCM sont associés deux-à-deux. En
particulier, il en existe un unique qui est unitaire : on l’appelle le PPCM unitaire de A et B, et on le
note A ∨ B.
Par convention, on note A ∨ B = 0 dès que A ou B est nul.
240 CHAPITRE 17. POLYNÔMES
Corollaire IV.19. Si A, B ∈ K[X], alors les multiples communs de A et B sont exactement les multiples
de A ∨ B.
Ainsi, les PPCM de A et B sont les plus petits multiples communs de A et B au sens de la divisibilité,
c’est-à-dire qu’un polynôme M ∈ K[X] est un PPCM de A et B si, et seulement si :
Démonstration. Si A ou B est nul, alors le résultat est immédiat comme 0 est le seul multiple de 0, et que
tout polynôme non nul possède un multiple non nul.
Si A et B sont non nuls : posons M = A ∨ B, et considérons N un multiple de A et B. On écrit
N = M Q + R la division euclidienne de N par M . Alors R = N − M Q est aussi un multiple de A et B,
qui vérifie deg(R) < deg(M ). Donc R = 0 par minimalité de M . Donc M divise N . Et tout PPCM de A
et B est associé à M donc divise aussi N .
Inversement, si N vérifie l’équivalence précédente, alors il doit aussi la satisfaire :
— pour P = M : alors A|P et B|P , donc N |P , c’est-à-dire N |M ;
— pour P = N : alors N |P donc A|P et B|P , donc M |P par le point précédent, c’est-à-dire que M |N ;
donc N et M sont associés, et N est un PPCM de A et B.
AB = (A ∧ B)(A ∨ B).
Démonstration. Par récurrence, en utilisant le fait que : les diviseurs de A et B sont exactement les
diviseurs de A ∧ B, donc les diviseurs de A, B, C sont les diviseurs de A ∧ B et C. Et en prenant le diviseur
de degré maximal on a bien le résultat.
Démonstration. Par récurrence, avec l’identité de Bézout, comme pour les entiers.
IV. ARITHMÉTIQUE DES POLYNÔMES 241
Définition IV.24. Des polynômes A1 , . . . , An ∈ K[X] sont dits premiers entre eux dans leur ensemble
si ni=1 Ai = 1.
V
On dit qu’ils sont deux-à-deux premiers entre eux si, pour tous i ̸= j, Ai est premier avec Aj .
Proposition IV.25. Les polynômes A1 , . . . , An ∈ K[X] Pn sont premiers entre eux dans leur ensemble si, et
seulement si, il existe U1 , . . . , Un ∈ K[X] tels que : i=1 Ai Ui = 1.
Corollaire IV.26. Des polynômes A1 , . . . , An ∈ C[x] sont premiers entre eux dans leur ensemble si, et
seulement si, ils n’ont pas de racine commune.
Démonstration. Supposons que A1 , . . . , An soient premierPentre eux. Par l’absurde, supposons que A1 (λ) =
· · · = An (λ) = 0 pour λ ∈ C. Notons U1 , . . . , Un tels que ni=1 Ai Ui = 1. Alors en évaluant en λ on trouve :
0 = 1, d’où la contradiction.
Inversement, si A1 , . . . , An ne sont pas premiers entre eux, notons D = ni=1 Ai , qui vérifie deg(D) ≥ 1. Et
V
par théorème de d’Alembert–Gauss, D possède une racine λ ∈ C, qui est donc une racine de chacun des
Ai .
Proposition IV.28 (Lemme d’Euclide). Un polynôme irréductible divise un produit si, et seulement si, il
divise l’un des facteurs.
Démonstration. On procède comme sur Z en constatant que, pour P, A ∈ K[X] avec P irréductible : P
divise A si, et seulement si, P est A ne sont pas premiers entre eux.
Proposition IV.29. Tout polynôme non constant de K[X] s’écrit comme produit de polynômes irréductibles.
Remarque IV.30. Dans la preuve apparaı̂t un résultat important : tout polynôme de degré 1 est irréductible,
et ce peu importe le corps K considéré.
Théorème IV.31. Si A ∈ K[X] non constant, alors il existe α ∈ K∗ , des polynômes irréductibles unitaires
deux-à-deux distincts P1 , . . . , Pr et des entiers strictement positifs m1 , . . . , mr tels que :
r
Y
A=α Pimi .
i=1
où α est le coefficient dominant de P , et les λk sont les racines distinctes de P , de multiplicité mk .
Démonstration.
1. Il est clair que les polynômes de degré 1 sont irréductibles (par la remarque précédente).
Réciproquement, si P est irréductible : il possède une racine λ ∈ C, donc est divisible par (X − λ),
donc il existe α ∈ C∗ tel que P = α(X − λ) et deg(P ) = 1.
2. Si P est non constant, il est bien de la forme donnée. Et par le point précédent il s’agit bien de
l’écriture en produit d’irréductibles.
où α est le coefficient dominant de P , et les λi sont les racines réelles distinctes de P , de multi-
plicité mi , et les µj , µj sont les racines complexes non réelles de P , de multiplicités nj .
Démonstration.
1. Il est à nouveau clair que les polynômes de degré 1 sont irréductibles. Pour les polynômes de degré
2, si un tel polynôme ne possède pas de racine réelle alors il n’est divisible par aucun polynôme de
degré 1, donc il est aussi irréductible.
Réciproquement, si P ∈ R[X] est un polynôme irréductible. Notons λ une racine complexe de P .
Alors :
— si λ ∈ R : alors P est divisible par (X − λ), donc est de la forme α(X − λ), donc de degré 1 ;
— si λ ∈ / R : alors λ est aussi racine de P , donc P est divisible (dans C[X] donc dans R[X])
par : (X − λ)(X − λ) = X 2 − 2Re(λ)X + |λ|2 . Comme P est irréductible, il est de la forme
α(X 2 − 2Re(λ)X + |λ|2 ), qui est bien un polynôme de degré 2 sans racine réelle.
2. Si P est non constant, il est bien de la forme donnée. Et par le point précédent il s’agit bien de
l’écriture en produit d’irréductibles.
Remarque IV.34. On a en fait un résultat légèrement plus fort que celui explicité ci-dessus pour les
polynômes de degré 2, à savoir qu’un polynôme de degré 2 ou 3 est irréductible si, et seulement si, il
n’a pas de racine (car s’il est non irréductible il a nécessairement un diviseur de degré 1).
En revanche, selon les corps considérés, il existe des polynômes irréductible de degré arbitrairement grand.
On peut voir par exemple que, pour p premier, le polynôme 1 + X + · · · + X p−1 est irréductible sur Q[X].
V. FRACTIONS RATIONNELLES 243
V Fractions rationnelles
V.1 Le corps K(X)
Proposition-Définition V.1. On définit sur K[X] × (K[X] \ {0}) la relation binaire ∼ définie par :
(P1 , Q1 ) ∼ (P2 , Q2 ) ⇔ P1 Q2 = P2 Q1 .
(p1 , q1 ) ∼ (p2 , q2 ) ⇔ p1 q2 = p2 q1
p1 p2
ce qui correspond bien au fait que : = ⇔ p1 q2 = p2 q1 .
q1 q2
P
Proposition-Définition V.4. Tout élément F ∈ K(X) s’écrit sous la forme F = avec P ∧ Q = 1. On
Q
P
dit alors que (P, Q) est un représentant irréductible de F , ou que est irréductible.
Q
A
Démonstration. Posons F = , et notons D = A ∧ B. Alors A = DP et B = DQ avec P ∧ Q = 1, et :
B
A P
F = = , puisque AQ = DP Q = P B.
B Q
A
Remarque V.5. Une telle écriture n’est pas unique : si est irréductible, tous les autres représentants
B
λA
irréductibles sont les , pour λ ∈ K∗ .
λB
Proposition-Définition V.6. On muni K(X) des opérations + et × définies par :
P1 P2 P1 Q2 + P2 Q1 P1 P2 P1 P2
+ = et × = .
Q1 Q2 Q1 Q2 Q1 Q2 Q1 Q2
244 CHAPITRE 17. POLYNÔMES
Muni de ces opérations, (K(X), +, ×) est un corps (commutatif ). Son élément neutre pour l’addition est
0 1
0 = = (0, 1) et celui pour la multiplication est 1 = = (1, 1).
1 1
A −A B
L’opposé de F = est , tandis que son inverse est (pour A ̸= 0).
B B A
Démonstration. Il n’est pas compliqué, mais un peu long, de vérifier que (K(X), +, ×) est un anneau.
Le reste est immédiat par définition des opérations.
Remarque V.7. Les opérations ci-dessus correspondent en fait à l’addition et la multiplication de K[X],
P
en confondant P ∈ K[X] avec ∈ K(X). Ce qui fait de K[X] un sous-anneau de K(X).
1
Plus précisément, on peut plonger K[X] dans K(X) par le morphisme d’anneau injectif suivant :
K[X] → K(X)
(
φ: P
P 7→
1
Remarque V.8. On pourrait généraliser cette construction à n’importe quel anneau A intègre : cela nous
fournit un corps, appelé corps des fractions de A, qui est le plus petit corps contenant A comme sous-
anneau.
A
Définition V.14. Si F = B est une fraction rationnelle irréductible, on lui associe la fonction ration-
A(x)
nelle, notée F , comme la fonction définie sur K privé des pôles de F , par : Fe : x 7→ B(x)
e .
Remarque V.15. L’intérêt de travailler avec une forme irréductible est que l’on définit Fe sur l’ensemble
le plus grand possible. Avec une écriture non irréductible, les pôles qui apparaı̂traient en plus serait des
pôles effaçables : on pourrait prolonger Fe en ces points par continuité, et le prolongement obtenu serait
même de classe C ∞ .
Proposition-Définition V.16. Si F ∈ K(X), il existe un unique couple (E, Q) ∈ K[X] × K(X) avec
deg(Q) < 0 et F = E + Q.
Le polynôme E est appelé la partie entière de F .
A
Démonstration. Pour l’existence, notons F = B . Alors, si A = BE + R est la division euclidienne de A
R
par B, le couple (E, B ) convient.
Pour l’unicité : si F = E1 +Q1 = E2 +Q2 , alors E1 −E2 = Q2 −Q1 . Et donc deg(E1 −E2 ) = deg(Q2 −Q1 ) ≤
max (deg(Q2 ), deg(Q1 )) < 0. Donc E1 −E2 = 0 (comme E1 , E2 ∈ K[X]), c’est-à-dire E1 = E2 . Et finalement
Q1 = Q2 .
A
Corollaire V.20 (Décomposition en éléments simples sur R(X)). Si F = ∈ R(X) est irréductible, avec
Qr Qs B
mk 2 nl
B = α k=1 (X − λk ) l=1 (X + bl X + cl ) comme produit d’irréductibles, alors il existe un unique poly-
nôme E ∈ R[X] et des réels α1,1 , . . . , α1,m1 , . . . , αr,1 , . . . , αr,mr , β1,1 , . . . , β1,n1 , . . . , βs,1 , . . . , βs,ns , γ1,1 , . . . , γ1,n1 , . . . ,
uniques tels que :
r X mi
! s X ni
!
X αi,j X βi,j X + γi,j
F =E+ j
+ 2 + b X + c )j
.
i=1 j=1
(X − λ i ) i=1 j=1
(X i i
246 CHAPITRE 17. POLYNÔMES
1 1 1
Exemple V.21. La décomposition en élément simples de est − .
X(X + 1) X X +1
Remarque V.22. On peut juste utiliser l’existence pour trouver les coefficients par identification, ou par
évaluation.
L’unicité permet en plus d’exploiter les symétries (comme la parité).
1
Exemple V.23. Décomposons la fraction rationnelle F (X) = . Les pôles sont 1 et −1, et on obtient
X2 − 1
une décomposition en éléments simples de la forme :
1 a b
F (X) = = +
X2 −1 X −1 X +1
mais la fraction F est paire ce qui donne :
a b −a −b
F (−X) = + = +
−X − 1 −X + 1 X +1 X −1
donc par unicité de la décomposition : a = −b (et b = −a).
Donc on est ramené à déterminer le coefficient associé à un pôle simple.
P
Proposition V.24. Si λ ∈ K est un pôle simple de F = Q ∈ K(X) (sous forme irréductible), alors l’élément
simple associé à X − λ dans la décomposition de F est :
P (λ) 1
′
· .
Q (λ) X − λ
Démonstration. Comme λ est un pôle simple de F , alors Q = (X − λ)Q1 , avec Q1 (λ) ̸= 0.
α
Si on regroupe tous les autres éléments simples de F en une seule fraction G, on peut écrire : F = +G.
X −λ
P
En multipliant par (X − λ), on déduit : = α + (X − λ)G. En évaluant en λ (qui a bien un sens, comme
Q1
P (λ)
λ n’est pas un pôle de G ou de QP1 ), on trouve : α = .
Q1 (λ)
Comme Q′ = [(X − λ)Q1 ]′ = (X − λ)Q′1 + Q1 , alors Q′ (λ) = Q1 (λ), et on a bien le résultat.
Proposition V.25. Si P ∈ K[X] est scindé, avec P = α rk=1 (X − λk )mk (décomposition en produit
Q
d’irréductibles), alors on a la décomposition en éléments simples :
r
P ′ X mk
= .
P k=1
X − λk
et donc : r
P ′ X mk
= .
P k=1
X − λk
P′
Remarque V.26. Implicitement on voit apparaı̂tre que n’a que des pôles simples. On a en fait, comme
P
tout racine de multiplicité m de P est racine de multiplicité m − 1 de P ′ , que les racines de P ∧ P ′ sont
P
exactement les racines de P , de multiplicités diminuées de 1. Ainsi, le polynôme a exactement les
P ∧ P′
mêmes racines que P , qui sont toutes simples.
V. FRACTIONS RATIONNELLES 247
Remarque V.27. Ce résultat se retrouve avec les fonctions rationnelles. P Avec les mêmes notations, pour
x ̸= λ1 , . . . , λr : P (x) ̸= 0 et donc ln (|P (x)|) est bien défini et vaut : rk=1 mk ln (|x − λk |).P
La fonction x 7→ ln (|P (x)|) est dérivable sur son ensemble de définition, de dérivée en x : rk=1 x−λ mk
k
.
′ P ′
Et on a bien la formule par dérivée d’une composée, comme ln (|P |) = P .
Remarque V.29. On peut ne traiter que des pôles de première espèce, quitte à travailler dans les complexes.
Il faudra alors bien prendre garde au fait que, pour a, b ∈ R :
Z x
1 1 2 2
x−a
dt = ln (x − a) + b + iArctan .
t − (a + ib) 2 b
248 CHAPITRE 17. POLYNÔMES
Chapitre 18
Dérivabilité
249
250 CHAPITRE 18. DÉRIVABILITÉ
Démonstration. Notons déjà qu’une telle fonction ε, si elle existe, est définie par :
I −a → R
ε: 0 si h = 0 c’est-à-dire x = a
h = (x − a) 7→ f (x)−f (a)
x−a
− l si h ̸= 0 c’est-à-dire x ̸= a
Remarque I.7. On préfèrera travailler avec h → 0 plutôt que x → a en général, et donc on écrira plutôt :
Corollaire I.8. Avec les mêmes notations, si f est dérivable en a, alors la tangente Ta (f ) à la courbe de f
en le point d’abscisse a a pour équation :
Démonstration. Si M0 (a, f (a)) et M (x, f (x)) pour x ∈ I, alors la droite (M0 M ) est la droite passant par
M0 de pente τa,f (x). En faisant tendre x vers a, la droite (M0 M ) tend bien vers la droite passant par M0
de pente f ′ (a).
1
Cf M0
−2 −1 0 1 2 3
−1 M
Ta (f )
−2
−3
Remarque I.9. Si lim τa,f (x) = ±∞, alors la courbe de f admet une tangente verticale au point d’abscisse
x→a
a.
I. NOMBRE DÉRIVÉ ET FONCTION DÉRIVÉE 251
√
Exemple I.10. Si f : x 7→ x, alors pour x > 0 :
√ √
x− 0 1
τ0,f (x) = = √ → +∞
x−0 x x→0
et on retrouve que la représentation graphique de f possède une tangente verticale en 0 (ce qu’on avait
déjà vu comme cas particulier des fonctions x 7→ xα pour α ∈]0; 1[).
Démonstration. Découle de la limite du taux d’accroissement et du résultat sur les limites à gauche et à
droite.
Remarque I.13. Comme les limites de taux d’accroissement considérées sont toujours privées de a, la
valeur en a du taux n’a pas de sens. En particulier, une fonction peut être dérivable à droite et dérivable
à gauche sans être dérivable.
Exemple I.14. Reprenons f : x 7→ |x| et regardons sa dérivabilité en 0. On a déjà vu que f n’est pas
dérivable en 0, mais on peut voir que :
|x| − 0
— si x > 0 : τ0,f (x) = = 1, donc f est dérivable à droite en 0 avec fd′ (0) = 1 ;
x−0
|x| − 0
— si x < 0 : τ0,f (x) = = −1, donc f est dérivable à gauche en 0 avec fg′ (0) = −1.
x−0
ce qui montre que f est dérivable à gauche et à droite en 0, sans y être dérivable comme fg′ (0) ̸= fd′ (0).
4
|x|
3
−5 −4 −3 −2 −1 0 1 2 3 4 5
252 CHAPITRE 18. DÉRIVABILITÉ
1 g ′ (a)
= − h + hε(h)
g(a) g(a)2
avec ε(h) → 0 par opérations sur les limites ;
h→0
4. le dernier cas découle de 3 et 4.
Remarque I.16. On peut aussi montrer tous les résultats précédents par des taux d’accroissements. Par
exemple, pour le produit :
f (a + h)g(a + h) − f (a)g(a) f (a + h) (g(a + h) − g(a)) + (f (a + h) − f (a))g(a)
=
h h
g(a + h) − g(a) f (a + h) − f (a)
= f (a + h) · + g(a)
′
h
′
h
→ f (a)g (a) + f (a)g(a)
h→0
On verra au prochain chapitre comment manipuler plus facilement encore les “fonctions ε”, ce qui légitimera
davantage leur utilisation.
I. NOMBRE DÉRIVÉ ET FONCTION DÉRIVÉE 253
Corollaire I.17. Pour I ⊂ R, l’ensemble D(I, R) est un sous-anneau de C(I, R), qui est stable par combi-
naison linéaire.
dont le premier facteur tend vers g ′ (f (a)) par limite d’une composée, et le second vers f ′ (a), ce qui donne
le résultat voulu.
Proposition I.19. Soit f : I → J bijective et continue. On pose a ∈ I tel que f est dérivable en a, et on
note b = f (a) ∈ J. Alors f −1 est dérivable en b si, et seulement si, f ′ (a) ̸= 0, et dans ce cas on a :
1 1
(f −1 )′ (b) = = .
f ′ (a) f ′ (f −1 (b))
Comme f est continue, alors f −1 aussi donc : lim f −1 (y) = f −1 (b) = a. Et donc par composition de
y→b
limites :
f (f −1 (y)) − f (f −1 (b))
lim −1 −1
= f ′ (f −1 (b)) = f ′ (a)
y→b f (y) − f (b)
puis en passant à l’inverse :
f −1 (y) − f −1 (b) 1 1
lim = ′ = ′ −1 .
y→b y−b f (a) f (f (b))
Remarque I.20. Et on retrouve au passage le fait que la tangente à la courbe de f en a est la symétrique
de la tangente à la courbe de f −1 en b.
Démonstration. Les inclusions viennent du fait qu’une fonction dérivable est continue. Le fait qu’elles
soient strictes vient du fait qu’il existe des fonctions dérivables de dérivée non continue, ou continue non
dérivable.
1 f
3. si g ne s’annule pas sur I, alors et sont de classe C n sur I ;
g g
4. si f : I → R et g : J → R sont composables, alors g ◦ f est de classe C n sur I ;
5. si f : I → J est bijective, et que f ′ ne s’annule pas sur I, alors f −1 est de classe C n sur J.
Remarques I.23.
1. Les énoncés restent valable en remplaçant “de classe C n ” par ”n-fois dérivable” ou “infiniment déri-
vable”.
2. On prendra bien garde aux hypothèses très faibles (non annulation de g et non annulation de f ′ ),
pour les points 3 et5.
Corollaire I.24. Pour I ⊂ R, les ensembles Dn (I, R), C n (I, R) et C ∞ (I, R) (pour n ∈ N) sont des sous-
anneaux de C(I, R), qui sont stable par combinaison linéaire.
Corollaire I.25. L’ensemble des fonctions polynomiales est un sous-anneau de C ∞ (R, R) stable par combi-
naisons linéaires.
Remarques II.2.
1. Pour éviter toute ambiguı̈té, on parlera de maximum ou de maximum global dans le premier cas.
2. On parlera plus généralement d’extremums (locaux ou globaux) dans les deux premiers cas.
3. Des extremums seront qualifiés de stricts si on considère précédemment des inégalités strictes pour
x ̸= a.
Proposition II.3. Si f admet un maximum (resp. minimum) strict, celui-ci est unique.
Démonstration. Supposons par l’absurde que f admette un maximum strict en a et b, avec a ̸= b. Alors
f (a) > f (b) et f (b) > f (a), d’où la contradiction.
Proposition II.4. Si f : I → R et a ∈ I tel que I est un voisinage de I et que f soit dérivable en a. Alors
on a les implications :
Remarque II.5. Le fait que a soit intérieur est indispensable pour pouvoir travailler avec les dérivées à
gauche et à droites. Le résultat devient faux sinon : par exemple, la restriction de la fonction x 7→ x à
[0; 1] admet un minimum en 0 et un maximum en 1, mais pas de point critique.
En revanche, il donne une information importante sur la localisation des extrema : si f est dérivable sur
[a, b] ne possède pas de point critique, alors ses extrema sont en a ou b (en fait a et b).
De même, il faut imposer la dérivabilité en a : par exemple, la fonction x 7→ |x| admet un minimum en 0,
qui n’est pas un point critique.
Remarque II.6. Les réciproques des implications précédentes sont fausses. Par exemple, la fonction x 7→ x3
admet un point critique en 0, mais n’y admet pas d’extremum (local ou global), puisque pour tout x > 0
on a x3 > 0 = 03 et pour tout x < 0 on a x3 < 0.
256 CHAPITRE 18. DÉRIVABILITÉ
1 x3
−3 −2 −1 0 1 2 3
−1
−2
−3
En revanche, ce résultat est utile pour sa contraposée : il permet de chercher les extremums d’une fonction
en regardant ses points critiques puis en les étudiant de manière plus poussée.
4 Cf
−3 −2 −1 c1 0 1 2 c2 3 4
−1
Démonstration. Comme f est continue sur le segment [a, b], alors elle y est bornée et atteint ses bornes :
— si f est constante : alors f ′ = 0 sur ]a, b[, donc tout élément de ]a, b[ convient ;
— si f n’est pas constante : alors soit son minimum soit son maximum n’est pas atteint en a et b. Il
est donc atteint en x ∈]a, b[, qui est un extremum, donc un point critique.
Remarque II.8. Comme le TVI, le résultat est faux si l’on travaille sur C au lieu de R. On peut reprendre
7 eit sur [0; 2π] : elle est dérivable, avec f (0) = 1 = f (2π),
le même contre-exemple, avec la fonction f : t →
′ it
mais f : t 7→ ie ne s’annule jamais.
Corollaire II.9. Si P ∈ R[X] de degré n ≥ 2 est scindé simple, alors P ′ aussi. De plus, si on note
a1 < · · · < an les racines de P et b1 < · · · < bn−1 celles de P ′ , alors :
Démonstration. On applique le théorème de Rolle à P sur chaque intervalle de la forme [ai ; ai+1 ] ce qui
assure l’existence d’une racine bi ∈]ai ; ai+1 [ pour P ′ .
◦
Corollaire II.10. Si f est continue sur un intervalle I et dérivable sur I, telle que f ′ ne s’annule pas, alors
f réalise une bijection continue strictement monotone de I sur f (I).
Démonstration. Par propriété des fonctions continues, il suffit de voir que f est injective. Par l’absurde,
◦
si x, y ∈ I vérifient f (x) = f (y) et x < y, alors par théorème de Rolle il existe c ∈]x, y[⊂ I tel que
f ′ (c) = f (y)−f
y−x
(x)
= 0, d’où la contradiction.
Donc f est injective, donc bijective sur f (I), et sa continuité entraı̂ne sa stricte monotonie.
Théorème II.11 (Égalité des accroissements finis). Si f : [a, b] → R continue sur [a, b] et dérivable sur
]a, b[, alors il existe c ∈]a, b[ tel que :
f (b) − f (a)
f ′ (c) = .
b−a
258 CHAPITRE 18. DÉRIVABILITÉ
4 Cf (b, f (b))
1
(a, f (a))
−3 −2 −1 c1 0 1 2 c2 3 4
−1
f (b) − f (a)
g(x) = f (x) − (x − a) − f (a)
b−a
Démonstration. Soient x, y ∈ I. Le cas x = y est clair (car les deux membres de l’inégalité à prouver son
nuls). Supposons donc x ̸= y. Quitte à échanger x et y, on peut supposer que x < y, et ainsi [x, y] ⊂ I.
II. PROPRIÉTÉS GÉNÉRALES DES FONCTIONS DÉRIVABLES 259
— si f est à valeurs dans R : alors par égalité des accroissements finis, il existe c ∈]x, y[ tel que :
f ′ (c)(y − x) = f (y) − f (x). Comme |f ′ (c)| ≤ M , alors en prenant la valeur absolue on déduit que :
|f (y) − f (x)| ≤ M |y − x|
— si f (y) − f (x) ∈ / R : on pose θ ∈ R tel que eiθ (f (y) − f (x)) ∈ R. Et on applique le résultat
précédent à g : t 7→ eiθ f (t), puisque la fonction g est dérivable sur I, avec pour tout t ∈ I :
|g ′ (t)| = |eiθ | · |f ′ (t)| = |f ′ (t)| ≤ M , et g(y) − g(x) ∈ R. On a donc :
|g(y) − g(x)| ≤ M |y − x|
et le résultat découle du fait que |g(y) − g(x)| = |eiθ (f (y) − f (x)) | = |f (y) − f (x)|.
Démonstration. Si f est C 1 , alors |f ′ | est continue sur le segment [a, b] donc est majorée sur [a, b] par un
réel M , qui vérifie les hypothèses du théorème précédent.
Remarque II.15. En fait, on peut même démontrer plus rapidement le cas C 1 , car on a alors :
Z y
∀x, y ∈ [a, b], f (y) − f (x) = f ′ (t)dt
x
où le ± devant les intégrales permet de prendre en compte que x < y ou y < x.
Exemple II.16. Avec la fonction sin, on a |sin′ | = |cos| ≤ 1 sur R. Et donc pour tous x, y ∈ R : |sin(x) −
sin(y)| ≤ |x − y|.
Avec y = 0, on retrouve l’inégalité classique : ∀x ∈ R, |sin(x)| ≤ |x|.
Définition II.17 (Fonctions Lipschitzienne). Si I ⊂ R et k ∈ R+ , une fonction f : I → C est dite
k-lipschitzienne si :
∀x, y ∈ I, |f (y) − f (x)| ≤ k · |y − x|.
Plus généralement, on dira que f est lipschitzienne s’il existe k ≥ 0 tel que f est k-lipschitzienne.
Remarque II.18. Une fonction k-lipschitzienne se voit graphiquement : tous les taux d’accroissements sont
entre −k et k. Et donc si on se place au point A(a, f (a)), le cône délimité par les deux droites passant par
A de pente ±k contient tous les points du graphe de f .
260 CHAPITRE 18. DÉRIVABILITÉ
2
A Cf
1
−3 −2 −1 0 1 2 3 4 5 6 7 8 9 10
−1
−2
−3
|x − a| ≤ η ⇒ |f (x) − f (a)| ≤ k · η = ε
ce qui assure bien la continuité de f en a ∈ I. Comme ceci est valable pour tout a ∈ I, on déduit que f
est continue sur I.
Remarque II.20. La réciproque est fausse. On peut par exemple considérer :
— la fonction f : x 7→ x2√sur R : pour tout k ∈ R+ , on a f (k + 1) − f (0) = (k + 1)2 > k · |(k + 1 − 0) ;
— √la fonction f : x 7→ x √ sur [0; 1] : si elle était k-lipschitzienne, on aurait pour tout x ∈]0; 1] :
1
x ≤ kx, et donc 1 ≤ k x, ce qui devient faut en prenant x = 1/2 (si k ≤ 1) ou x = k4 (si k > 1).
Proposition II.21. Si f est dérivable sur un intervalle I, et que |f ′ | est majorée par M , alors f est M -
lipschitzienne.
En particulier, si f est C 1 sur le segment [a, b], alors f est k-lipschitzienne avec k = max |f ′ (x)|.
x∈[a,b]
Démonstration. Si f est constante, alors sa dérivée est nulle (car tous ses taux d’accroissement, donc leurs
limites, sont nuls).
Réciproquement, si f ′ est nulle, alors par inégalité des accroissements finis, comme |f ′ | = 0 ≤ 0, on a :
∀x ∈ I, |f (x) − f (y)| ≤ 0 · |x − y| = 0
Remarques II.29.
1. La réciproque est fausse : par exemple, la fonction x 7→ x + sin(x) est dérivable sur R avec f ′ : x 7→
1 − cos(x), qui est bien positive ou nulle, et s’annule en tous les éléments de 2πZ.
Mais elle est strictement croissante car, sur chaque segment, f ′ n’a qu’un nombre fini de points
d’annulations, donc on peut appliquer le théorème précédent.
◦
2. On a en fait l’équivalence qu’une fonction f continue sur un intervalle I et dérivable sur I est
strictement croissante si, et seulement si :
( ◦
f ′ > 0 sur I
◦ .
{x ∈ I | f ′ (x) = 0} ne contient pas d’intervalle non trivial
f (x) − f (a)
Alors : lim+ = l.
x→a x−a
Sous ces conditions, la fonction f est dérivable en a si, et seulement si, l ∈ R et dans ce cas f ′ (a) = l et
f ′ est continue en a.
Démonstration. Soit x ∈]a, b]. Par théorème des accroissements finis, comme f est dérivable sur ]a, x[, il
f (x) − f (a)
existe cx (qui dépend de x) tel que : f ′ (cx ) = .
x−a
Par théorème d’encadrement, comme cx ∈]a, x[, on a : lim+ cx = a. Et donc par composition :
x→a
f (x) − f (a)
lim+ = lim+ f ′ (cx ) = l
x→a x−a x→a
Corollaire II.31. Si f est continue sur I et dérivable sur I \ {a} telle que lim f ′ (x) = l ∈ R, alors f
x→a
x ̸= a
est dérivable en a avec f ′ (a) = l.
1
donc φ est dérivable en 0, avec φ′ (0) = .
2
II. PROPRIÉTÉS GÉNÉRALES DES FONCTIONS DÉRIVABLES 263
2
Cφ
0 1 2 3 4
φ(x) − φ(1) 1
On peut en déduire que : tend vers en 0, c’est-à-dire que :
x 2
√
x
√
e −1− x 1
lim+ =
x→0 x 2
√
et en faisant le changement de variable X = x on déduit que :
ex − 1 − x 1
lim+ 2
= .
x→0 x 2
Corollaire II.33 (Théorème de prolongement C 1 ). Si f est de classe C 1 sur I \{a} telle que f et f ′ possèdent
des limites finies en a, alors le prolongement par continuité de f en a définit une fonction de classe C 1 sur
I.
Démonstration. Découle directement du résultat précédent en constatant que le prolongement par conti-
nuité a bien un sens et fournit une fonction continue sur I et dérivable sur I \ {a}.
La dérivabilité et le caractère C 1 en a sont assurés par le résultat précédent.
Corollaire II.34 (Théorème de prolongement C k ). Si k ∈ N∗ et f de classe C k sur I \ {a} telles que les
quantités lim f (i) (x) existent et sont finies pour tout i ∈ J0; kK. Alors le prolongement par continuité de f
x→a
en a définit une fonction de classe C k sur I.
III Convexité
Définition III.1. Si I est un intervalle, la fonction f : I → R est dite convexe sur I si :
Remarque III.2. Notons que l’inégalité précédente a bien un sens. Comme I est un intervalle, alors I est
un convexe de R, donc pour tout a, b ∈ I et tout t ∈ [0, 1] on a bien que ta + (1 − t)b ∈ I.
Remarque III.3. Cela veut dire que toutes les cordes de f sont au-dessus de sa courbe
3 Cf
t · f (a) + (1 − t) · f (b)
2
f (a) f (b)
1 f (t · a + (1 − t) · b)
a b
−1 0 1 2 3 4 5 6 7 8
Proposition III.4. Si f est définie sur un intervalle I, alors f est convexe si, et seulement si, pour tout
a ∈ I, la fonction :
I \ {a} → R
τa : f (x) − f (a)
x 7→
x−a
est croissante.
Démonstration. Supposons que f est convexe. Fixons a ∈ I et posons x, y ∈ I \ {a} tels que x < y :
— si x < y < a : on écrit y = tx + (1 − t)a avec t ∈]0; 1[. On a ainsi : y − a = t(x − a). Et donc :
— si x < a < y : on écrit de même a = tx + (1 − t)y pour t ∈]0; 1[, et ainsi t(a − x) = (1 − t)(y − a).
Et donc :
— si a < x < y : on écrit de même x = at + (1 − t)y pour t ∈]0; 1[, et ainsi x − a = (1 − t)(y − a). Et
donc :
Corollaire III.5. Une fonction f définie sur l’intervalle I est convexe si, et seulement si, elle vérifie l’une
des trois assertions suivantes :
Remarque III.6. Ce résultat se comprend bien en terme de pentes. En combinant les trois inégalités
précédentes, il vient que les pentes croissent de la manière suivante :
7 Cf
6 (z, f (z))
3
(y, f (y))
2
1
(x, f (x))
−3 −2 −1 0 1 2 3 4 5 6 7
−1
Corollaire III.7 (Convexité des fonctions dérivables). Une fonction f dérivable sur un intervalle I est
convexe si, et seulement si, sa dérivée est croissante.
En particulier, une fonction deux fois dérivable est convexe si, et seulement si, sa dérivée seconde est
positive ou nulle.
Exemple III.9. La fonction exp est convexe sur R, comme exp′′ = exp ≥ 0.
Tout polynôme du second degré est convexe ou concave, selon le signe de son coefficient dominant. En
effet, si P = ax2 + bx + c est un tel polynôme, alors P ′′ = 2a est du signe de a.
III. CONVEXITÉ 267
Démonstration. Avec les notations précédentes, une fonction f est convexe si, et seulement si, toutes les
fonctions τa sont croissantes.
Si f est dérivable, alors :
— τa est prolongeable par continuité en a ;
— τa est dérivable sur I \ {a}.
En particulier, elle elle croissante si, et seulement si, elle a une dérivée positive ou nulle. Mais si f est
dérivable sur I, alors τa est dérivable sur I \ {a} avec :
et ainsi f est convexe si, et seulement si, pour tous x, a ∈ I tels que x ̸= a :
Remarque III.11. On a en fait un résultat plus fort : en reprenant les monotonies des taux d’accroisse-
ments, on voit qu’une fonction convexe admet des dérivées à gauche et à droite en tout point intérieur à
son ensemble de définition, et que le graphe d’une fonction convexe (même non dérivable) est au-dessus
de ses demi-tangentes (qui sont alors bien définies.
Exemple III.12. La convexité de exp et la concavité de ln, en prenant leurs tangentes respectives en 0 et
en 1, redonnent les inégalités classiques :
exp(x) ≥ 1 + x et ln(1 + x) ≤ x
1
exp
−3 −1 0
−2 1 2 3 4
−1
y =x+1
−2 ln
y =x−1
−3
268 CHAPITRE 18. DÉRIVABILITÉ
Si n = 2 : c’est le fait que I est un intervalle (donc convexe) et la définition de la convexité de f avec
λ1 = t, λ2 = 1 − t.
Supposons le résultat acquis au rang n − 1 pour n ≥ 3. Si λ1 = · · · = λn−1 = 0, alors nécessairement
λn = 1, donc on cherche à montrer que :
xn ∈ I et f (xn ) ≤ f (xn )
Et par convexité de f :
n
!
X
f λi xi = f (tx + (1 − t)xn ) ≤ tf (x) + (1 − t)f (xn )
i=1
Pn−1 λi
et par hypothèse de récurrence on a : f (x) ≤ i=1 t
f (xi ). Donc finalement :
n
! n
X X
f λi xi ≤ λi f (xi ).
i=1 i=1
Exemple III.14. On peut appliquer l’inégalité de Jensen pour comparer des moyennes.
Pour n ∈ N∗ et x1 , . . . , xn ∈ R∗+ , on définit leurs moyennes :
x1 + · · · + xn
— arithmétique (appelée plus simplement “moyenne”) : Ma = ;
n
n
— harmonique : Mh = 1 (l’inverse de la moyenne harmonique est la moyenne des in-
x1
+ · · · + x1n
verses) ;
√
— géométrique : Mg = n x1 . . . xn (le logarithme de la moyenne géométrique est la moyenne des
logarithmes) ; r
x21 + · · · + x2n
— quadratique : Mq = (le carré de la moyenne quadratique est la moyenne des carrés).
n
III. CONVEXITÉ 269
x2
ln(x)
1
x
270 CHAPITRE 18. DÉRIVABILITÉ
Chapitre 19
Analyse asymptotique
I Relations de comparaisons
I.1 Négligeabilité, domination et équivalence
Définition I.1. Soient f et g deux fonctions définies sur I. On dit que :
1. f est négligeable devant g au voisinage de a, ce que l’on note f (x) = o(g(x)), s’il existe
x→a
une fonction ε définie sur un voisinage Va de a, qui tend vers 0 en a, telle que : pour tout x ∈
I ∩ Va , f (x) = ε(x)g(x) ;
2. f est dominée par g au voisinage de a, ce que l’on note f (x) = O(g(x)), s’il existe une
x→a
fonction M définie sur un voisinage Va de a, bornée, telle que : pour tout x ∈ I ∩ Va , f (x) =
M (x)g(x).
Remarque I.2. Pour la domination, cela revient à imposer l’existence de M ∈ R+ tel que, sur un voisinage
de a : |f (x)| ≤ M · |g(x)|.
Exemples I.3.
1. si a = +∞, on a vu que x = o(ex ) et que ln(x) = o(x).
x→+∞ x→+∞
2. si f et g sont deux fonctions continues en a ∈ R, avec g qui ne s’annule pas, alors : f (x) = o(g(x))
x→a
si, et seulement si, f (a) = 0 ; et peu importe la valeur de f on a toujours f (x) = O(g(x))
x→a
Remarques I.4.
1. Quant il n’y aura pas d’ambiguı̈té sur la valeur de a, on pourra écrire plus simplement f (x) = o(g(x))
(ou O). On prendra bien garde à cette notation comme la relation entre deux fonctions dépend du
point en lequel on les compare. Par exemple :
2. Comme une fonction ayant une limite finie est bornée, la notion de o est plus forte que celle de O
dans le sens où :
f (x) = o(g(x)) ⇒ f (x) = O(g(x)).
x→a x→a
Proposition I.5. Si f, g sont définies sur I et que g ne s’annule pas sur I \ {a}, alors :
f (x)
1. f (x) = o(g(x)) ⇔ lim = 0;
x→a x→a g(x)
271
272 CHAPITRE 19. ANALYSE ASYMPTOTIQUE
f (x)
2. f (x) = O(g(x)) ⇔ est bornée sur un voisinage de a.
x→a g(x)
Démonstration. Pour un tel g, les fonctions ε ou M de la définition coı̈ncident avec la fonction fg .
Corollaire I.6 (Comparaison à des fonctions constantes). On note 1 la fonction constante de valeur 1
définie sur I. Pour f définie sur I, on a :
1. f (x) = o(1) si, et seulement si, lim f (x) = 0 ;
x→a x→a
2. f (x) = O(1) si, et seulement si, f est bornée sur un voisinage de a.
x→a
Définition I.7. Si f et g sont deux fonctions définies sur I, on dit que f est équivalente à g au
voisinage de a, ce que l’on note f (x) ∼ g(x), si f (x) = g(x) + o(g(x)).
x→a x→a
Remarque I.8. On peut aussi dire que f (x) − g(x) = o(g(x)), ce qui revient au même.
x→a
Proposition I.9. Si f, g sont définies sur I et que g ne s’annule pas sur I \ {a}, alors :
f (x)
f (x) ∼ g(x) ⇔ lim = 1.
x→a x→a g(x)
Démonstration. Découle du résultat sur les “o”.
sin(x)
Exemple I.10. On a : sin(x) ∼ x, comme on avait vu que : lim = 1.
x→0 x→0 x
De même, on a : (ex − 1) ∼ x par limite classique.
x→0
Remarque I.11. Cette caractérisation, comme celle sur les o et O, est beaucoup plus pratique pour com-
prendre les relations entre deux fonctions. D’autant plus que le fait d’imposer que g ne s’annule pas ne
réduit que très peu le cadre d’utilisation.
En revanche, l’utilisation des o et des O, comme on le verra après, se comporte très bien avec les calculs,
ce qui n’est pas toujours le cas des équivalents, qui ne sont pas aussi précis.
Proposition I.12. Si f, g sont définies sur I, et λ ∈ R, alors :
f (x) = o(g(x)) ou f (x) ∼ λg(x) ⇒ f (x) = O(g(x)).
x→a x→a x→a
Démonstration. Dans l’une ou l’autre des situations, on écrit f (x) = h(x)g(x) avec h(x) qui a une limite
finie, donc h est bornée au voisinage de a.
Remarque I.13. La réciproque est fausse : il existe des fonctions dominées qui ne sont ni négligeables ni
des équivalents. Mais l’idée est que ces deux cas extrêmes couvrent déjà beaucoup de situations, ce qui fait
qu’on ne travaillera pas beaucoup avec des O.
Proposition I.14. Si l ∈ R∗ , et f une fonction définie sur I, alors f (x) ∼ l si, et seulement si, lim f (x) =
x→a x→a
l.
Démonstration. Comme l ̸= 0, on peut utiliser la caractérisation de l’équivalence par quotient, et on a :
f (x)
f (x) ∼ l ⇔ → 1 ⇔ f (x) → l
x→a l x→a x→a
Proposition I.15. La relation ∼ est une relation d’équivalence sur l’ensemble des fonctions définies sur
x→a
I.
I. RELATIONS DE COMPARAISONS 273
Remarque I.16. On voit au passage que c’est plus (1 + ε) qui compte pour les équivalents, et donc on
utilisera parfois la définition équivalente que f et g sont équivalentes s’il existe une fonction θ définie sur
un voisinage Va de a, qui tend vers 1 en a, telle que : pour tout x ∈ I ∩ Va , f (x) = θ(x)g(x).
Proposition I.17. Si f (x) ∼ g(x), alors sur un voisinage de a les fonctions f et g ont le même signe.
x→a
Démonstration. On écrit f (x) = θ(x)g(x), pour θ tendant vers 1 au voisinage de a. Alors par définition
de la limite, pour un voisinage Va de a, on a : θ(x) ∈ [ 12 ; 23 ]. Et donc θ(x) > 0 dans un voisinage de a, ce
qui donne bien le résultat.
Démonstration. On écrit au voisinage de a : f (x) = M (x)g(x) et g(x) = ε(x)h(x), de sorte que f (x) =
M (x)ε(x) h(x), où ε′ (x) tend vers 0 par encadrement.
| {z }
=ε′ (x)
Remarque I.19. Comme un o est aussi un O, alors le résultat est vrai avec un o.
Proposition I.20. Si f (x) ∼ g(x), alors f a une limite en a si, et seulement si, g en a une, et dans ce
x→a
cas les limites sont égales.
Démonstration. Comme ∼ est une relation d’équivalence, il suffit de montrer une implication.
Si g possède une limite, comme f = θ · g, avec θ qui tend vers 1, alors par opération sur les limites f a
même limite que g.
Proposition I.21. Si f, g, h sont définies sur I avec f ≤ g ≤ h et f (x) ∼ h(x), alors g(x) ∼ f (x).
x→a x→a
0≤g−f ≤h−f
et donc par encadrement : g(x) − f (x) = O(h(x) − f (x)) = o(f (x)). Ce qui donne la relation d’équiva-
x→a x→a
lence.
274 CHAPITRE 19. ANALYSE ASYMPTOTIQUE
Proposition I.23 (Opérations sur les o et les O). Soient f, g, h des fonctions définies sur I. Alors :
1. si λ ∈ R∗ et f (x) = o(g(x)), alors f (x) = o(λg(x)) et λf (x) = o(g(x)) ;
x→a x→a x→a
4. si f1 (x) = o(g1 (x)) et f2 (x) = o(g2 (x)), alors f1 (x)f2 (x) = o(g1 (x)g2 (x)) ;
x→a x→a x→a
∗ n n
5. si n ∈ N et f (x) = o(g(x)), alors f (x) = o(g(x) ) ;
x→a x→a
Démonstration.
ε
1. On pose ε qui tend vers 0 en a telle que f (x) = ε(x)g(x) sur Va . Alors, selon le cas considéré, λ
ou
λε convient, ce qui montre le résultat.
2. On pose ε1 , ε2 qui tendent vers 0 en a telles que f (x) = ε1 (x)h(x) sur Va et g(x) = ε2 (x)h(x) sur
Wa . Alors, sur Va ∩ Wa on a : (f (x) + g(x)) = (ε1 (x) + ε2 (x))h(x), avec ε1 + ε2 qui tend bien vers 0
en a (par limite d’une somme).
3. En notant ε1 , ε2 qui tendent vers 0 en a telles que f (x) = ε1 (x)g(x) sur Va et g(x) = ε2 (x)h(x) sur
Wa . Alors, sur Va ∩ Wa on a : f (x) = (ε1 (x) · ε2 (x))h(x), avec ε1 · ε2 qui tend bien vers 0 en a (par
limite d’un produit).
Et les autres points se montrent pareil. Notons qu’on peut simplifier nettement les démonstrations
dans le cas où les fonctions ne s’annulent pas, car il suffit de calculer des limites de quotients.
Remarque I.24. Tous les résultats ci-dessus restent valables en changeant les o en des O. Mais en pratique
on utilisera surtout des o (qui sont plus précis, même s’ils conduisent parfois à des calculs un peu plus
lourds).
Dans cette optique d’alléger les calculs, on essaiera le plus possible de regrouper les termes dans les o :
aussi bien les différents o qui interviennent, que certains termes qui seraient en dehors.
Remarque I.26. On prend bien garde à sommer les o et pas dans les o. Par exemple, on a ln(x) = o(x)
x→+∞
et ln(x) = o(−x). Mais 2ln(x) ̸= o(x − x) = o(0).
x→+∞ x→+∞ x→+∞
De fait, pour sommer des o différents, il faudra d’abord les exprimer comme des o d’une même quantité.
I. RELATIONS DE COMPARAISONS 275
1 1
Exemple I.27. On considère f, g deux fonctions définies sur R telles que f (x) = 4+ +o et
x→+∞ x x2
g(x) = 3x + 2 + o(1). Alors :
x→+∞
1 1
f (x)g(x) = 4+ +o · (3x + 2 + o(1))
x→+∞ x x
2 1
= 12x + 11 + + o(1) + o
x→+∞ x x
| {z }
=o(1)
qui ne peut pas être davantage simplifiée comme expression, comme ni 12x ni 11 ne tendent vers 0 en +∞
(donc ne sont des o(1)).
Proposition I.28 (Opérations sur les équivalents). Soient f, g, h des fonctions définies sur I. Alors :
1. si f1 (x) ∼ g1 (x) et f2 (x) ∼ g2 (x), alors f1 (x)f2 (x) ∼ g1 (x)g2 (x) ;
x→a x→a x→a
∗ n n
2. si n ∈ N et f (x) ∼ g(x), alors f (x) ∼ g(x) ;
x→a x→a
3. si f (x) ∼ g(x), alors f (x)h(x) ∼ g(x)h(x) ;
x→a x→a
1 1
4. si f ou g ne s’annule pas, alors f (x) ∼ g(x) ⇔ ∼ ;
x→a f (x) x→a g(x)
5. si f ou g est positive, et f (x) ∼ g(x), alors pour tout α ∈ R : f (x)α ∼ g(x)α .
x→a x→a
Démonstration. Comme pour les o. Notons juste que le dernier résultat n’apparaissait pas pour les o, parce
qu’il est faux en général. Pour les équivalents, il vient du fait que :
α
f (x)α
f (x)
=
g(x)α g(x)
α
f (x) f (x)
et donc, par continuité de x 7→ x pour tout α ∈ R, si g(x) , tend vers 1, alors g(x) tend vers 1α = 1.
α
Remarque I.29. On ne somme jamais des équivalents : pour avoir un équivalent d’une somme, on est
obligé de repasser par les o.
Par exemple : x + 1 ∼ x et −x + 1 ∼ −x, mais x + 1 − x + 1 = 2 ̸∼ 0 = x − x.
x→+∞ x→+∞ x→+∞
Proposition I.30. Si f, g, h sont définie sur I avec f = o(g(x)) et g(x) ∼ h(x), alors f = o(h(x)).
x→a x→a x→a
Démonstration. On écrit f (x) = ε(x)g(x) et g(x) = θ(x)h(x) avec ε qui tend vers 0 en a et θ qui tend vers
1.
Alors f (x) = (ε(x)θ(x)) h(x), avec ε′ (x) qui tend vers 0.
| {z }
=ε′ (x)
D’où le résultat.
Proposition I.31 (Composition à droite). On considère φ : J → I et b ∈ J tel que lim φ(x) = a. Alors
x→b
pour f, g définies sur I :
1. si f (x) = o(g(x)), alors (f ◦ φ) (x) = o ((g ◦ φ) (x)) ;
x→a x→b
2. si f (x) ∼ g(x), alors (f ◦ φ) (x) ∼ (g ◦ φ) (x).
x→a x→b
Démonstration. Par composition des limites. Les fonctions ε et θ que l’on utilise dans les hypothèses se
substituent aux fonctions ε ◦ φ et θ ◦ φ qui donnent les résultats.
276 CHAPITRE 19. ANALYSE ASYMPTOTIQUE
Remarques I.32.
1. Dans le premier résultat, on peut remplacer les o par des O.
2. Un cas très utile est lorsque φ est une translation : on peut ainsi ramener l’étude locale d’une
fonction f au voisinage de a ̸= 0 en étudiant en 0 la fonction x 7→ f (x + a).
3. Les compositions à gauche se comportent moins bien en général. On ne donnera que quelques cas
particuliers.
Exemple I.33. On a vu que sin(x) ∼ x. Comme lim x · ln(x) = 0, alors on déduit que :
x→0 x→0
2. si f (x) ∼ g(x), avec f (ou g) positive, tendant vers l ∈ R \ {1} en a, alors :ln(f (x)) ∼ ln(g(x)).
x→a x→a
Démonstration.
1. Par équivalences, on a, comme l’exponentielle ne s’annule jamais :
ef (x)
ef (x) ∼ eg(x) ⇔ → 1
x→a eg(x) x→a
⇔ ef (x)−g(x) → 1
x→a
⇔ f (x) − g(x) → 0
x→a
Remarques I.35.
I. RELATIONS DE COMPARAISONS 277
3. si α, β ∈ R∗+ : (ln(x))α = o xβ ;
x→+∞
∗ α
4. si α, β ∈ R+ : x = o eβx .
x→+∞
Démonstration. Découle des limites classiques et des croissances comparées. Dans chaque cas, comme les
fonctions ne s’annulent pas, on peut étudier la limite du quotient.
Théorème I.38 (Croissances comparées en 0). On a les relations de comparaisons suivantes :
1. si α, β ∈ R, alors : α > β ⇔ xα = o xβ ;
x→0
2. si α > 0 et β ∈ R : x = o |ln(x)|β .
α
x→0
Démonstration. Idem.
Corollaire I.39. Une fonction polynomiale non nulle est équivalente à son monôme de plus haut degré en
±∞ et à son monôme de plus petit degré en 0. Concrètement, si f : x 7→ an xn + an−1 xn−1 + · · · + am xm ,
avec m ≤ n et an , am ̸= 0, alors :
f (x) ∼ an xn et f (x) ∼ am xm .
x→±∞ x→0
cos(x) = 1 + o(x).
x→0
Exemple I.45. Déterminons un équivalent de cos(x)−1 en 0. Pour cela, on utilise que cos(x) = 1−2sin2 x
2
.
Et par le fait que sin(x) = x + o(x), on déduit que :
x→0
x 2
cos(x) = 1 − 2 + o(x)
x→0 2
Mais on a :
x 2 x 2 x 2 x2 x2
+ o(x) = · (1 + o(1)) = · (1 + o(1))2 = · (1 + o(1)) = + o(x2 )
2 2 2 4 4
I. RELATIONS DE COMPARAISONS 279
Remarque II.2. Un développement limité d’ordre n est une approximation de f par un polynôme P de
Rn [X] de la forme f (x) = P (x − a) + o ((x − a)n ).
x→a
Remarque II.3. En pratique, on essaiera de se ramener à des dl en 0. Comme les o se comportent bien
avec les compositions, cela revient à considérer l’application x 7→ f (a + x) en 0 au lieu de l’application f
en a.
Exemple II.4. Si x ̸= 1, par somme géométrique, on trouve que :
1 − xn+1
1 + x + · · · + xn =
1−x
et donc :
1 n xn+1
= 1 + x + ··· + x +
1−x 1−x
Mais on a aussi que :
xn+1 xn+1
∼ = xn+1 = o(xn ).
1−x x→0 1 x→0
1
Et ainsi : admet le dl n en 0 suivant :
1−x
1
= 1 + x + · · · + xn + o(xn ).
1 − x x→0
Proposition II.5 (Troncature). Si n, m ∈ N avec m ≤ n, et que f possède un dl n au voisinage de a, alors
f possède un dl m au voisinage de a dont les coefficients coı̈ncident.
Concrètement, si on a :
f (x) = c0 + c1 (x − a) + · · · + cn (x − a)n + o ((x − a)n )
x→a
alors le dl m de f est :
f (x) = c0 + c1 (x − a) + · · · + cm (x − a)m + o ((x − a)m ) .
x→a
Démonstration. Il suffit de voir que, pour k > m : (x − a)k = o ((x − a)m ) et ainsi que :
x→a
Proposition II.6. Un développement limité est unique, dans le sens où, si n ∈ N et que :
f (x) = c0 + c1 (x − a) + · · · + cn (x − a)n + o ((x − a)n ) = b0 + b1 (x − a) + · · · + bn (x − a)n + o ((x − a)n )
x→a x→a
Démonstration. Supposons par l’absurde que les deux dl soient différents. Notons k le plus petit entier de
J0; nK tel que bk ̸= ck . Il vient alors, en tronquant les dl de f à l’ordre k que :
Proposition II.8. Si f est définie sur I est possède le développement limité en a suivant :
f (x) ∼ ck (x − a)k .
x→a
Remarque II.9. L’idée derrière est que l’on peut très rapidement avoir des équivalents (donc des limites)
à condition de pousser les développements limités suffisamment loin : c’est-à-dire jusqu’à avoir un terme
non nul dans la partie régulière.
x x2
e = 1+x+ + o(x2 ).
x→0 2
√
x
√
Et ainsi on peut retrouver que la fonction φ définie sur R+ par φ(x) = e − x est dérivable en 0 car
pour x > 0 on a :
√
x
√ √ √
x
2 √ x
φ(x) − φ(0) e − x−1 1+ x+ 2
+ o(x) − 1 − x 2
+ o(x) 1 1
= = = = + o(1) →
x x x→0 x x→0 x x→0 2 x→0 2
1
ce qui donne bien la dérivabilité en 0, avec φ′ (0) = .
2
φ(x) − φ(0)
En prenant le dl 1 de exp, on aurait seulement obtenu que = o √1x , ce qui ne montrerait
x
même pas la dérivabilité.
Démonstration.
1. f admet un dl 0 si, et seulement si, f admet une limite en a, ce qui revient bien à la continuité
comme a ∈ I ;
2. déjà montré au chapitre précédent.
Remarque II.13. Le résultat n’est plus vrai aux ordres supérieurs : il existe notamment des fonctions qui
admettent un dl 2 en 0 sans être deux fois dérivable en 0.
Par exemple, considérons la fonction :
R → R
x sin x1
3
f: si x ̸= 0
x 7→
0 si x = 0
qui tend vers 0 en 0 (par encadrement), donc par théorème de prolongement des fonctions dérivables on
déduit que f est dérivable en 0 avec f ′ (0) = 0.
Pour la dérivée seconde en 0, on utilise le taux d’accroissement de f ′ : pour x ̸= 0, on a :
f ′ (x) − f ′ (0)
1 1
= 3x · sin − cos
x−0 x x
qui n’admet pas de limite quand x tend vers 0, donc f n’est pas deux fois dérivable en 0.
En revanche, comme x3 = o(x2 ), on déduit par encadrement que f (x) = o(x2 ). Et donc f admet un dl
x→0 x→0
2 en 0, à savoir :
f (x) = 0 + 0 · x + 0 · x2 + o(x2 ).
x→0
On verra plus tard que les dl se comportent bien avec les primitives, ce qui fournira, en primitivant n − 2
fois f , des exemples de fonctions admettant des dl n sans être n-fois dérivables.
Proposition II.14. On suppose que f est définie sur R, et que f possède un développement limité d’ordre
n en 0 de la forme :
f (x) = c0 + · · · + cn xn + o(xn ).
x→0
Alors :
1. si f est paire : tous les coefficients de degré impair de son dl sont nuls : si k est impair, alors
ck = 0 ;
2. si f est impaire : tous les coefficients de degré pair de son dl sont nuls : si k est pair, alors ck = 0 ;
II. DÉVELOPPEMENTS LIMITÉS ET FORMULES DE TAYLOR 283
Démonstration. On utilise la composition à droite par la fonction x 7→ −x sur les o, ce qui assure que :
c0 = c0 , c1 = −c1 , c2 = c2 , c3 = −c3 , . . .
Remarque II.15. On peut supposer que f est seulement définie sur un ensemble I symétrique par rapport
à 0, tel que 0 est adhérent à I et le résultat tient toujours.
Les autres symétries rencontrées, tant qu’elles sont locales, se voient sur les dl : par exemple une symétrie
centrale pourra se lire sur les coefficients, mais pas la périodicité.
Corollaire II.16. Avec les mêmes notations, si on note f1 , f2 les fonctions respectivement paires et impaires
telles que f = f1 + f2 , alors f1 et f2 admettent les dl n suivant en 0 :
⌊n/2⌋
X
2 n
f1 (x) = c0 + c2 x + · · · + o(x ) = c2k x2k + o(xn ) ;
x→0 x→0
k=0
⌊n−1/2⌋
X
3 n
f2 (x) = c1 x + c3 x + · · · + o(x ) = c2k+1 x2k+1 + o(xn );
x→0 x→0
k=0
alors :
c1 cn
(x − a)2 + · · · + (x − a)n+1 + o (x − a)n+1 .
F (x) = F (a) + c0 (x − a) +
x→a 2 n+1
Remarque II.18. Il y a certaines précautions à prendre avec ce résultat : déjà il faut prendre en compte
F (a) quand on primitive f , et surtout il faut considérer f continue sur I (pas seulement en a, ce qui
serait acquis par l’existence du dl) pour que F ait bien un sens, et que I soit un intervalle pour utiliser le
théorème des accroissements finis.
Par construction, la fonction φ est dérivable sur I, et sa dérivée est donnée par :
n
X
∀x ∈ I, φ′ (x) = f (x) − ck (x − a)k
k=0
284 CHAPITRE 19. ANALYSE ASYMPTOTIQUE
n
X ck
(x − a)k+1 + o (x − a)n+1 .
F (x) = F (a) +
x→a
k=0
k+1
Remarque II.19. Cela veut dire qu’on peut primitiver un dl terme à terme : ce qui se comprend bien par
croissance de l’intégrale, dans la mesure ou primitiver un quantité petite donnera aussi une quantité petite.
En revanche, on ne dérive pas un dl : ce n’est pas parce qu’une fonction prend des petites valeurs que sa
dérivée aussi (par exemple cos est toujours entre les fonctions constantes de valeurs 1 et −1, mais cette
inégalité ne passe pas à la dérivation.
On peut en revanche dire que, si une fonction f possède un dl n, celui-ci est donné par la dérivée du dl
n + 1 d’une de ses primitives (par unicité du dl).
Corollaire II.20. La fonction tan admet le développement limité suivant en 0 :
x3
tan(x) = x + + o(x3 ).
x→0 3
Démonstration. On a déjà montré que tan(x) = x + o(x). Et ainsi :
x→0
Remarque II.21. On peut réitérer cette méthode pour obtenir de dl de tan à tout ordre : un dl n de tan
donne un dl n + 1 de 1 + tan2 , qui donne un dl n + 2 de tan, etc.
Notons au passage que, tan étant impaire, ses coefficients de degré pair sont nuls.
Théorème II.22 (Formule de Taylor–Young). Si f est une fonction de classe C n (pour n ∈ N) sur un
intervalle I, et a ∈ I, alors f admet un développement limité à l’ordre n en a, donné par :
n
X f (k) (a)
f (x) = (x − a)k + o ((x − a)n ) .
x→a
k=0
k!
Pn f (k+1) (x − a)k+1
f (x) = f (a) + k=0 + o ((x − a)n+1 )
x→a k! k+1
Pn f (k+1)
= f (a) + k=0 (x − a)k+1 + o ((x − a)n+1 )
x→a (k + 1)!
Pn+1 f (k)
(a)
= k=0 (x − a)k + o ((x − a)n+1 )
x→a k!
ce qui conclut l’hérédité.
D’où le résultat.
Remarques II.23.
1. Les dérivées successives d’une fonction en un point a se lisent dont sur les coefficients de son
développement limité en a.
2. Si f est de classe C ∞ , elle admet donc des développements limités à tout ordre en tout point.
3. Cette formule coı̈ncide avec la formule de Taylor polynomiale, en ayant poussé suffisamment l’ordre
du développement pour que toutes les dérivées suivantes soient nulles.
4. Il existe d’autres formules de Taylor (Taylor–Lagrange et Taylor avec reste intégral) qui permettent
d’estimer plus précisément le o((x − a)n ) en fonction de la (n + 1)-ème dérivée de la fonction.
10. si α ∈ R :
n
α
X α(α − 1) . . . (α − k + 1)
(1 + x) = xk + o(xn )
x→0 k!
k=0 .
α(α − 1) 2 α(α − 1) . . . (α − n + 1) n
= 1 + αx + x + ··· + x + o(xn )
x→0 2 n!
Démonstration. Pour ex , sin et cos on utilise la formule de Taylor–Young, et il suffit donc de calculer les
dérivées successives de ces fonctions en 0. Pour n ∈ N, on a :
— exp(n) (x) = exp(x), donc exp(n) (0) = 1 ;
0 si n est pair
— sin(n) (x) = sin(x + n π2 ), donc sin(n) (0) = ;
(−1)n−1/2 si n est impair
0 si n est impair
— cos(n) (x) = cos(x + n π2 ), donc cos(n) (0) = n/2 .
(−1) si n est pair
1 1
Le cas de a déjà été traité (par somme géométrique). On déduit le cas de en changeant x en
1−x 1+x
−x dans le dl (par opération sur les o).
On déduit alors le dl de x 7→ ln(1+x) par primitivation du dl précédent, en notant que ln(1+0) = ln(1) = 0.
1 1
Pour Arctan, on remplace x par x2 dans le dl de , ce qui donne le dl de , qu’on primitive pour
1+x 1 + x2
avoir celui de Arctan en notant que Arctan(0) = 0.
Pour (1 + x)α , la dérivée n-ème est donnée par α(α − 1) . . . (α − n + 1)(1 + x)α−n , qui vaut donc α(α −
1) . . . (α − n + 1) en 0. Et on conclut en appliquant la formule de Taylor–Young.
Exemple II.26. À la manière de ce qu’on a fait pour Arctan, on peut donner les dl en 0 des fonctions
Arcsin et Arccos.
Par exemple pour Arcsin, on utilise que :
1 x2 3x4 1 · 3 · · · · · (2n − 1) 2n
Arcsin′ (x) = √ = (1 − x2 )1/2 = 1 + = + ··· + x + o(x2n+1 )
1−x 2 x→0 2 8 2n · n!
−1 −3 −(2n − 1) 1 · 3 · · · · · (2n − 1)
α(α − 1)(α − 2) . . . (α − n + 1) = · · ··· · = (−1)n · .
2 2 2 2n
La dernière expression se simplifie en notant que :
1 · 2 · 3 · · · · · (2n − 1) · 2n (2n)!
1 · 3 · · · · · (2n − 1) = = n .
2 · 4 · . . . · · · 2n 2 · n!
II. DÉVELOPPEMENTS LIMITÉS ET FORMULES DE TAYLOR 287
Méthode II.28. Pour obtenir le dl n d’une combinaison linéaire, il suffit de prendre les dl n de chacune
des fonctions et de les regrouper terme à terme.
x x2 x3 3 x2 x3
e = 1+x+ + + o(x ) et ln(1 + x) = x − + + o(x3 )
x→0 2 6 2 3
et ainsi :
x3
f (x) = 1 + x2 − + o(x3 ).
x→0 6
Méthode II.30. Pour obtenir un dl n d’un produit, il suffit de multiplier les dl n de chaque facteur, en
tronquant dès que l’on distribue.
x2 x3 x4 x2 x4
ex = 1 + x + + + + o(x4 ) et cos(x) = 1 − + + o(x4 )
x→0 2 6 24 2 24
et ainsi :
x2 x3 x4 x2 x4
4 4
f (x) = 1+x+ + + + o(x ) · 1 − + + o(x )
x→0 2 6 24 2 24
x2 x3 x4 x 2 x3 x4
4
4 4 x
= 1+x+ + + + o(x ) + − − − + o(x ) + + o(x ) + o(x4 )
4
x→0 2 6 24 2 2 4 24
x3 x4
= 1+x− − + o(x4 )
x→0 3 6
Méthode II.32. Pour obtenir le dl n d’un produit, on commence par factoriser chaque facteur par son
équivalent, ce qui fait sortir un facteur de la forme (x − a)k , et on utilise ensuite des dl n − k des deux
facteurs restants.
On a :
x3 4 x3
sin(x) = x − + o(x ) et Arcsin(x) = x + + o(x4 )
x→0 6 x→0 6
et ainsi :
x3 x3
4 4
f (x) = sin(x)Arcsin(x) = x − + o(x ) · x + + o(x )
x→0 6 6
x2 x2
= x2 · 1 − + o(x3 ) · 1 + + o(x3 )
x→0 6 6
x2 x2
2 3 3 3
= x · 1+ + o(x ) − + o(x ) + o(x )
x→0 6 6
= x2 · (1 + o(x3 ))
x→0
= x2 + o(x5 )
x→0
Remarque II.34. Pour les puissances, le résultat reste le même : si f ∼ (x − a)k (à une constante
x→a
multiplicative près), pour déterminer le dl n de f l , il suffit de connaı̂tre le dl (n − k(l − 1)) de f .
Par exemple, le dl 1 de sin donne le dl n de sinn pour tout n. En revanche, pour cos, il faut le dl n de dl
n de cos pour avoir celui d’une de ses puissances.
Comme sin(x) ∼ x, on a déjà que o(sin(x)4 ) = o(x4 ). Reste donc à trouver les dl 4 en 0 des puissances
x→0 x→0
de sin(x).
On a déjà :
x3 x2
4 2
sin(x) = x − + o(x ) = x · 1 − + o(x )
x→0 6 6
On déduit que :
2
x2 x2 x4
2 2 3 2
sin (x) = x · 1 − + o(x ) = x · 1 − + o(x ) = x2 −
3
+ o(x4 ).
x→0 6 3 3
Pour les autres puissances, on pourrait faire de même en calculant les dl par produit, mais on peut se
contenter d’équivalents, comme on sait déjà que sin3 et sin4 admettent des dl à tout ordre :
— on a : sin3 (x) ∼ x3 , donc sin3 (x) = x3 + ax4 + o(x4 ). Mais x 7→ sin3 (x) est impaire, donc a = 0,
x→0 x→0
et finalement :
sin3 (x) = x3 + o(x4 ).
x→0
et donc :
1 1 1
= · 2
x
2 + e x→0 3 x x x3
1+ + + + o(x3 )
3 6 18
et par composition, on a :
2
x x2 x3 x x2
1 x 3
= 1− + + + + o(x3 )
+ −
x x2 x3 x→0 3 6 18 3 3 6
1+ + + + o(x3 )
3 6 18
x x2 x3
2
x3
3
x x
= 1− + + + + −
x→0 3 6 18 9 9 27
x x2 x3
= 1− − + + o(x3 )
x→0 3 18 54
et finalement :
1 x x2 x3
f (x) = − − + + o(x3 ).
x→0 3 9 54 162
Méthode II.40. Pour calculer un dl ailleurs qu’en 0, on peut ou bien utiliser la formule de Taylor–Young
en calculant les dérivées successives, ou bien de ramener à des dl usuels en 0 par changement de variable
affine.
ex = e2+h= e2 · eh
h2
2 2
= e · 1+h+ + o(h )
x→2 2
e2
= e2 + e2 (x − 2) + (x − 2)2 + o((x − 2)2 )
x→2 2
Dans un cas comme dans l’autre, il n’est pas difficile d’adapter la méthode à des ordres arbitrairement
grands.
III Applications
III.1 Développement limité d’une fonction réciproque
Méthode III.1. Étant donnée une fonction f bijective de classe C n dont la réciproque f −1 est de classe C n ,
on peut déterminer un dl de f −1 en composant un dl hypothétique par f , et en utilisant que f ◦ f −1 (y) =
y = y + o(y n ) pour tout n ∈ N∗ .
y→0
Remarque III.2. On peut aussi utiliser que f −1 ◦ f = id, mais les calculs peuvent devenir plus compliqués.
III. APPLICATIONS 291
donc f est continue strictement croissante sur R, avec lim f (x) = +∞ et lim f (x) = −∞, donc f
x→+∞ x→−∞
réalise une bijection strictement croissante de R sur R.
Comme f ′ ne s’annule jamais, et que f est de classe C ∞ , alors f −1 est aussi de classe C ∞ , donc admet en
tout point des dl de tout ordre.
Calculons le dl 4 de f −1 en 0. On l’écrit sous la forme :
f −1 (y) = a + by + cy 2 + dy 3 + ey 4 + o(y 4 )
Soient x, y ∈ R. On a alors :
et ainsi :
— en utilisant que f ◦ f −1 (y) = y = y + o(y 4 ), on trouve par unicité d’un dl que b = 1 et b3 + d = 0,
y→0
donc d = −1 ;
— en utilisant que f −1 ◦ f (x) = x = x + o(x4 ), on trouve par unicité d’un dl que b = 1 et b + d = 0
x→0
donc d = −1.
Dans les deux cas on retrouve le même dl 4 de f −1 en 0, à savoir :
f −1 (y) = y − y 3 + o(y 4 )
x→0
1 + ln(1 + x) − ex
Exemple III.5. Déterminons la limite en 0 de la fonction f : x 7→ .
1 − cos(x)
On effectue séparément les dl du numérateur et du dénominateur jusqu’au premier terme non nul :
— pour le numérateur, un ordre 2 suffit :
x2 x2
1 + ln(1 + x) − ex = 1 + x − −1−x− + o(x2 ) = −x2 + o(x2 ) ∼ −x2
x→0 2 2 x→0 x→0
x2 x2 x2
1 − cos(x) = 1 − 1 + + o(x2 ) = + o(x2 ) ∼
x→0 2 x→0 2 x→0 2
292 CHAPITRE 19. ANALYSE ASYMPTOTIQUE
et ainsi :
−x2
f (x) ∼ = −2
x→0 x2 /2
donc f tend vers −2 en 0.
Remarque III.6. Il ne faudra pas pour autant systématiquement utiliser des dl : même si cela va aboutir,
les calculs sont souvent assez lourds (plus que des équivalents ou des théorèmes d’encadrement).
esin(x) − etan(x)
Par exemple, pour calculer la limite en 0 de x 7→ , on préfère y voir un taux d’accroissement
sin(x) − tan(x)
de exp entre deux quantités qui tendent vers 0, et qui tend donc vers exp′ (0) = 1 par théorème des
accroissements finis.
Remarque III.7. On pourra aussi parfois travailler avec des dl nuls mais tout de même avoir des résultats.
x − sin(x)
Par exemple, pour f : x 7→ , on trouve :
ln(1 + x)
o(x)
f (x) = = o(1) → 0.
x→0 x + o(x) x→0 x→0
pour n ≥ 2 et α ̸= 0, alors :
1. si n est pair : alors la courbe de f est au-dessus de sa tangente en a si α > 0 et en dessous sinon ;
2. si n est impair : alors la courbe de f traverse sa tangente en a, et on a un point d’inflexion.
Démonstration. L’équation de la tangente à la courbe de f est a est y = f (a) + f ′ (a)(x − a). Donc la
position de la courbe de f par rapport à cette courbe est donné par le signe de f (x) − f (a) − f ′ (a)(x − a)
au voisinage de a. D’après le dl de f , on a :
qui est donc du signe de α(x − a)n d’après les propriétés des équivalents, ce qui donne le résultat selon les
valeurs de α et n.
x3
sin(x) = x − + o(x3 )
x→0 6
y=x
1
sin
−3 −2 −1 0 1 2 3
−1
Corollaire III.10. Avec les mêmes notations, si f possède un point critique en a, alors :
1. si n est pair : f possède un maximum en a si α < 0 ou un minimum si α > 0 ;
2. si n est impair : f n’admet pas d’extremum en a.
où les fonctions gi vérifient que pour k > l : gk (x) = o(gl (x)), et seront systématiquement des produits
x→a
ou puissances de fonctions usuelles (exp, ln ou puissances de x).
Et les mêmes types de développements s’appliquerait aussi pour des suites.
Ces développements sont d’autant plus intéressants quand les fonctions n’ont pas d’équivalent polynomial,
ou lorsqu’on se place en ±∞ (car alors les o(xn ) ne donnent pas beaucoup d’information sur la fonction).
Dans ce dernier cas, un développement asymptotique peut prendre la forme d’un développement limité en
1
x
ou en e−x (dont le calcul passe par celui d’un développement limité classique).
Exemples III.12.
1. au voisinage de 0, on a :
x3 ln(x) x5 ln(x)
ln(x)sin(x) = xln(x) − + + o(5ln(x))
x→0 6 120
2. au voisinage de +∞ :
x+2 1 1 + x2
=
x2 − 1 x 1− x12
1 2 1 1 1
= 1+ 1+ 2 + 4 +o 4
x→+∞ x x x x x
1 2 1 2 1 1
= + 2 + 3 + 4 + 5 +o
x→+∞ x x x x x x5
294 CHAPITRE 19. ANALYSE ASYMPTOTIQUE
3. au voisinage de +∞ :
−x −x e−2x e−3x
ln(1 + e ) = e − + + o(e−3x ).
x→+∞ 2 3
Exemple III.13. Un développement asymptotique célèbre trouve ses origines dans la formule de Stirling,
qui donne un équivalent pour la factorielle :
√
n! ∼ nn e−n 2πn.
n! n!
On a ainsi que : √ → 1, donc ln √ = o(1), et ainsi ln(n!) a pour développement
nn e−n 2πn n→+∞ nn e−n 2πn
asymptotique :
ln(n) ln(2π)
ln(n!) = nln(n) − n + + + o(1).
2 2
Méthode III.14. Pour trouver l’asymptote d’une fonction f en ±∞, on peut chercher un développement
asymptotique de la forme :
f (x) = αx + β + o(1).
x→±∞
Dans ce cas, la droite d’équation y = αx + β est asymptote à f , et la position de la courbe de f par rapport
à l’asymptote est donnée par le signe de f (x) − αx − β, dont il suffit donc de trouver un équivalent.
Exemple
√ III.15.
√ Étudions les asymptotes éventuelles de la fonction définie sur R\] − 1; 1[ par : f (x) =
x2 + 1 + x2 − 1. √
On se ramène tout d’abord au dl de 1 + u en 0, à savoir :
√ u u2 u3
1+u = 1+ − + + o(u3 )
u→0 2 8 16
√
r
1 1 1 1
x2 + 1 = |x| 1 + 2 = |x| 1 + 2 − 4 + o
x x→±∞ 2x 8x x4
√
r
1 1 1 1
x2 − 1 = |x| 1 − 2 = |x| 1 − 2 − 4 + o
x x→±∞ 2x 8x x4
ce qui donne le développement asymptotique pour f :
1 1
f (x) = |x| 2 − 4 + o
x→±∞ 4x x4
et donc :
1
— en +∞ : f (x) = 2x − + o(1/x3 ), donc f admet la droite d’équation y = 2x pour asymptote,
x→+∞ 4x3
et la courbe de f est en dessous de son asymptote ;
1
— en −∞ : f (x) = −2x + 3 + o(1/x3 ), donc f admet la droite d’équation y = −2x pour
x→−∞ 4x
asymptote, et la courbe de f est en dessous de son asymptote.
Et notons au passage que la parité de f permet de se contenter d’une étude en +∞ ou −∞ pour avoir les
deux résultats.
III. APPLICATIONS 295
3
Cf
2 y = ±2x
−2 −1 0 1 2
Remarque III.17. Un méthode qui ressemble beaucoup consiste à calculer des développements asymptotiques
que l’on réinjecte dans une égalité (une équation fonctionnelle par exemple) pour gagner des ordres à chaque
fois.
Exemple III.18. On considère la suite (un ) définie par le fait que, pour tout n ≥ 3, un est la plus petite
solution de l’équation ex = nx.
3
Les variations de fn : x 7→ ex − nx montrent que un ∈]0; [, donc (un ) tend vers 0. Mais on peut voir à
n
quelle vitesse.
Comme (un ) tend vers 0, alors un = o(1). Mais comme fn (un ) = 0, alors :
eun eo(1)
1 1
un = = = +o
n n n n
Dans tout ce chapitre, on désigne K un corps (par exemple R ou C), dont les éléments seront appelés
scalaires.
I Espaces vectoriels
I.1 La structure d’espace vectoriel
Définition I.1. Si E, F sont deux ensembles non vides, une loi de composition externe (abrégée en
lce) de F sur E est une application de F × E sur E.
Remarque I.2. Si · est une lce, on notera plus simplement λ · x au lieu de ·(λ, x).
Définition I.3. Si E est un ensemble muni d’une lci + et d’une lce · de K sur E, on dit que (E, +, ·) est
un K-espace vectoriel (ou espace vectoriel sur K, abrégé parfois K-ev) si :
1. (E, +) est un groupe abélien (qu’on notera additivement), et dont l’élément neutre 0E est appelé le
vecteur nul ;
2. ∀x ∈ E, 1 · x = x ;
3. ∀λ ∈ K, ∀x, y ∈ E, λ · (x + y) = λ · x + λ · y ;
4. ∀λ, µ ∈ K, ∀x ∈ E, (λ + µ) · x = λ · x + µ · y ;
5. ∀λ, µ ∈ K, ∀x ∈ E, (λµ) · x = λ · (µ · x).
Dans ce cas, les éléments de E sont appelés vecteurs.
Exemples I.4.
1. Sur K, on peut voir la multiplication comme une lce, ce qui fournit à K une structure d’espace
vectoriel. On peut même faire agir un sous-corps par multiplication sur K : par exemple, C est un
espace vectoriel sur C, sur R ou sur Q.
2. Plus généralement, pour n ∈ N∗ , la multiplication de toutes les coordonnées d’un élément de Kn par
un élément de K munit Kn d’une structure d’espace vectoriel sur K.
3. La multiplication scalaire munit Mn,p (K) d’une structure de K-espace vectoriel, tout comme la
multiplication par une constante dans K[X] ou K(X).
4. L’ensemble des solutions d’une équation différentielle linéaire homogène est aussi un K-ev, comme
l’ensemble des solutions d’un système linéaire homogène.
Proposition I.5 (Espace produit). Si E, F sont deux K-ev, alors l’ensemble E × F muni des opérations :
(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) et λ · (x, y) = (λ · x, λ · y)
est un K-ev.
297
298 CHAPITRE 20. ESPACES VECTORIELS ET APPLICATIONS LINÉAIRES
Démonstration. On avait déjà vu que le produit de deux groupes est un groupe. Reste à vérifier les
propriétés de la lce, qui découlent de celles pour E et F .
Pour (x, y) ∈ E × F , on a : 1 · (x, y) = (1 · x, 1 · y) = (x, y).
Si λ ∈ K et x1 , x2 ∈ E, y1 , y2 ∈ F , alors :
λ · ((x1 , y1 ) + (x2 , y2 )) = λ · (x1 + x2 , y1 + y2 ) = (λ · (x1 + x2 ), λ · (y1 + y2 ))
= (λ · x1 + λ · x2 , λ · y1 + λ · y2 ) = (λ · x1 , λ · y1 ) + (λ · x2 , λ · y2 )
= λ · (x1 , y1 ) + λ · (x2 , y2 )
Remarque I.6. Le résultat se généralise à un nombre fini de K-ev. Par exemple on retrouve que Kn =
K × · · · × K est un espace vectoriel, de vecteur nul (0, . . . , 0).
Proposition I.7. Si Ω est un ensemble non vide et E est un K-espace vectoriel, on munit F(Ω, E) de la
lci + et de la lce · suivantes :
Ω → E
∀f, g ∈ F(Ω, E), f + g : ;
x 7→ f (x) + g(x)
Ω → E
∀f ∈ F(Ω, E), ∀λ ∈ K, λ · f : .
x 7→ λ · f (x)
Alors (F(Ω, E), +, ·) est un K-espace vectoriel.
Démonstration. On vérifie facilement que (F(Ω, E), +) est un groupe : les propriétés de la loi + sur E
sont aussi vérifiées par les éléments de F(Ω, E). La fonction x 7→ 0E est son élément neutre, et l’opposé
d’une fonction f est la fonction x 7→ −f (x).
De même, il est clair que les propriétés de · sur E sont aussi vérifiées sur F(Ω, E).
Et finalement on a bien un K-ev.
Remarques I.8.
1. La situation la plus simple est lorsque E = K : la multiplication et l’addition sont directement celles
de K comme corps.
2. L’ensemble Ω n’a besoin d’aucune structure, comme toutes les opérations se font sur les images
d’éléments de Ω.
3. Dans le cas particulier où Ω = N et E = K, on trouve que l’ensemble des suites à valeurs dans K
est un K-espace vectoriel. Plus généralement, l’ensemble des suites à valeurs dans E est aussi un
K-ev.
Proposition I.9. Si (E, +, ·) est un K-ev, alors :
1. pour tous λ ∈ K et x ∈ E : λ · x = 0E ⇔ (λ = 0 ou x = 0E ) ;
2. pour tout x ∈ E : (−1) · x = −x.
Démonstration.
1. Si x = 0E , alors 0E + 0E = 0E donc λ · 0E = λ · 0E + λ · 0E , donc λ · 0E = 0E .
De même, si λ = 0 : 0 · x = (0 + 0) · x = 0 · x + 0 · x donc 0 · x = 0E .
Inversement, si λ ̸= 0, alors :
1
λ · x = 0E ⇒ λ · x = 0E ⇒ x = 0E
λ
ce qui montre bien l’équivalence.
2. Pour x ∈ E, on a :
(−1) · x + x = (−1) · x + 1 · x = (−1 + 1) · x = 0 · x = 0E
ce qui montre bien que (−1) · x est l’opposé de x, c’est-à-dire −x.
I. ESPACES VECTORIELS 299
Remarque I.16. Comme pour les groupes, l’union ne se comporte pas bien avec les espaces vectoriels
(notamment à cause de leur structure de groupe).
Exemple I.17. On peut ainsi voir de deux manières que l’ensemble des solutions d’un système linéaire
homogène est un espace vectoriel :
— soit directement comme on a vu que c’est un ensemble non-vide (le vecteur nul est toujours solution)
stable par combinaison linéaire) ;
— soit en constatant que les solutions de chaque équation du système forme un sev de Rp : l’ensemble
solution du système complet est donc l’intersection de n sev de Rp , et est donc un sev de Rp .
Corollaire I.18. Si A ⊂ E est non vide, alors :
\
F
F sev de E
A⊂F
II Famille de vecteurs
II.1 Combinaisons linéaires et sous-espaces engendrés
Définition II.1. Si x1 , . . . , xn ∈ E, on
P dit que x ∈ E est une combinaison linéaire de x1 , . . . , xn s’il
existe λ1 , . . . , λn ∈ K tels que : x = ni=1 λi · xi .
L’ensemble des combinaisons linéaires de x1 , . . . , xn est noté Vect(x1 , . . . , xn ), c’est-à-dire que :
( n )
X
Vect(x1 , . . . , xn ) = λi · xi | λ1 , . . . , λn ∈ K .
i=1
Exemple II.2. On se place dans R3 est on considère les vecteurs x1 = (1, −1, 0), x2 = (0, 1, −1) et
x3 = (−1, 0, 1). Alors :
Vect(x1 , x2 , x3 ) = {λx1 + µx2 + νx3 | λ, µ, ν ∈ R} .
Mais pour λ, µ, ν ∈ R on a :
Et ainsi un élément (x, y, z) ∈ R3 est dans Vect(x1 , x2 , x3 ) si, et seulement si, il existe λ, µ, ν ∈ R tels
que :
λ−ν = x
µ−λ = y
ν−µ = z
que l’on peut résoudre comme un système en λ, µ, ν. En échelonnant, on trouve que le système est équivalent
à :
λ − ν = x
µ − ν = x+y
− µ + ν = z
— si A ⊂ E : on note Vect(A) l’ensemble des combinaisons linéaires d’un nombre fini d’éléments de
A: ( n )
X
Vect(A) = λi · xi | n ∈ N, x1 , . . . , xn ∈ A, λ1 , . . . , λn ∈ K .
i=1
Dans tous les cas, on travaille avec des sommes finies et on utilise plutôt la notion de famille presque
nulle (ou famille à support fini) : étant donné A (fini ou non), c’est une famille (λa )a∈A telle que
{a ∈ A | λa ̸= 0} est fini. Et alors :
( )
X
Vect(A) = λa · A | (λa ) à support fini .
a∈A
pour λ1 , . . . , λn , µ1 , . . . , µn ∈ K et a1 , . . . , an ∈ A.
Et ainsi, pour tout ν ∈ K :
n
X
ν·x+y = (νλi + µi ) · ai ∈ Vect(A)
i=1
Et donc Vect(A) ⊂ F .
Remarque II.7. On pratique, on pourra utiliser ce résultat avec des familles finies. Par exemples, en
considérant les vecteurs x1 , . . . , xn , ce résultat dit que :
1. si m ≤ n : Vect(x1 , . . . , xm ) ⊂ Vect(x1 , . . . , xn ) ;
2. si xn ∈ Vect(x1 , . . . , xn−1 ), alors Vect(x1 , . . . , xn−1 ) = Vect(x1 , . . . , xn ).
Exemple II.8. Si on reprend les vecteurs x1 = (1, −1, 0), x2 = (0, 1, −1), x3 = (−1, 0, 1), on a x1 +x2 +x3 =
0, et donc : x3 = −x1 − x2 ∈ Vect(x1 , x2 ).
Et donc Vect(x1 , x2 , x3 ) = Vect(x1 , x2 ).
On peut le retrouver en notant qu’un élément (x, y, z) ∈ R3 est dans Vect(x1 , x2 ) si, et seulement si, il
existe λ, µ ∈ R tels que :
λ = x
µ−λ = y
−µ = z
qui a donc une solution si, et seulement si, x + y + z = 0, et on retrouve le plan d’équation x + y + z = 0.
Exemple II.13. Reprenons dans R2 la droite d’équation ax + by = 0, et montrons qu’il s’agit d’une droite
vectorielle au sens de la définition précédente.
Le vecteur (x, y) ∈ R2 est un élément de la droite si, et seulement si, ax + by = 0, et donc :
— si a ̸= 0 : alors x = − ab y, donc (x, y) = − ab y, y = y · − ab , 1 = − ay · (b, −a) ;
— si a = 0 : on a b ̸= 0, donc y = 0, donc (x, y) = (x, 0) = xb · (b, −a).
et donc dans les deux cas (x, y) ∈ Vect((b, −a)) : on a donc bien une droite vectorielle.
Remarques II.15.
1. Il s’agit en fait d’une équivalence, mais la réciproque est toujours vérifiée.
2. On dit aussi que les éléments de A sont linéairement indépendants.
3. Une famille qui n’est pas libre est dite liée.
4. Ce résultat se transpose aux parties de E, mais l’intérêt des familles est qu’elles permettent d’ex-
primer des redondances.
5. Comme les combinaisons linéaires sont à support fini, une famille infinie est libre si, et seulement
si, toutes ses sous-familles finies sont libres.
Exemples II.16. 1. Dans R3 , la famille formée des vecteurs x1 = (1, −1, 0), x2 = (0, 1, −1), x3 =
(−1, 0, 1) est liée, puisque :
0 = x1 + x2 + x3 = 1 · x1 + 1 · x2 + 1 · x3
et que (1, 1, 1) ̸= (0, 0, 0).
2. Une famille formée d’un seul vecteur x est libre si, et seulement si, x est non nul :
— si x = 0 : alors 1 · x = 0, donc on a une combinaison linéaire nulle dont tous les coefficients ne
sont pas nuls ;
— si x ̸= 0 : alors pour tout λ ∈ K : λ · x = 0 ⇒ λ = 0, donc la famille est libre.
3. Sur Mn,p (K), les matrices élémentaires forment une famille libre, du fait de l’unicité de l’écriture :
le seul moyen d’écrire la matrice nulle comme combinaison linéaire de matrices élémentaires est
que tous les coefficients soient nuls.
4. Si A ∈ Mn (K), dont on note A1 , . . . , An les colonnes, on a pour tous λ1 , . . . , λn :
λ1
..
λ1 A1 + · · · + λn An = A · .
λn
et ainsi un combinaison linéaire nulle correspond à une solution à l’équation AX = 0 (d’inconnue
X ∈ Mn,1 (K)). Et donc la matrice A est inversible si, et seulement si, cette équation a pour seule
solution X = 0, c’est-à-dire si, et seulement si, les colonne de A forment une famille libre de
Mn,1 (K).
304 CHAPITRE 20. ESPACES VECTORIELS ET APPLICATIONS LINÉAIRES
Proposition II.17. Une famille est liée si, et seulement si, l’un de ses vecteurs s’exprime comme combi-
naison linéaire d’autres de ses vecteurs.
Pour A = (ai )i∈I , cela revient à dire que :
X
∃i0 ∈ I, ∃(λi ) ∈ KI\{i0 } à support fini, ai0 = λi · ai .
i̸=i0
P
Démonstration. Si A est liée, notons (µi )i∈I famille non nulle à support finie telle que i∈I µi · ai = 0.
Comme (µi ) n’est pas nulle, il existe i0 ∈ I tel que µi0 ̸= 0. Ainsi, en posant pour tout i ̸= i0 : λi = − µµii ,
0
alors la famille (λi ) est bien définie, à support fini, et vérifie :
X µi X
ai0 = − · ai = λi · ai
µi0
i∈I\{i0 } i̸=i 0
et la famille (µi ) est bien à support fini (comme les λi , comme on change seulement la valeur pour i0 ) et
non nulle (comme µi0 = 1 ̸= 0), donc la famille est liée.
Proposition-Définition II.18 (Vecteurs colinéaires). On dit que les vecteurs x, y ∈ E sont colinéaires si
la famille (x, y) est liée. C’est le cas si, et seulement si :
∃λ ∈ K, x = λ · y ou y = λ · x.
En particulier, si x est non nul, l’ensemble des vecteurs colinéaires à x constitue la droite vectorielle
Vect(x).
Remarques II.19.
1. Le vecteur nul est colinéaire à tout autre vecteur.
2. Si x, y sont non nuls, alors ils sont colinéaires si, et seulement si, x = λ · y pour λ ∈ K∗ .
En particulier, la relation “être colinéaire à” définit une relation d’équivalence sur E \ {0}, et deux
éléments x, y ∈ E \ {0} sont dans la même classe si, et seulement si : Vect(x) = Vect(y).
Corollaire II.20. Une famille qui contient le vecteur nul, ou deux vecteurs colinéaires (par exemple deux
vecteurs égaux) est liée.
Démonstration. On pourrait montrer l’une ou l’autre des assertions, dans la mesure où elles sont
contraposées l’une de l’autre.
1. si A est liée : notons une combinaison linéaire nulle d’éléments de A à coefficients non tous nuls. C’est
donc (par l’inclusion A ⊂ B) une combinaison linéaire nulle à coefficients non tous nuls d’éléments
de B. Donc B est liée.
2. si B est libre : considérons une combinaison linéaire nulle d’éléments de A. Alors c’est une combi-
naison linéaire nulle d’éléments de B (par l’inclusion A ⊂ B), donc tous ses coefficients sont nuls
(comme B est libre). Donc A est libre.
Corollaire II.22. La famille A = (ai )i∈I est libre si, et seulement si, pour n’importe quel i0 ∈ I :
1. la famille Ai0 = (ai )i̸=i0 est libre ;
2. ai0 ∈
/ Vect(Ai0 ).
Remarque II.23. Ici, on peut librement interpréter le “n’importe quel” comme un quantificateur existenciel
ou universel et le résultat reste vrai.
Démonstration. Si A est libre : toute sous-famille de A est libre, donc pour tout i0 ∈ I la famille Ai0 est
libre, et aucun élément de A ne s’exprime comme combinaison linéaire des autres, donc ai0 ∈/ Vect(Ai0 ).
P
Inversement, si A est liée, notons i λi ai une combinaison linéaire nulle à support fini où tous les λi ne
sont pas nul, et considérons i0 ∈ I : P
— si λi0 = 0 : alors la famille Ai0 est liée, car l’un au moins des autres λi est non nul et i̸=i0 λi ai ;
−1 P
— si λi0 ̸= 0 : alors ai0 = λi ai ∈ Vect(Ai0 ).
λi0 i̸=i0
D’où l’équivalence.
Corollaire II.24. Si A est une famille et a est un vecteur, la famille A ∪ {a} est libre si, et seulement si,
la famille A est libre et que a ∈
/ Vect(A).
Proposition II.25. Une famille de polynômes de degrés deux-à-deux distincts est libre.
Et en itérant ce processus on trouve que tous les λi sont nuls, donc la famille est libre.
Remarque II.26. On a vu avec les polynômes de Lagrange qu’il existe des familles libres dont tous les
polynômes ont même degré.
Proposition II.27. Une famille A est libre si, et seulement si, tout élément de Vect(A) s’écrit de manière
unique comme combinaison linéaire d’éléments de A.
306 CHAPITRE 20. ESPACES VECTORIELS ET APPLICATIONS LINÉAIRES
Démonstration. Si A est libre, notons x ∈ Vect(A). Quitte à rajouter des coefficients nuls dans les sommes
qui suivent, cela revient à dire qu’il existe a1 , . . . , an ∈ A, λ1 , . . . , λn , µ1 , . . . , µn ∈ K tels que :
n
X n
X
x= λi · ai = µ i · ai
i=1 i=1
et donc : n
X
0= (λi − µi ) · ai
i=1
et comme A est libre, on déduit que pour tout i : λi − µi = 0, c’est-à-dire λi = µi . D’où l’unicité.
Réciproquement, comme 0 ∈ Vect(A), si tout élément de Vect(A) s’écrit de manière unique, alors 0 aussi.
Et comme 0 s’écrit comme combinaison linéaire dont tous les coefficients sont nuls, toute combinaison
linéaire nulle a ses coefficients nuls : donc A est libre.
Remarque II.28. Ce résultat est surtout utile dans le sens direct : à la manière des systèmes linéaires, il
suffit de traiter le problème en 0 (l’analogue du problème homogène) pour avoir le résultat partout.
Par exemple, quand on a montré l’unicité de l’écriture pour les fonctions polynomiales, on aurait pu se
contenter de voir que la fonction nulle s’écrit de manière unique.
II.4 Bases
Définition II.29 (Bases). Une famille qui est à la fois libre et génératrice est appelée une base.
Exemples II.30.
1. la famille 1, X − a, . . . (X − a)n est une base de Kn ;
2. la famille des matrices élémentaires de taille n × p est une base de Mn,p (K) ;
3. la famille ((1, −1, 0), (0, 1, −1)) est une base du plan de R3 d’équation x + y + z = 0.
Proposition II.31. Une famille A est une base de E si, et seulement si, tout élément de E s’écrit de
manière unique comme combinaison linéaire d’éléments de A.
Remarque II.33. En pratique, on travaillera avec une base ordonnée, puisque les coordonnées ne sont pas
échangeable. Et on indicera souvent les éléments d’une base par l’ensemble J1; nK, et plus rarement J0; nK
ou N, mais en faisant toujours attention à l’ordre.
Et une base n’est pas unique (on l’a vu avec Kn [X] ou K[X] par exemple). Donc les coordonnées dépendent
de la base choisie.
Exemples II.34. Certains espaces vectoriels, qui reviennent souvent, on des bases standardisées, souvent
plus naturelles, appelées bases canoniques : celle-ci est unique, et soumise à de nombreuses conventions,
donc n’est pas à improviser mais à connaı̂tre. En voici quelques exemples :
1. pour Kn : ((1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)) ;
2. pour Kn [X] : (1, X, X 2 , . . . , X n ) ;
3. pour K[X] : (1, X, X 2 , . . . , X n , X n+1 , . . . ) ;
4. pour Mn,p : (Ei,j ) 1≤i≤n
1≤j ≤p
III. SOMMES DE SOUS-ESPACES 307
Proposition II.35. Si P0 , . . . , Pn ∈ K[X] vérifient pour tout i : deg(Pi ) = i, alors la famille (Pi ) est une
base de Kn [X].
On parle alors de famille de polynômes de degrés échelonnés.
Démonstration. Comme les polynômes sont de degrés deux-à-deux distincts, on a déjà que la famille est
libre.
On montre qu’elle est génératrice en montrant par récurrence sur k ∈ J0; nK que Kk [X] = Vect(Pi )0≤i≤k :
— si k = 0 : si P ∈ K0 [X], alors P est constant (éventuellement nul) ; comme deg(P0 ) = 0, alors P0
est constant (non nul) donc P = PP0 · P0 ∈ Vect(P0 ) ;
— hérédité : si P ∈ Kk+1 [X] pour k ∈ J0, n − 1K, notons λ ∈ K le coefficient (éventuellement nul) de
P de degré k + 1, et µ celui (non nul) de Pk+1 . Alors P − µλ Pk+1 ∈ Kk [X] = Vect(P0 , . . . Pk ), donc
P ∈ Vect(P0 , . . . , Pk , Pk+1 ).
D’où la récurrence.
Exemples III.7. Si on reprend les exemples précédents dans les matrices carrées, alors :
— les espaces Sn (K) et An (K) sont en somme directe : on avait montré l’unicité dans le chapitre sur
les matrices ;
— les espaces T + (K) et T − (K) ne sont pas en somme directe : comme on matrice diagonale est à la
fois triangulaire supérieure et inférieure, on a par exemple : In = In + |{z} 0 = |{z}0 + In .
|{z} |{z}
∈T + (K) ∈T − (K) ∈T + (K) ∈T − (K)
Donc l’écriture n’est pas unique.
Proposition III.8. Pour F, G deux sev de E, il y a équivalence entre :
1. F et G sont en somme directe ;
2. si x ∈ F et y ∈ G vérifient x + y = 0, alors x = y = 0 ;
3. F ∩ G = {0}.
Démonstration. Montrons que 1 ⇒ 2 ⇒ 3 ⇒ 1 ce qui montrera l’équivalence.
Pour 1 ⇒ 2 : comme tout élément de F + G s’écrit d’une seule manière, alors c’est le cas pour 0. Si x ∈ F
et y ∈ G vérifient x + y = 0, alors on a : x + y = 0 = |{z}
0 + |{z}
0 donc par unicité on déduit que x = y = 0.
∈F ∈G
Pour 2 ⇒ 3 : comme F ∩ G est un sev de E, alors 0 ∈ F ∩ G ; réciproquement, si x ∈ F ∩ G, alors on
a aussi que −x ∈ F ∩ G (comme F ∩ G est un ev), et alors : 0 = |{z} −x , et donc x = −x = 0. Et
x + |{z}
∈F ∈G
finalement F ∩ G = {0}.
Pour 3 ⇒ 1 : soit z ∈ F + G, que l’on écrit z = x1 + y1 = x2 + y2 pour x1 , x2 ∈ F et y1 , y2 ∈ G. Alors on
déduit que : x1 − x2 = y2 − y1 ∈ F ∩ G = {0}, donc x1 − x2 = y2 − y1 = 0, donc x1 = x2 et y1 = y2 . D’où
| {z } | {z }
∈F ∈G
l’unicité de l’écriture de z, donc F et G sont en somme directe.
Remarque III.9. Comme pour le fait d’être libre, on peut ramener le problème d’une combinaison linéaire
à un combinaison linéaire nulle.
Exemple III.14. Reprenons le plan d’équation x + y + z = 0 dans R3 que l’on note F . Considérons
u = (a, b, c) ∈
/ F , et posons G = Vect(u) la droite vectorielle engendrée par u. Montrons que F et G sont
supplémentaires car :
— F et G sont en somme directe : on peut voir que F ∩ G = {0}, car si (x, y, z) ∈ F ∩ G, alors il
existe λ ∈ R tel que : (x, y, z) = (λa, λb, λc) et alors x + y + z = 0 ⇔ λ(a + b + c) = 0 ⇔ λ = 0
(comme u ∈ / F , donc a + b + c ̸= 0).
x+y+z
— F et G engendrent E = R3 : si v = (x, y, z) ∈ R3 , posons λ = . Alors :
a+b+c
v = (v − λ · u) + λ ·u
| {z } |{z}
∈F ∈G
où le seul point subtile est que v −λ·u ∈ F , et qui vient du fait qu’il est égal à (x−λa, y −λb, z −λx),
donc la somme de ses coordonnées vaut :
(x + y + z) − λ(a + b + c) = (x + y + z) − (x + y + z) = 0.
Proposition III.15. Si F et G sont supplémentaires dans E, que A est une base de F et que B est une
base de G, alors A ∪ B est une base de E.
Et donc : X X
λa · a = − µb · b = 0.
a∈A b∈B
| {z } | {z }
∈F ∈G
Remarque III.16. On a même une équivalence : F et G sont supplémentaire dans E si, et seulement si,
toute (une) concaténation d’une base de F et d’une base de G est une base de E. Le résultat se montre
de manière très proche : on relie la liberté de la famille au fait d’avoir une somme direct, et le caractère
générateur de la famille à celui de la somme des espaces vectoriels.
Démonstration. Comme pour deux espaces, ou par récurrence sur le nombre d’espaces.
Remarque III.20. Que ce soit pour 2 ou davantage d’espaces, la somme des Fi est directe si, et seulement
si, l’application φ ci-dessous est bijective :
F1 × · · · × Fn → E
φ:
(x1 , . . . , xn ) 7→ x1 + · · · + xn
et on verra d’autres manières de caractériser la bijectivité, donc d’autre manière de caractériser les sommes
directes.
IV Applications linéaires
IV.1 Généralités
Définition IV.1. Soient E, F deux K-ev. Une application f : E → F est appelée application linéaire
si :
∀x, y ∈ E, ∀λ ∈ K, f (λ · x + y) = λ · f (x) + f (y).
On note L(E, F ) l’ensemble des applications linéaires de E dans F .
Remarques IV.2.
1. En prenant λ = 1, on déduit qu’une application linéaire est aussi un morphisme de groupe (et la
réciproque est fausse). En particulier, on aura toujours f (0E ) = 0F .
2. Comme un C-espace vectoriel est aussi un R-espace vectoriel, alors on précisera parfois le corps
considéré en disant qu’une application est K-linéaire.
Exemples IV.3.
1. Sur R (vu comme une droite vectorielle), les applications linéaires sont exactement celles qu’on
avait appelées ainsi avant : les applications x 7→ ax pour a ∈ R.
2. Sur C, les similitudes qui fixent O sont C-linéaires ; la conjugaison complexe n’est pas C-linéaire
mais elle est R-linéaire, tout comme les applications z 7→ Re(z) ou z 7→ Im(z).
3. Sur les matrices, la transposition est une application linéaire de Mn,p (K) dans Mp,n (K).
Mp,1 (K) → Mn,1 (K)
4. Si A ∈ Mn,p (K), l’application fA : est un application linéaire, qu’on
X 7→ AX
appelle application linéaire canoniquement associée à A.
5. Peu importe F , l’application x 7→ 0F définie de E vers F est linéaire : c’est la seule application
linéaire constante.
IV. APPLICATIONS LINÉAIRES 311
Démonstration. On a déjà dit que l’application nulle est linéaire, donc L(E, F ) est non vide.
Si f, g ∈ L(E, F ) et λ ∈ K, alors pour tous x, y ∈ E et µ ∈ K on a :
(λ · f + g)(µ · x + y) = λ · f (µ · x + y) + g(µ · x + y)
= λ · (µ · f (x) + f (y)) + µ · g(x) + g(y)
.
= µ · (λ · f (x) + g(x)) + (λ · f (y) + g(y))
= µ · (λ · f + g)(x) + (λ · f + g)(y)
Proposition IV.6. La composée de deux applications linéaires est une application linéaire, c’est-à-dire que,
si E, F, G sont des K-ev, f ∈ L(E, F ) et g ∈ L(F, G), alors g ◦ f ∈ L(E, G).
Démonstration. Si x, y ∈ E et λ ∈ K, alors :
Proposition IV.7. La composition est une application bilinéaire, dans le sens où, si E, F, G sont des espaces
vectoriels, et f0 ∈ L(E, F ), g0 ∈ L(F, G), alors les applications :
L(E, F ) → L(E, G) L(E, G) → L(E, G)
φ: et ψ :
f 7→ g0 ◦ f g 7→ g ◦ f0
Remarque IV.9. Étant donnés E, F deux espaces vectoriels, il n’existe pas toujours d’isomorphisme de E
vers F . Mais si un tel isomorphisme existe, on dira que E et F sont isomorphes.
Démonstration. La seule chose à vérifier est que la réciproque d’une application linéaire bijective est aussi
linéaire.
Soient x, y ∈ F et λ ∈ K. Alors :
λy = 0 ⇔ y = 0 et λx ∈ E ⇔ x ∈ E
et donc :
IV. APPLICATIONS LINÉAIRES 313
IV.3 Endomorphismes
Définition IV.18. Une application linéaire de E dans E est appelée un endomorphisme de E. On note
L(E) l’ensemble des endomorphismes de E.
Un endomorphisme bijectif de E est appelé un automoprhisme. On note GL(E) l’ensemble des auto-
morphismes de E.
Exemple IV.19. L’application identité idE est un endomorphisme de E, et c’est même un automorphisme.
Les applications de la forme λ · idE pour λ ∈ K∗ aussi : ce sont les homothéties de E.
Proposition IV.20. (L(E), +, ◦) est un anneau.
Démonstration. Comme (L(E), +, ·) est un ev, alors (L(E), +) est un groupe abélien, dont l’élément neutre
est l’application nulle.
La composition laisse stable L(E), est associative, et possède pour élément neutre l’application idE ∈ L(E).
La bilinéarité assure la distributivité de ◦ par rapport à +.
Remarque IV.21. En particulier on pourra utiliser toutes les règles de calcul dans les anneaux : puissances,
binômes (en cas de commutativité), nilpotence, etc. Pour la composition, si f, g ∈ L(E), on notera plus
simplement gf au lieu de g ◦ f , et f k (pour k ∈ N) au lieu de f ◦ · · · ◦ f . Si de plus f ∈ GL(E), alors on
| {z }
k fois
notera f k pour k ∈ Z, défini f k si k ∈ N et (f −1 )−k si k < 0.
De plus, dès lors que E n’est pas une droite ou {0}, alors L(E) n’est pas commutatif.
Corollaire IV.22. (GL(E), ◦) est un groupe.
En particulier, c’est un sous-groupe de S(E).
Démonstration. Il s’agit du groupe des inversibles de l’anneau (L(E), +, ◦).
314 CHAPITRE 20. ESPACES VECTORIELS ET APPLICATIONS LINÉAIRES
où l’écriture x = xF + xG est l’unique écriture d’un élément de E comme somme d’un élément de F et
d’un élément de G.
G G
xG x = x F + xG xG x = xF + xG
F
F
xF = p(x) xF = p(x)
Remarques IV.24.
1. Le fait que F et G soient supplémentaires permet d’avoir une application bien définie : la somme
directe permet qu’elle soit bien définie sur F + G, et le fait que F + G = E permet donc de la définir
sur E entier.
2. Si on inverse les rôles de F et G, on obtient un autre projecteur q tel que p + q = idE .
Proposition IV.25. Avec les mêmes notations, p est un endomorphisme idempotent de E, c’est-à-dire
tel que p ◦ p = p.
Démonstration. La linéarité vient de l’unicité de l’écriture : si x, y ∈ E avec x = xF +xG et y = yF +yG ∈ E
leurs décompositions, et λ ∈ K, alors :
λ · x + y = λ · (xF + xG ) + (yF + yG ) = λ · xF + yF + λ · xG + yG
| {z } | {z }
∈F ∈G
donc p(p(x)) = xF = p(x). Et comme ceci est vrai pour tout x, on a bien p ◦ p = p.
Théorème IV.26. Les projecteurs de E sont exactement les endomorphismes idempotents p de E.
Pour un tel p, il s’agit plus précisément de la projection sur Imp parallèlement à Kerp.
Démonstration. On a déjà vu qu’un projecteur est un endomorphisme idempotent.
Réciproquement, soit p ∈ L(E) vérifie p ◦ p = p. Montrons que Imp et Kerp sont supplémentaires, et que
p est le projecteur sur Imp parallèlement à Kerp.
IV. APPLICATIONS LINÉAIRES 315
donc Imp ∩ Kerp = {0}, donc Imp et Kerp sont en somme directe.
Donc Imp et Kerp sont supplémentaires.
Mais alors, on a pour tout x ∈ E :
x = p(x) + (x − p(x))
|{z} | {z }
∈Imp ∈Kerp
donc p est l’application qui associe à x sa composante suivant Imp associé à la décomposition E =
Imp ⊕ Kerp : c’est donc le projecteur sur Imp parallèlement à Kerp.
Remarque IV.27. Comme Imp et Kerp sont supplémentaires, on déduit que l’on a l’équivalence : Imp =
E ⇔ Kerp = {0}. Ainsi, on a équivalence entre : p injectif, p surjectif et p bijectif (ce qu’on avait déjà vu
avec les applications idempotentes), et que dans ce cas p = id.
Proposition IV.28. Si p ∈ L(E), alors p est un projecteur si, et seulement si :
et ces ensembles ont un rôle très important pour analyser des endomorphismes.
Démonstration. Si p est un projecteur :
— comme p ◦ p = p, alors pour tout x ∈ Imp, on a : p(x) = x donc Imp ⊂ Ker(p − idE ) ;
— réciproquement, si p(x) = x, alors : x est sa propre image donc x ∈ Imp.
ce qui montre bien l’égalité.
Si Imp = Ker(p − idE ), alors pour tout x ∈ E, on a p(x) ∈ Imp = Ker(p − idE ), et donc : p(p(x)) = x.
Donc p est idempotent : c’est un projecteur.
Remarque IV.30. Dans la démonstration, on voit que seule l’inclusion Imp ⊂ Ker(p − idE ) est liée au fait
d’avoir un projecteur : l’autre inclusion est en fait toujours vérifiée.
M + MT
Exemple IV.31. Considérons l’application φ ∈ L(Mn (K)) telle que φ : M 7→ .
2
Alors φ est le projecteur sur Sn (K) parallèlement à An (K). On a en effet :
T
M +M T M +M T
2
+ 2
M +M T +M T +M
M + MT
2
∀M ∈ Mn (K), φ ◦ φ(M ) = = = = φ(M )
2 2 2
donc φ est une application linéaire involutive : c’est un projecteur.
De plus, on a pour tout M ∈ Mn (K) :
316 CHAPITRE 20. ESPACES VECTORIELS ET APPLICATIONS LINÉAIRES
M +M T
— M ∈ Kerφ ⇔ = 0 ⇔ M + M T = 0 ⇔ M ∈ An (K), donc Kerφ = An (K) ;
2
M + MT
— M ∈ Imφ ⇔ M ∈ Ker(φ − id) ⇔ φ(M ) = M ⇔ = M ⇔ M = M T ⇔ M ∈ Sn (K).
2
Définition IV.32. Soit E un espace vectoriel, et F, G deux sev supplémentaires de E. On appelle alors
symétrie par rapport à F parallèlement à G l’application :
E → E
s:
x = xF + xG 7→ xF − xG
où l’écriture x = xF + xG est l’unique écriture d’un élément de E comme somme d’un élément de F et
d’un élément de G.
G G
xG x = xF + xG xG x = xF + xG
F
F
xF xF
−xG −xG
s(x) = xF − xG s(x) = xF − xG
Proposition IV.33. Avec les mêmes notations, si p désigne le projecteur sur F parallèlement à G, alors :
s = 2p − idE .
Corollaire IV.34. Avec les mêmes notations, s est un endomorphisme de E involutif, c’est-à-dire tel que
s ◦ s = idE .
en utilisant quand p2 = p.
∀i ∈ I, f (xi ) = yi .
P
Démonstration. Si une telle application f existe : considérons x ∈ E, que l’on écrit x = i∈I λi xi (pour
(λi ) famille de scalaires à support fini). Et alors par linéarité :
!
X X X
f (x) = f λi · xi = λi · f (xi ) = λi y i
i∈I i∈I i∈I
où l’écriture a bien un sens comme l’écriture de x comme combinaison linéaire des xi existe, et est unique.
Donc f est donnée par la formule précédente.
Reste à montrer que f est linéaire : si x = i∈I λi xi et x′ = i∈I µi xi . Alors pour tout λ ∈ K on a :
P P
X
λx + x′ = (λλi + µi ) · xi
i∈I
et ainsi :
! !
X X X
f (λ · x + x′ ) = (λ · λi + µi )yi = λ · λ i · xi + µ i · xi = λ · f (x) + f (x′ )
i∈I i∈I i∈I
Remarque IV.38. On voit bien qu’on a besoin d’une base tant pour l’aspect libre (pour que f soit bien
définie) que générateur (pour qu’elle soit définie partout).
Corollaire IV.39. Si B est une base de E, deux applications de L(E, F ) sont égales si, et seulement si,
elles coı̈ncident sur B.
Remarque IV.40. Notons qu’il faut a priori avoir une base de E pour utiliser ce résultat, ce qui n’est pas
toujours le cas.
Théorème IV.41. Étant données (xi )i∈I une base de E et (yi )i∈I une famille de E, alors l’application
f ∈ L(E, F ) qui vérifie pour tout i ∈ I que f (xi ) = yi est :
1. injective si, et seulement si, (yi )i∈I est libre ;
2. surjective si, et seulement si, (yi )i∈I engendre F ;
3. bijective si, et seulement si, (yi )i∈I est une base de F .
Démonstration. Comme une famille est une base si, et seulement si, elle est libre et génératrice, et qu’une
application est bijective si, et seulement si, elle est injective et surjective, alors il suffit de montrer les deux
premiers points.
P
P Ker(f ) = {0}. Considérons (λi ) à support fini telle que i∈I λi yi = 0.
1. Si f est injective : alors
Alors, en posant x = i∈I λi xi , on a :
X
f (x) = λi yi = 0
i∈I
P
donc x ∈ Kerf , donc x = i∈I λi xi = 0. Mais la famille (xi ) est une base de E, donc elle est libre,
et donc la famille (λi ) est nulle, donc la famille (yi ) est libre.
P
Réciproquement, si (yi ) est libre : soit x ∈ Kerf . On écrit x = i∈I λi xi , de telle sorte que :
X
f (x) = 0 = λi y i
i∈I
et comme la famille (yi ) est libre, on déduit que (λi ) est la famille nulle, donc x = 0. Ce qui montre
l’autre implication.
2. On a déjà vu que l’image d’une famille génératrice engendre l’image d’un application linéaire. Et
ainsi on a : Imf = Vect(f (xi )) = Vect(yi ). Et donc f est surjective si, et seulement si, Vect(yi ) = F ,
c’est-à-dire que (yi ) engendre F .
3. Découle des deux points précédents.
Exemple IV.42. Considérons E un espace vectoriel, (e1 , . . . , en ) famille d’éléments de E. On pose l’appli-
cation :
Kn → E
φ: Pn .
(λ1 , . . . , λn ) 7→ i=1 λi ei
Suivant les notations précédentes, l’application φ n’est autre que l’unique application linéaire de Kn dans
E qui envoie les vecteurs de la base canonique sur la famille (ei ). On trouve ainsi que la famille (ei ) est
une base de E si, et seulement si, l’application φ est bijective.
Et c’est bien ce qu’on avait trouvé pour les bases, puisque la bijectivité de φ revient à dire que tout élément
de E a un unique antécédent par φ dans Kn , c’est-à-dire que tout élément de E s’écrit de manière unique
comme combinaison linéaire d’éléments de la famille (ei ).
Proposition IV.43. Soient F, G deux sev de E supplémentaires, et soit H un K-ev.
Pour tout couple (f, g) ∈ L(F, H) × L(G, H), il existe une unique application linéaire h ∈ L(E, H) telle
que : h|F = f et h|G = g.
Démonstration. Si un tel h existe, il est nécessairement défini par le fait que :
∀x ∈ E, x = xF + xG ⇒ h(x) = h(xF ) + h(xG ) = f (xF ) + g(xG )
|{z} |{z}
∈F ∈G
donc :
h(λx + y) = f (λxF + yF ) + g(λxG + yG )
= λf (xF ) + f (yF ) + λg(xG ) + g(yG )
= λh(x) + h(y)
ce qui assure la linéarité de h.
— si x ∈ F : alors x = |{z}
x + |{z}0 donc h(x) = f (x) + g(0) = f (x), donc h|F = f .
∈F ∈G
— de même h|G = g.
Ce qui montre l’existence.
Exemples IV.45.
1. Si on se place sur R3 , l’application : (x, y, z) 7→ x + y + z est une forme linéaire.
On peut même voir que, comme une application linéaire est entièrement définie par l’image d’une
base, toute forme linéaire sur R3 est de la forme (x, y, z) 7→ ax + by + cz, où a, b, c sont les images
respectives des vecteurs de la base canonique de R3 .
2. RSur Kn [X], on peut considérer les applications φ : P 7→ P (a) (pour a ∈ K) ou encore ψ : P 7→
1
0
P (t)dt : ce sont deux formes linéaires, que l’on peut aussi chercher à exprimer à l’aide des images
des vecteurs de la base canonique.
Pour φ : si k ∈ J0; nK, alors φ(X k ) = ak et on retrouve que φ( nk=0 ak X k ) = nk=0 ak ak , donc pas
P P
très instructif.
Pour ψ : si k ∈ J0; nK, alors ψ(X k ) = k+1 1
, et donc : ψ( nk=0 ak X k ) = nk=0 k+1
ak
P P
, ce qui facilite les
calculs.
3. Plus généralement, les applications φ et ψ peuvent s’étendre en des formes linéaires sur F(Ω, K) et
C 0 (R, K) respectivement, mais on perd alors l’existence de base.
Définition IV.46. Si E est un K-ev et H est un sev de E, on dira que H est un hyperplan (vectoriel)
s’il existe une forme linéaire φ non nulle telle que H = Kerφ.
Exemples IV.47.
1. Dans R3 , l’ensemble {(x, y, z) ∈ R3 | x + y + z = 0} est un hyperplan, en tant que noyau de la forme
linéaire (x, y, z) 7→ x + y + z, qui est non nulle. Plus généralement, si a, b, c ∈ R sont non tous nuls,
l’ensemble {(x, y, z) ∈ R3 | ax + by + cz = 0} = Ker((x, y, z) 7→ ax + by + cz) est un hyperplan.
2. Si Ω est une ensemble quelconque et a ∈ Ω, l’ensemble {f ∈ F(Ω, R) | f (a) = 0} = Ker(f 7→ f (a))
est un hyperplan. Par exemple, si Ω = N : pour tout n0 ∈ N, l’ensemble {(un ) ∈ KN | un0 = 0} est
un hyperplan.
Rb
3. L’ensemble {f ∈ C 0 ([a, b], K) | a f (t)dt = 0} est un hyperplan de C 0 ([a, b], K). Si E est l’ensemble
R 2π
des fonctions continues 2π-périodiques, alors l’hyperplan {f ∈ E | 0 f (t)dt = 0} est l’ensemble
des fonctions continues 2π-périodiques dont les primitives sont périodiques.
320 CHAPITRE 20. ESPACES VECTORIELS ET APPLICATIONS LINÉAIRES
Théorème IV.48. Un sev H de E est un hyperplan si, et seulement si, c’est un supplémentaire d’une
droite.
Dans ce cas, c’est même un supplémentaire de toute droite qu’il ne contient pas.
Démonstration. Soit H un hyperplan : notons φ ∈ E ∗ tel que H = Kerφ. Comme φ ̸= 0, il existe u ∈ E
tel que φ(u) ̸= 0 (et donc nécessairement u ∈
/ H). Montrons que E = H ⊕ D, où D = Vect(u) :
φ(x) φ(x)
— soit x ∈ E : alors x = x − u+ u, avec xH ∈ H comme par linéarité φ(xH ) = φ(x) −
φ(u) φ(u)
| {z } | {z }
=xH =xD
φ(x)
φ(u) = 0 et xD ∈ D par construction. Donc E = H + D.
φ(u)
— soit x ∈ H ∩ D : alors x = λu, pour λ ∈ K, et φ(x) = 0. Donc par linéarité : 0 = φ(x) = λ · φ(u)
|{z}
̸=0
donc λ = 0, puis x = 0. Donc H ∩ D = {0}.
Et finalement E = H ⊕ D.
La seule propriété utilisée pour u est que φ(u) ̸= 0, on peut le remplacer pour tout élément de E \ H, ce
qui montre le dernier résultat (comme contenir un vecteur est équivalent à contenir la droite qu’il engendre
pour un espace vectoriel).
Si H est le supplémentaire d’une droite D. Notons u ∈ E tel que D = Vect(u). Alors l’application :
E → K
φ:
x = xH + λ · u 7→ λ
x ∈ Kerφ ⇔ λ = 0 ⇔ x = xH ∈ H
φ(u)
φ(x) = µ · φ(u) et λψ(x) = · µ · φ(u) = µ · φ(u)
ψ(u)
et ainsi : φ = λψ, donc φ et ψ sont colinéaires.
V. SOUS-ESPACES AFFINES D’UN ESPACE VECTORIEL 321
Remarque V.3. Les translations permettent de faire le lien entre points et vecteurs, dans le sens où le
point A et le vecteur →
−
a décrivent le même élément de E si :
τ−
a (0) = A.
→
−→ −
Pour A, B deux points et →
−
u un vecteur, on notera B = A + → −
u ou AB = → u si B = τ−u (A).
→
→
− −→ → −
La correspondance entre un point A et son vecteur a est donnée par : OA = a (où O est le point associé
au vecteur nul).
Proposition-Définition V.5. Dans l’écriture précédente, le choix de F est unique, mais pas celui de a. Plus
précisément, les espaces affines F + a et F ′ + a′ sont égaux si, et seulement si : F = F ′ et (a − a′ ) ∈ F .
L’espace vectoriel F est appelé la direction de l’espace affine F + a.
x = a + y − a′ = (a − a′ ) + y ∈ F
| {z } |{z}
∈F ∈F
u = a′ + (a + x) − a′ = a′ + (a − a′ ) + x ∈ a′ + F
| {z }
∈F
donc a + F ⊂ a + F ′ .
— comme a − a′ ∈ F , en échangeant les rôles de a et a′ , on trouve que :a′ + F ⊂ a + F .
et ainsi a + F = a′ + F .
Définition V.7. Un espace affine dont la direction est une droite (resp. un hyperplan) est appelé une droite
affine (resp. un hyperplan affine).
Exemples V.8.
1. Dans R2 , toute droite affine est donnée par une équation de la forme ax + by + c = 0, avec a ou b
non nul. La direction d’une telle droite est la droite vectorielle d’équation ax + by = 0.
2. Dans R3 , les hyperplans vectoriels sont donnés par des équations de la forme ax + by + xz + d = 0,
avec a, b, c non tous nuls, et la direction d’un tel hyperplan est l’hyperplan vectoriel d’équation
ax + by + xz = 0.
T
Démonstration. Soient (Fi )i∈I une famille d’espaces affines. Supposons que i∈I Fi est non vide, et notons
a un de ses éléments, de sorte que a appartient à chaque Fi , et donc :
∀i ∈ I, Fi = Fi + a
T
x∈ i∈I Fi ⇔ ∀i ∈ I, x ∈ Fi = Fi + a
⇔ ∀i ∈ I, ∃xi ∈ Fi , x = xi + a
⇔ ∀i ∈ I, ∃xi ∈ Fi , x − a = xi
⇔ ∀i ∈ I, xT− a ∈ Fi
⇔ x−T a ∈ i∈I Fi
⇔ x ∈ i∈I Fi + a
T T
et ainsi : i∈I Fi = i∈I Fi + a.
−−→ −−→
Démonstration. Si F ∩ G ̸= ∅, notons M un de ses points. Alors AM ∈ F et M B ∈ G. Et donc :
−→ −−→ −−→
AB = AM + M B ∈ F + G.
−→ →
− →
−
Réciproquement, si AB = |{z} v . Notons M = A + →
u + |{z} −u . Alors :
∈F ∈G
— M ∈ F par construction ;
−−→ −→ z}|{
— BM = BA + AM = −→ −u −→ −
v +→ −
u = −→
−
v ∈ G, donc M ∈ G.
donc F ∩ G contient M , donc est non vide.
V. SOUS-ESPACES AFFINES D’UN ESPACE VECTORIEL 323
−→
AB
→
−
v
A F
→
−
u M =A+→
−
u =B−→
−
v
Exemple V.11. Dans R2 , deux droites vectorielles distinctes sont supplémentaires, donc engendrent tout
l’espace. Ainsi, deux droites qui ne se coupent pas ont nécessairement la même direction : elles sont
parallèles.
Exemples V.14.
1. si A ∈ Mn,p (K) et B ∈ Mn,1 (K), alors les solutions du système AX = B, si elles existent, forment
un espace affine dirigé par Ker(X 7→ AX), c’est-à-dire dirigé par l’espace vectoriel des solutions de
l’équation homogène.
2. les solutions d’une équation différentielle linéaire forment un espace affine dirigé par l’espace vec-
toriel des solutions de l’équation homogène associée. Pour le premier degré, on a en effet que, pour
f dérivable : f ′ + af = b ⇔ φ(f ) = b, où φ : f 7→ f ′ + af est une application linéaire. Et c’est
pareil pour les degrés plus grands.
3. si a, b ∈ K avec a ̸= 1, l’ensemble des suites arithmético-géométriques telles que un+1 = aun + b est
b
un espace affine, contenant la suite constante de valeur et dirigée par l’espace vectoriel des
1−a
suites géométriques de raison a.
4. Si x1 , . . . , xn sont des scalaires deux-à-deux distincts, et y1 , . . . , yn sont des scalaires (quelconques),
alors l’ensemble {P ∈ K[X] | ∀i ∈ J1, nK, P (xi ) = yi } est un sous-espace affine dirigé par F =
{(X − x1 ) . . . (X − xn )P | P ∈ K[X]}.
324 CHAPITRE 20. ESPACES VECTORIELS ET APPLICATIONS LINÉAIRES
Remarques V.15.
1. Si E = K, alors f est une forme linéaire, donc si f ̸= 0 on obtient un hyperplan affine.
2. Si y = 0, on retrouve directement Kerf , qui est un espace vectoriel. C’est en fait le seul cas car si
l’ensemble solution est un espace vectoriel, il contient 0 donc y = f (0) = 0.
Chapitre 21
Dans tout ce chapitre, on désigne K un corps (par exemple R ou C), dont les éléments seront appelés
scalaires.
Exemples I.2.
1. Les espaces Kn , Kn [X] ou Mn,p (K) sont de dimension finie, puisque l’on a donné des familles
génératrices (et même des bases) finies.
2. L’espaces K[X] est de dimension infinie, car on peut voir qu’aucune famille finie n’est génératrice
(en raisonnant sur les degrés). On verra que les espaces KN et F(R, K) sont également de dimension
infinie.
Proposition I.3. Soit E un espace vectoriel de dimension finie, engendré par une famille à n éléments.
Alors toute famille libre possède au plus n éléments.
Remarque I.4. On utilisera souvent la contraposée, à savoir que toute famille de cardinal strictement plus
grand que n est liée.
Démonstration. Montrons la contraposée. Comme une famille contenant une famille liée est elle-même liée,
il suffit de montrer que toute famille de cardinal n + 1 est liée.
Montrons par récurrence sur n que : si E possède une famille génératrice de cardinal n, toute famille de
cardinal n + 1 d’éléments de E est liée :
— si n = 0 : alors E est engendré par une famille vide, donc E = {0}. Une famille à 1 élément contient
un élément de E, donc 0, donc est liée ;
— supposons le résultat vrai pour n ∈ N. Soit (x1 , . . . , xn+1 ) une famille qui engendre E, et (y1 , . . . , yn+2 )
une famille d’éléments de E (de cardinal n + 2). Posons F = vect(x1 , . . . , xn ), et écrivons pour tout
i ∈ J1; n + 2K :
yi = zi + λi xn+1
avec zi ∈ F et λi ∈ K, qui existent bien comme la famille (xi ) engendre E.
Si tous les λi sont nuls, alors tous les yi sont des éléments de F et on applique directement l’hypothèse
de récurrence (comme F est engendré par n éléments), et la famille (y1 , . . . , yn+2 ) est liée.
325
326 CHAPITRE 21. ESPACES VECTORIELS DE DIMENSION FINIE
Sinon, il existe i tel que λi ̸= 0. Quitte à renuméroter les yi , on peut supposer que λ1 ̸= 0. Posons
alors pour tout i ∈ J2; n + 2K :
λi
zi′ = yi − y1
λ1
Alors pour un tel i on a :
λi λi
zi′ = zi + λi xn+1 − (z1 + λ1 xn+1 ) = zi − z1 ∈ F.
λ1 λ1
Par hypothèse de récurrence, la famille (z2′ , . . . zn+2
′
) est liée (possédant n + 1 éléments dans un
espace engendré par n éléments). Donc il existe µ2 , . . . , µn+2 non tous nuls tels que :
n+2
X
µi zi′ = 0.
i=2
où les µi sont non tous nuls (par construction). Donc la famille (y1 , . . . , yn+2 ) est liée, ce qui prouve
l’hérédité.
D’où le résultat par récurrence.
Théorème-Définition I.5 (Dimension d’un espace vectoriel). Si E est un espace vectoriel de dimension
finie, toutes ses bases ont même cardinal fini. Ce cardinal est appelé dimension de E, que l’on note
dim E (ou dimK E quand on veut préciser le corps).
Démonstration. Soient B1 = (x1 , . . . , xn ) et B2 = (y1 , . . . , ym ) deux bases de E. Notons déjà que, en tant
que familles libres dans un espace de dimension fini, ces bases sont finies.
Par la proposition précédente :
— comme B1 est génératrice et B2 est libre, alors m ≤ n ;
— comme B2 est génératrice et B1 est libre, alors n ≤ m.
Et donc m = n.
Remarques I.6.
1. Ce théorème ne donne pas l’existence de base, mais celles-ci existent toujours en dimension finie
comme on le verra plus loin. Il dit en revanche que la dimension est le nombre de coordonnées,
c’est-à-dire concrètement le nombre de degrés de liberté (ou de paramètres) pour décrire un espace
vectoriel de dimension finie.
2. On parlera de manière analogue d’un espace affine de dimension finie, si sa direction est un espace
de dimension finie, et sa dimension sera alors la dimension de l’espace affine.
Exemples I.7.
1. dim Kn = n ;
2. dim Kn [X] = n + 1 ;
3. dim Mn,p (K) = n × p (et en particulier dim Mn (K) = n2 ) ;
4. dimC C = 1 mais dimR C = 2. Plus généralement, si E est un espace vectoriel de dimension finie
sur C, c’est aussi un espace vectoriel de dimension finie sur R avec : dimR E = 2 · dimC E.
I. DIMENSION ET BASE D’UN ESPACE VECTORIEL 327
Exemples I.9.
1. L’ensemble des solutions homogènes d’une équation différentielle linéaire d’ordre n est un espace
vectoriel de dimension n : il s’agit donc d’une droite vectorielle pour les équations de degré 1, et
d’un plan vectoriel pour celles de degré 2.
2. L’ensemble des suites linéaires vérifiant une même relation de récurrence linéaire d’ordre 2 est un
plan vectoriel.
Proposition I.10. Si E, F sont deux espaces vectoriels de dimension finie, alors E × F est un espace
vectoriel de dimension finie avec dim(E × F ) = dimE + dimF .
P P
2. elle est libre : si i λi (ei , 0) + j µj (0, fj ) = 0, alors en regardant coordonnée par coordonnée on
trouve : X X
λi ei = 0 et µj f j = 0
i j
et donc, comme les familles (ei ) et (fj ) sont libres, les familles (λi ) et (µj ) sont nulles ; donc on a
bien une famille libre.
Et le résultat sur la dimension en découle naturellement.
Proposition I.17. Soit E un espace vectoriel de dimension n ∈ N∗ , et (xi ) une famille de cardinal n. Alors
on a l’équivalence :
(xi ) est libre ⇔ (xi ) est génératrice ⇔ (xi ) est une base.
Démonstration. Il suffit de montrer que, si (xi ) est libre ou génératrice alors c’est une base (les réciproques
étant évidentes). On a en effet :
— si (xi ) est libre : on peut la compléter en une base ; mais comme (xi ) est de cardinal n, sa base
complétée aura même cardinal, donc (xi ) sera sa propre base complétée, donc est bien une base ;
— si (xi ) est génératrice : on peut en extraire une base ; mais comme (xi ) est de cardinal n, sa base
extraite aura même cardinal, donc (xi ) sera sa propre base extraite, donc est bien une base.
Remarque I.18. En pratique, étant donné un espace vectoriel dont on connaı̂t la dimension, pour montrer
qu’une famille en est une base, on montrera qu’elle est libre et a le bon cardinal. On pourra montrer qu’elle
est génératrice (au lieu de libre), mais c’est en général plus difficile.
II. SOUS-ESPACES VECTORIELS EN DIMENSION FINIE 329
Exemple I.19. Soient a ̸= b ∈ C. Montrons que la famille (X − a)k (X − b)n−k k∈J0;nK est une base de
Cn [X].
Comme dim Cn [X] = n + 1, alors la famille considéré a bon cardinal : il suffit de montrer qu’elle est libre
ou génératrice pour avoir que c’est une base.P
Et elle est libre : si λ0 , . . . , λn ∈ C vérifient nk=0 λk (X − a)k (X − b)n−k = 0, alors :
— en évaluant en a, il vient λ0 (a − b)n = 0, donc λ0 = 0 ;
— en simplifiant par (X − a) puis en évaluant à nouveau en a, il vient : λ1 = 0 ;
— et en continuant à diviser par (X − a) et évaluer en a, on trouve λ0 = λ1 = · · · = λn = 0.
Donc la famille est libre : donc c’est une base de Cn [X].
On peut aussi montrer qu’elle est génératrice, ce qui se fait bien par récurrence sur n ∈ N :
— si n = 0 : alors la famille possède pour seul élément le polynôme constant de valeur 1, qui engendre
bien C0 [X] (l’ensemble des polynômes constants), et dont c’est même la base canonique ;
— soit n ∈ N tel que la famille au rang n engendre Cn [X]. Considérons la famille au rang (n + 1), et
montrons qu’elle engendre Cn+1 [X].
Pour cela, soit P ∈ Cn+1 [X]. Alors, comme a ̸= b, on peut considérer le polynôme :
P (a)
Q=P− · (X − b)n+1
(a − b)n+1
P (a)
Q(a) = P (a) − n+1
· (a − b)n+1 = 0
(a − b)
qui est bien un combinaison linéaire des (X − a)k (X − b)n+1−k pour k ∈ J0; n + 1K.
D’où la récurrence.
Et ainsi on a bien montré que la famille est génératrice.
majorée (par dim E, comme toute famille libre d’éléments de F est une famille libre d’éléments de E) donc
admet un plus grand élément n.
Notons (x1 , . . . , xn ) famille libre de F . Montrons que c’est une base. Il suffit de prouver qu’elle est généra-
trice.
Soit x ∈ F . La famille (x1 , . . . , xn , x) est de cardinal (n + 1), donc liée (par définition de n), et comme
(x1 , . . . , xn ) est libre cela veut donc dire que x est combinaison linéaire de x1 , . . . , xn : la famille (xi ) est
donc bien génératrice.
Donc finalement F admet une base de cardinal n ≤ dim E, ce qui prouve le résultat.
Si dim E = dim F , toute base de F est également une base de E (en tant que famille libre d’élément de E
de “bon” cardinal), donc E = F (en tant qu’espace engendré par cette base).
Remarques II.2.
1. Le résultat est faux en dimension infinie. Par exemple, si E = R[X] et F = {P ∈ R[X] | P (0) = 0},
alors F est un sev de E, et F et E ont même dimension (infinie) mais F ̸= E.
2. Ce résultat dit aussi que l’application :
{F sev de E} → N
φ:
F 7→ dimF
est une application strictement croissante (où on prend comme relations d’ordre l’inclusion au
départ, et la relation d’ordre usuelle à l’arrivée).
Exemples II.3.
1. Dans R2 , les sous-espaces non triviaux sont les espaces de dimension 1 (donc les droites).
2. Dans R3 , ce sont les espaces de dimension 1 ou 2, donc les plans et les droites.
Définition II.4. Étant donnée une famille (xi )i∈I (finie ou non) d’un espace vectoriel E de dimension finie,
on appelle rang de la famille (xi ) la dimension de l’espace vect((xi )i∈I ), que l’on notera rg((xi )i∈I ).
Remarque II.5. Pour une famille finie (x1 , . . . , xn ), on notera rg(x1 , . . . , xn ) son rang.
On peut généraliser à une famille finie dans un espace quelconque : on raisonne alors dans l’espace vectoriel
engendré, qui est de dimension finie.
Proposition II.6. On considère (xi )i∈I famille d’éléments de E. Alors :
1. si E est de dimension finie : (xi ) est génératrice si, et seulement si, rg((xi )) = dim E ;
2. si I est fini : rg((xi )) ≤ card(I), avec égalité si, et seulement si, la famille (xi ) est libre.
Démonstration. On pose F = Vect(xi ), de sorte que dim(F ) = rg(xi ). Et alors :
1. (xi ) est génératrice si, et seulement si, E = F , c’est-à-dire dim(E) = dim(F ) = rg(xi ) si E est de
dimension finie ;
2. (xi ) engendre F , donc est de cardinal au moins dim(F ), avec égalité si, et seulement si, c’est une
base, c’est-à-dire qu’elle est libre (comme elle est déjà génératrice).
Remarque II.8. En fait on a un résultat plus fort : si F, G sont deux espaces de dimension finie, on a
équivalence entre :
1. la somme F + G est directe ;
2. la concaténation de deux bases de F et G est une base de F + G ;
3. dim (F + G) = dim F + dim G.
Qui se démontre sensiblement de la même manière.
Dans ce cas, une base de F + G obtenue par concaténation d’une base de F et d’une base de G sera appelée
base adaptée à la décomposition en somme directe F ⊕ G. Le point important étant qu’il existe des bases
non adaptées.
Théorème II.9 (Formule de Grassmann). Soient F et G deux sous-espaces vectoriels de dimensions finies
d’un espace vectoriel E (quelconque). Alors :
Démonstration. Considérons (e1 , . . . , ep ) une base de F ∩ G (ce qui a bien un sens comme F ∩ G est un
sous-espace de F ou de G, donc est de dimension finie.
On complète la famille (e1 , . . . , ep ) des deux manières suivantes :
— en (e1 , . . . , ep , f1 , . . . , fn ) pour avoir une base de F ;
— en (e1 , . . . , ep , g1 , . . . , gm ) pour avoir une base de G.
Et on a déjà que p = dim (F ∩ G), n + p = dim F et m + p = dim G.
Montrons que la famille (e1 , . . . , ep , f1 , . . . , fn , g1 , . . . , gm ) est une base de F + G :
— elle est génératrice : si x ∈ F + G, on écrit x = xF + xG pour xF ∈ F et xG ∈ G. Comme
(e1 , . . . , ep , f1 , . . . , fn ) et (e1 , . . . , ep , g1 , . . . , gm ) sont respectivement des bases (donc génératrices)
de F et G, il existe de familles (αi ), (βi ), (λj ), (µk ) telles que :
X X X X
xF = αi ei + λj fj et xG = βi ei + µk gk
i j i k
et donc : X X X
x= (αi + βi )ei + λj f j + µk gk
i j k
alors : X X X
αi ei + λj f j = − µk gk ∈ F ∩ G
i j k
| {z } | {z }
∈F ∈G
Comme la famille (e1 , . . . , ep , g1 , . . . , gm ) est libre, cela donne que tous les µk sont nuls. Et il vient
alors : X X
αi e i + λj f j = 0
i j
et comme la famille (e1 , . . . , ep , f1 , . . . , fn ) est libre on trouve de même que les αi et λj sont nuls, ce
qui donne bien que la famille est libre.
On a donc une base de F + G, qui est de cardinal n + m + p, qui est donc la dimension de F + G. Et on a
bien :
dim(F + G) = p + n + m = (p + n) + (p + m) − p = dim F + dim G − dim (F ∩ G).
Corollaire II.10. Soient F, G deux sev d’un espace vectoriel E de dimension finie. Alors F et G sont
supplémentaires dans E si, et seulement si, deux des assertions suivantes sont vérifiées :
1. E = F + G ;
2. F ∩ G = {0} ;
3. dim F + dim G = dim E.
et alors les trois assertions sont vérifiées.
Démonstration. Les deux premières assertions sont la définition d’être supplémentaire. Et la proposition
précédente assure le résultat sur la dimension.
Il suffit donc de montrer que, si deux autres assertions que sont vérifiées, alors les deux premières sont
vérifiées pour avoir le résultat :
— si E = F + G et dim F + dim G = dim E : alors par la formule de Grassmann, comme E = F + G,
on a dim (F ∩ G) = 0, donc F ∩ G = {0} et F et G sont supplémentaires dans E ;
— si F ∩ G = {0} et dim F + dim G = dim E : alors par la formule de Grassmann dim(F + G) =
dim F + dim G = dim E, donc (F + G) est un sev de E de même dimension finie que E, donc
F + G = E et F et G sont supplémentaires dans E.
Corollaire II.11. Dans un espace E de dimension finie, tout sev F de E admet des supplémentaires. De
plus, ils ont tous même dimension, à savoir dim E − dim F .
Démonstration. Pour l’existence, on considère (f1 , . . . , fn ) une base de F (de sorte que n = dim, F ), qu’on
complète en une base de E : (f1 , . . . , fn , g1 , . . . , gm ) (avec donc dim E = n + m).
On pose G = vect(g1 , . . . , gm ). Comme (g1 , . . . , gm ) est libre, alors c’est une base de G, donc dim G = m.
Et ainsi on a : E = vect(f1 , . . . , fn , g1 , . . . , gm ) = F + G et dim E = dim F + dim G, donc F et G sont bien
supplémentaires dans E.
Le résultat sur la dimension découle de la formule de Grassmann.
Remarque II.12. Ces résultats se généralisent à davantage de sous-espaces, ce que l’on pourrait prouver
de manière analogue, ou en utilisant des résultats sur les applications linéaires en dimension finie (qu’on
verra plus loin).
III. APPLICATIONS LINÉAIRES EN DIMENSION FINIE 333
Pn
Proposition II.13. Si F1 , . . . , Fn sont des sev d’un espace E de dimension finie, alors i=1 Fi est un sev
de E de dimension finie tel que : !
Xn Xn
dim Fi ≤ dimFi
i=1 i=1
et par liberté de la famille (fi ) on déduit que tous les λi,k sont nuls. Donc tous les λi,j sont nuls, et
la famille (φi,j ) est libre ;
— soit φ ∈ L(E, F ) : pour tout k ∈ J1; pK, on a φ(ek ) ∈ F , donc comme la famille (fi ) engendre F il
existe des scalaires λi,k tels que :
X
φ(ek ) = λi,k fi .
i
P
Montrons qu’alors : φ = i,j λi,j φi,j . Par détermination d’une application linéaire, il suffit de voir
que les deux applications coı̈ncident sur une base de E. Mais par construction, on a justement que
pour tout k ∈ J1; pK :
!
X X X X
λi,j φi,j (ek ) = λi,j φi,j (ek ) = λi,j δk,j fi = λi,k fi = φ(ek )
i,j i,j i,j i
Corollaire III.3. Si E est un espace vectoriel de dimension finie, et f ∈ L(E), alors il y a équivalence
entre :
1. f est inversible : il existe g ∈ L(E) telle que g ◦ f = idE = f ◦ g ;
2. f est inversible à gauche : il existe g ∈ L(E) telle que g ◦ f = idE ;
3. f est inversible à droite : il existe g ∈ L(E) telle que f ◦ g = idE .
Et dans ce cas on a : g = f −1 .
Démonstration. L’inversibilité est en fait la bijectivité. Il suffit alors de constater que :
— si g ◦ f = idE : alors g ◦ f est injective, donc f également, donc f est bijective ;
— si f ◦ g = idE : alors f ◦ g est surjective, donc f également, donc f est bijective.
Et les réciproques découlent de la bijectivité.
Et en composant par f −1 (à gauche ou à droite) dans les égalités ci-dessus, on obtient bien que g = f −1 .
Définition III.4. Deux espaces vectoriels E, F sont dits isomorphes s’il existe une application linéaire
bijective de E sur F .
Théorème III.5. Si E, F sont deux espaces vectoriels avec l’un des deux de dimension finie, ils sont
isomorphes si, et seulement si, ils ont même dimension.
Démonstration. Si E, F ont même dimension : notons n cette dimension (qui est finie par hypothèse),
et posons (e1 , . . . , en ), (f1 , . . . , fn ) des bases de E et F respectivement. Alors l’application φ ∈ L(E, F )
définie par φ(ei ) = fi pour tout i ∈ J1; nK envoie une base sur une base : elle est donc bijective. Donc E et
F sont isomorphes.
Si E, F sont isomorphes : supposons par exemple que E est de dimension finie n, et notons φ : E →
F application linéaire bijective. Soit (e1 , . . . , en ) une base de E. Alors par bijectivité de φ la famille
(φ(e1 ), . . . , φ(en )) est une base de F , qui est donc de dimension n également.
Remarque III.6. Comme dim Kn = n, un espace vectoriel E est de dimension n si, et seulement si, il est
en bijection avec Kn . Une telle bijection est donnée par l’application :
n
X
(λ1 , . . . , λn ) 7→ λi ei
i=1
où (ei ) est une base de E (la bijectivité étant assurée par l’unicité et l’existence de l’écriture des éléments
de E dans la base (ei )).
III. APPLICATIONS LINÉAIRES EN DIMENSION FINIE 335
Exemple III.7. Si F1 , . . . , Fn sont des espaces de dimension finie, ils sont en somme directe si, et seulement
si, l’application :
F1 × · · · × Fn → F1 + · · · + Fn
φ:
(x1 , . . . , xn ) 7→ x1 + · · · + xn
est bijective. Comme elle est surjective par définition, elle est injective si, et seulement si, les espaces
F1 × · · · × Fn et F1 + · · · + Fn ont même dimension, c’est-à-dire si, et seulement si :
n
! n
X X
dim Fi = dim Fi .
i=1 i=1
Démonstration.
1. f est injective si, et seulement si, Kerf = {0}, c’est-à-dire dim Kerf = 0 ; si E est de dimension
finie, par théorème du rang, c’est équivalent au fait que : rg(f ) = dim E ;
2. f est surjective si, et seulement si, Imf = F ; si F est de dimension finie, comme Imf est un sev de
F , c’est équivalent au fait que rg(f ) = dim F .
Remarque III.16. On retrouve ainsi d’une autre manière que, pour un endomorphisme f sur un espace de
dimension finie :
f injectif ⇔ f surjectif ⇔ f bijectif.
Plus précisément, on a pour f ∈ L(E) et E de dimension n ∈ N∗ :
Proposition III.19. Si E est un espace vectoriel (quelconque) et f ∈ GL(E), alors pour tout sous-espace
F de E de dimension finie, l’espace f (F ) est de dimension finie, de même dimension que F .
Démonstration. Il suffit de voir que, u étant injective, f|F l’est également, et induit donc un isomorphisme
de F sur f (F ), qui ont donc même dimension.
Remarque III.20. En fait c’est seulement l’injectivité de f qui est importante ici.
Corollaire III.21. Si E, F sont deux espaces vectoriels quelconques et f ∈ L(E, F ) de rang fini :
1. si g ∈ GL(E), alors rg(f ◦ g) = rg(f ) ;
2. si h ∈ GL(F ), alors rg(h ◦ f ) = rg(f ).
Démonstration.
1. Comme g est surjective alors g(E) = E, donc Im(f ◦ g) = f ◦ g(E) = f (E) = Imf , ce qui donne
l’égalité en prenant la dimension.
2. Comme h est injective, alors Im(h ◦ f ) = h (Imf ), qui a donc même dimension que Imf par le
résultat précédent.
Remarque III.22. En fait c’est seulement la surjectivité de g et l’injectivité de h qu’on utilise ici.
III. APPLICATIONS LINÉAIRES EN DIMENSION FINIE 337
Démonstration. L’existence et unicité de l’écriture comme combinaison linéaire vient de la base de L(E, K) =
E ∗ donnée avant.
Le dernier point vient du fait que, si φ = ni=1 λi φi et i ∈ J1; nK, alors :
P
n
X n
X
φ(ei ) = λj φj (ei ) = λj δi,j = λi .
j=1 j=1
P
Remarque III.24. Les φi et l’écriture φ = i λi φi dépendent de la base choisie. Elles permettent d’expri-
mer l’image d’un vecteur par ses coordonnées.
φ : (x, y, z) 7→ x + y + z
dont les coordonnées dans la base de E ∗ associée à la base canonique sont (1, 1, 1).
On peut chercher à exprimer φ à partir de la base ((1, 0, 0), (1, 1, 0), (1, 1, 1)), dont on note φ1 , φ2 , φ3 les
| {z } | {z } | {z }
=e1 =e2 =e3
formes linéaires correspondantes. Alors :
et donc :
φ1 (x, y, z) = xφ1 ((1, 0, 0)) + yφ1 ((0, 1, 0)) + zφ1 ((0, 0, 1)) = x − y
φ2 (x, y, z) = xφ2 ((1, 0, 0)) + yφ2 ((0, 1, 0)) + zφ2 ((0, 0, 1)) = y − z
φ3 (x, y, z) = xφ3 ((1, 0, 0)) + yφ3 ((0, 1, 0)) + zφ3 ((0, 0, 1)) = z
et en combinant les deux formules on trouve bien que φ : (x, y, z) 7→ x + y + z.
Corollaire III.26. Si E est un espace vectoriel dimension finie n ∈ N∗ , les hyperplans de E sont exactement
les sev de E de dimension n − 1.
De plus, étant donnés (e1 , . . . , en ) une base de E et H un tel hyperplan, il existe λ1 , . . . , λn non tous nuls
tels que : ( n )
X n
X
H= xi e i | λi xi = 0 .
i=1 i=1
338 CHAPITRE 21. ESPACES VECTORIELS DE DIMENSION FINIE
Démonstration. Les hyperplans sont exactement les supplémentaires de droites (qui sont des espaces de
dimension 1), donc ce sont les espaces de dimension n − 1 (par la formule de Grassmann et l’existence de
supplémentaires).
Soit φ ∈ E ∗ non nulle telle que H = Ker φ. Notons φ = ni=1 λi φi (où les φi sont les formes linéaires
P
associées à la base (ei )). Alors les λi sont non tous nuls (comme φ ̸= 0), et on trouve ainsi :
n n n
!
X X X
H = Kerφ = xi e i | λj φj xi ei
i=1 j=1 i=1
| {z }
=xj
Corollaire III.29. Deux hyperplans sont confondus si, et seulement si, leurs équations dans une même base
sont proportionnelles.
Démonstration. Si on note φ1 , φ2 les formes linéaires associées aux deux hyperplans, alors les hyperplans
sont confondus si, et seulement si, les forme sφ1 , φ2 sont colinéaires, c’est-à-dire qu’elles sont proportion-
nelles.
Corollaire III.30. Si E est de dimension n et m ∈ N vérifie m ≤ n, alors tout sev de E de dimension m
est l’intersection de (n − m) hyperplans de E.
Démonstration. Soit F un sev de E de dimension m. On considère (e1 , . . . , em ) un base de F , qu’on
complète en (e1 , . . . , en ) base de E.
Notons (φ1 , . . . , φn ) les formes linéaires associées, et pour tout i ∈ J1; nK notons Hi = Kerφi . Alors :
F = ∩ni=m+1 Hi
est bien l’intersection de n − m hyperplans.
Remarque III.31. En termes d’équations, cela veut dire que tout espace vectoriel de E de dimension m est
donné par un système de (n − m) équations (une par hyperplan). Ces équations sont en fait deux-à-deux
linéairement indépendantes, et elles donnent le système d’équation associé à l’espace vectoriel.
Pour une droite, on retrouve la situation déjà connue depuis longtemps :
— dans le plan : il s’agit d’un hyperplan, qui est donc donné par une seule équation ;
— dans l’espace : c’est un espace de dimension 1, donc intersection de (3 − 1) = 2 (hyper)plans, donc
un système de deux équations.
Remarque III.32. Plus généralement, on peut s’intéresser à l’intersection de p plans dans E, et on trouve
que :
dim (∩pi=1 Hi ) ≥ dimE − p.
On utilise l’application φ : x 7→ (φ1 (x), . . . , φp (x)), où les φi sont les formes linéaires associées aux
hyperplans Hi . Le théorème du rang appliqué à φ donne le résultat (et montre qu’il y a égalité si, et
seulement si, φ est bijective, ce qui est le cas si, et seulement si, les φi sont linéairement indépendantes).
Chapitre 22
Plus généralement,Psi on note x1 , . . . , xp des vecteurs de E, et que les λi,j sont les coordonnées de xj
(c’est-à-dire xj = i λi,j ei ), alors la matrice de la famille (xj ) dans la base B est la matrice :
λ1,1 λ1,2 . . . λ1,p
λ2,1 λ2,2 . . . λ2,p
MatB ((xj )1≤j≤p = .. .. = (λi,j ) ∈ Mn,p (K).
.. . .
. . . .
λn,1 λn,2 . . . λn,p
Remarque I.2. On prendra bien garde qu’un vecteur sera représenté par une matrice colonne.
Exemple I.3. Dans R3 , la matrice de la famille (x1 , x2 , x3 ) avec x1 = (3, 1, 4), x2 = (1, 5, 9), x3 = (2, 6, 5)
dans la base canonique est :
3 1 2
1 5 6
4 9 5
Proposition I.4. Étant donnée une base B de E, l’application x 7→ MatB (x) est une bijection de E sur
Mn,1 (K).
Démonstration. Découle de l’unicité de l’écriture d’un vecteur comme combinaison linéaires d’éléments
d’une base.
Définition I.5. Si E, F sont deux espaces vectoriels de dimension finie, B = (e1 , . . . , ep ) une base de E, et
C = (f1 , . . . , fn ) une base de F et f ∈ L(E, F ), on appelle matrice de f dans bases B et C la matrice
MatB,C (f ) = (λi,j ) ∈ Mn,p (K) où les λi,j vérifient :
n
X
∀j ∈ J1; pK, f (ej ) = λi,j fi .
i=1
339
340 CHAPITRE 22. MATRICES ET APPLICATIONS LINÉAIRES
Remarques I.6.
1. La matrice de f est la matrice de la famille (f (ej )) dans la base C.
2. Si on reprend la base de L(E, F ) des fonctions φi,j : ek 7→ δk,j fi , alors les λi,j sont les coordonnées
de f dans la base des φi,j .
Exemples I.7.
1. Peu importe le choix de B, on a : MatB (idE ) = In .
2. La dérivation de K3 [X] dans K2 [X], munis de leurs bases canoniques, a pour matrice :
0 1 0 0
0 0 2 0 .
0 0 0 3
3. Si on voit C comme un R-espace vectoriel de dimension 2, muni de la base (1, i), alors la similitude
z 7→ (a + ib)z est un endomorphisme de C, dont la matrice est :
a −b
b a
Proposition I.8. Étant données une base B de E et une base C de F , l’application f 7→ MatB,C (f ) est une
bijection de L(E, F ) sur Mn,p (K).
Démonstration. Soit M = (λi,j ) ∈ Mn,p (K). Il existe une unique application f ∈ L(E, F ) telle que :
n
X
∀j ∈ J1; pK, f (ej ) = λi,j fi
i=1
Remarque I.9. Il faut bien prendre garde au fait que cette bijection nécessite en amont de fixer des bases
de E et F .
Corollaire I.10. Étant donnée une base B de E, l’application f 7→ MatB (f ) est une bijection de L(E) sur
Mn (K).
et donc l’application f 7→ MatB,C (f ) est un isomorphisme d’espaces vectoriels de L(E, F ) sur Mn,p (K).
I. MATRICE D’UNE APPLICATION LINÉAIRE DANS UNE BASE 341
d’où l’égalité coordonnée par coordonnée de ces vecteurs sur la base (fi ), ce qui donne l’égalité coefficient
par coefficient des matrices associées.
Démonstration.
Notons B = (e1 , . . . , ep ) et C = (f1 , . . . , fn ). Si on note MatB,C (f ) = (ai,j ) et MatB (x) =
λ1
..
. alors :
λp
p p p p
! n n
!
X X X X X X
f (x) = f λj ej = λj f (ej ) = λj ai,j fi = ai,j λj fi
j=1 j=1 j=1 i=1 i=1 j=1
et donc la j-ème colonne de MatB,D (g ◦ f ) est le produit de MatC,D (g) par la j-ème colonne de MatB,C (f ),
ce qui donne bien l’égalité voulue.
Remarque I.15. Il faut bien faire attention que l’on prend la même base pour F pour écrire la matrice de
f et celle de g (sinon le résultat est faux).
Exemple I.16. On se place sur K3 [X]. L’application P →7 XP ′ est un endomorphisme de K3 [X], qu’on
peut voir comme la composée des applications :
K3 [X] → K2 [X] K2 [X] → K3 [X]
f: et g :
P 7→ P ′ P 7→ XP
Corollaire I.17. Étant donnée une base B de E, l’application f 7→ MatB (f ) est un isomorphisme d’anneaux
de L(E) sur Mn (K).
342 CHAPITRE 22. MATRICES ET APPLICATIONS LINÉAIRES
Exemple I.18. On fixe E un espace vectoriel, B(e1 , e2 , e3 ) une base de E, et s ∈ L(E) dont la matrice dans
la base B est :
0 −2 1
S= 0 1
0 .
1 2 0
Alors on a :
S 2 = I3 = MatB (id)
donc s est une symétrie.
Pour x = ae 1 + be2 + ce3 ∈ E, on a :
a a −2b + c = a
s(x) = x ⇔ A b = b ⇔
b = b ⇔ a + 2b − c = 0
c c a + 2b = c
a a −2b + c = −a
b = 0
s(x) = −x ⇔ b = b ⇔
b = −b ⇔⇔
a+c = 0
c c a + 2b = −c
Et ce peu importe l’espace E et la base B choisie. Par exemple, sur K2 [X] muni de la base canonique, on
déduit que l’application linéaire : a + bX + cX 2 7→ (−2b + c) + bX + (a + 2b)X 2 est une symétrie sur
{P ∈ K2 [X] | 2P (0) + 4P ′ (0) − P ′′ (0) = 0} parallèlement à {λ(X 2 − 1) | λ ∈ K}.
Corollaire I.19. Si B et C sont des bases de E et F , avec E, F de même dimension finie, et f ∈ L(E, F ),
alors f est un isomorphisme si, et seulement si, MatB,C (f ) est inversible, et dans ce cas :
et alors on a :
In = MatB (idE ) = MatB (f −1 ◦ f ) = MatC,B (f −1 )MatB,C (f )
ce qui donne bien l’inverse à gauche, qui coı̈ncide avec l’inverse à droite (par propriété des inverses matri-
ciels), mais qu’on pourrait montrer indépendamment.
Remarque I.20. On retrouve même un résultat plus fort : l’inversibilité à gauche d’une application linéaire
est équivalente à l’inversibilité à gauche de la matrice associée (et pareil à droite). Et ainsi on retrouve
que, pour les matrices carrées comme pour les applications linéaires entre deux espaces vectoriels de même
dimension finie, les inversibilités à gauche ou à droite sont équivalentes à l’inversibilité.
donc, comme A est triangulaire supérieure de coefficients diagonaux non nuls, alors A est inversible, donc
f est bijective.
On inverse A par pivot, ce qui donne :
1 −1 0
A−1 = 0 1 −2
0 0 1
Remarques II.7.
1. Pour le point 2, on peut aussi dire que cela revient à ce que les colonnes de A engendrent Kn
(comme elles engendrent un sev de Kn de dimension rg(A)).
2. On a même un résultat plus fort pour le 3 : si Q ∈ GLp (K), alors Im A = Im AQ
Corollaire II.8. Si B = (e1 , . . . , en ) est une base de E et (x1 , . . . , xn ) est une famille de vecteurs de E,
alors (x1 , . . . , xn ) est une base si, et seulement si, MatB (x1 , . . . , xn ) est inversible.
Remarque II.10. Le noyau d’une matrice est donc l’ensemble des solutions du système homogène AX = 0.
Proposition II.11. Le noyau d’une matrice est égal au noyau de son application linéaire canoniquement
associée.
p = dimKer A + rg(A).
Corollaire II.13. Si A ∈ Mn (K), alors A est inversible si, et seulement si, Ker A = {0}.
Proposition II.14. Si A ∈ Mn,p (K) et B ∈ Mn,1 (K), alors le système AX = B (d’inconnue X ∈ Mp,1 (K))
admet une solution si, et seulement si, B ∈ Im A.
Dans ce cas, l’ensemble des solutions est un espace affine de Mp,1 (K) dirigé par Ker A, qui est donc de
dimension p − rg(A).
Si n = p et que A est inversible, le système AX = B admet toujours une unique solution, et on dit qu’il
s’agit d’un système de Cramer.
III. CHANGEMENTS DE BASES, ÉQUIVALENCE ET SIMILITUDE 345
Remarque II.15. La dimension de l’ensemble solution se lit bien sur la méthode du pivot : multiplier par
une matrice inversible (à gauche ou à droite) ne change pas le rang, donc échelonner une matrice ne
change pas son rang. Et il est clair (à la manière des familles de polynômes de degrés échelonnées) que le
rang d’une matrice échelonnée est égal au nombre de ses pivots.
X ∈ Ker A ⇔ AX = 0 ⇔ P AX = 0 ⇔ X ∈ Ker P A
Et on a ainsi que :
1. PBC est inversible, d’inverse : PCB ;
2. si D est une autre base de E, alors : PBD = PBC · PCD .
Démonstration. Le premier point vient du fait que les éléments de C sont envoyés sur eux-même par idE .
On déduit ainsi que :
1. comme idE = id−1
E , alors :
Exemple III.3. On se place sur K2 [X]. On considère B la base canonique, et on pose C la famille de
polynômes d’interpolation de Lagrange associée à la famille (0, 1, 2), c’est-à-dire :
X 2 − 3X + 2 2 X2 − X
C=
, −X
| {z+ 2X},
.
2 2
| {z } L1 | {z }
L0 L2
Et donc :
1 0 0
C 3
PB = A = − 2
2 − 12
1
2
−1 12
Mais on sait très bien exprimer un polynôme de K2 [X] dans la base (L0 , L1 , L2 ), à savoir :
1 = L0 + L1 + L2 , X = L1 + 2 · L2 et X 2 = L1 + 4 · L2
c’est-à-dire que la matrice de passage de B à C permet de passer des coordonnées de x dans C à celles dans
B.
Remarque III.5. La terminologie semble donc assez mal choisie. On verra qu’elle s’adapte en fait très bien
aux endomorphismes.
Exemple III.6. On reprend les polynômes L0 , L1 , L2 d’interpolation associés à la famille (0, 1, 2). Et on
veut calculer rapidement dans la base canonique le polynôme P = 4L0 + L1 − 2L2 . On a :
1 0 0 4 4
1 1
MatB (P ) = PB,C · MatC (P ) = − 2 2 − 2 · 1
= −3
1 1
2
−1 2 −2 0
donc P = 4 − 3X.
Théorème III.7 (Formule de changement de base). Soient E, F deux espaces vectoriels de dimension finie,
B, B ′ deux bases de E et C, C ′ deux bases de F , alors pour tout f ∈ L(E, F ) on a :
′
MatB′ ,C ′ (f ) = PCC′ MatB,C (f )PBB .
III. CHANGEMENTS DE BASES, ÉQUIVALENCE ET SIMILITUDE 347
Démonstration. Découle du fait que : f = idF ◦ f ◦ idE et de la représentation matricielle d’une composée.
Remarque III.8. Il faut bien faire attention à l’ordre et au sens dans lequel on prend les matrices de
passage. L’écriture se retient bien par le graphique suivant :
MatB,C (f )
(E, B) / (F, C)
O
′
PBB PCC′
(E, B ′ ) Mat / (F, C ′ )
B′ ,C ′ (f )
Corollaire III.9. Si E est un espace vectoriel de dimension finie, et B, B ′ deux bases de E, alors pour tout
f ∈ L(E) on a :
′
′ −1 ′
MatB′ (f ) = PBB′ MatB (f )PBB = PBB MatB (f )PBB .
Remarque III.10. L’intérêt d’une telle formule est de trouver une base dans laquelle la matrice de f est
plus simple, et permet de faire des calculs, et d’en déduire ensuite des propriétés de f .
et on peut ainsi plus facilement calculer les puissances de f (ou d’autres propriétés de f ).
Remarque III.13. Du fait de la formule de changement de base, cela revient à dire que A et B représentent
une même application linéaire, mais dans des couples de bases différentes.
Proposition III.14. La relation précédente définit une relation d’équivalence sur Mn,p (K).
Proposition III.15. Pour n, p ∈ N∗ et r ∈ J0; min(n, p)K, on définit la matrice Jn,p,r ∈ Mn,p (K) comme la
matrice en blocs :
Ir 0r,p−r
Jn,p,r = .
0n−r,r 0n−r,p−r
Alors, si A ∈ Mn,p (K) est de rang r, la matrice A est équivalente à Jn,p,r .
Démonstration. Notons f : Kp → Kn l’application linéaire canoniquement associée à A.
On a rg(A) = rg(f ) = r. Si on considère S un supplémentaire de Ker f dans Kp , avec (e1 , . . . , er , er+1 , . . . , ep )
une base de Kp adaptée à la décomposition Kp = S ⊕Ker f , alors la famille (f (e1 ), . . . , f (er )) = (f1 , . . . , fr )
est une base de Imf . Si on la complète en (f1 , . . . , fr , fr+1 , . . . , fn ) base de F , alors on a :
fj si j ≤ r
∀j ∈ J1; pK, f (ej ) =
0 si j > r
Notons C = (ai,j ) 1≤i≤n , c’est-à-dire que C est la matrice construite à partir de A, en retirant les
j ∈J
mêmes colonnes à A que pour obtenir B, mais en gardant toutes les lignes.
Comme les colonnes de C sont des colonnes de A, alors rg(C) ≤ rg(A).
Et comme les lignes de B sont des lignes de C, alors rg(B) ≤ rg(C).
Et finalement rg(B) ≤ rg(A).
2. Notons r = rg(A) : comme le rang de A est la dimension de l’espace engendré par les colonnes de
A, alors il existe une base de cet espace construit à partir de colonnes de A (par théorème de la
base extraite). Notons C la matrice obtenue en ne gardant que ces colonnes, qui est donc de rang
r et possédant r colonnes.
Comme le rang de C est aussi le rang de ses lignes, on peut à nouveau utiliser le théorème de la
base extraite pour ne garder que r lignes qui forment une base, ce qui forme la matrice B.
La matrice B est carrée de taille r, et elle est de rang r, donc est bien inversible.
— si A est la matrice d’un projecteur : comme Im f ⊕ Ker f = Kn , en posant B une base de Kn adaptée
à cette décomposition, on a :
Im 0
MatB (f ) = D =
0 0
où m = rg(f ) ≤ n. Et par formule de changement de base, en notant P la matrice de passage de B
dans la base canonique, on a : A = P −1 DP , où D est bien de la forme voulue.
Le résultat de symétrie se montre de manière similaire.
Définition III.27. Si A = (ai,j ) ∈ Mn (K), on appelle trace de A la quantité notée tr(A) définie par :
n
X
tr(A) = ai,i .
i=1
Proposition III.29. L’application A 7→ tr(A) définit une forme linéaire de Mn (K) sur K.
De plus, pour tous A, B ∈ Mn (K) on a :
tr(AT ) = tr(A) et tr(AB) = tr(BA).
Démonstration. Si A, B ∈ Mn (K) et λ, µ ∈ K, alors :
n
X n
X
tr(λA + µB) = [λA + µB]i,i = λ[A]i,i + µ[B]i,i = λtr(A) + µtr(B)
i=1 i=1
Remarque III.30. Le dernier résultat se généralise : si A ∈ Mn,p (K) et B ∈ Mp,n (K), alors les quantités
tr(AB) et tr(BA) sont bien définies et sont égales.
Il faut cependant bien faire attention : on peut inverser deux matrices dans un produit de deux facteurs,
mais on ne peut pas échanger tous les ordres des matrices dans un produit et espérer la trace. Par exemple
avec :
1 1 1 0 1 0
A= , B= et C =
0 1 1 1 0 0
on a :
2 0 1 0
ABC = et ACB =
1 0 0 0
et donc tr(ABC) ̸= tr(ACB).
On peut en revanche les échanger de manière circulaire :
tr(A1 A2 , . . . An−1 An ) = tr(A2 A3 . . . An−1 An A1 ) = tr(A3 A4 . . . An−1 An A1 A2 ) = . . .
et par exemple avec trois matrices on trouve :
tr(ABC) = tr(BCA) = tr(CAB).
III. CHANGEMENTS DE BASES, ÉQUIVALENCE ET SIMILITUDE 351
Remarque III.32. La notion de matrices semblables étant plus restrictive que celle de matrices équivalentes,
on avait déjà que deux matrices semblables ont même rang.
Mais cette condition n’est pas suffisante, car deux matrices peuvent avoir même rang et même trace sans
être semblable : par exemple les matrices :
1 0 1 1
et
0 1 0 1
sont toutes les deux de rang et de trace valant 2, mais ne sont pas semblable (comme la seule matrice
semblable à I2 est elle-même).
En particulier, il est en général difficile de montrer que deux matrices sont semblables.
Démonstration. Toutes les représentations matricielles de f sont semblables, donc ont la même trace, ce
qui montre qu’elle est bien définie.
La linéarité découle du résultat sur les matrices.
Proposition III.35. Soient F, G deux espaces supplémentaires d’un espace vectoriel E de dimension finie
n ∈ N∗ , p le projecteur sur F parallèlement à G et s la symétrie sur F parallèlement à G. Alors :
n + tr(s) n − tr(s)
dim F = tr(p) = et dim G = n − tr(p) = .
2 2
Démonstration. Comme la trace ne dépend pas du choix de la base, il suffit de représenter p et s dans une
base B adaptée à la décomposition F ⊕ G = E. Si on note m = dimF (de sorte que dimG = n − m), alors
on a :
Im 0 Im 0
MatB (p) = et MatB (s) =
0 0n−m 0 −In−m
et donc : tr(p) = m et tr(s) = 2m − n.
Remarque III.36. Pour un projecteur, on a même que : tr(p) = rg(p), ce qui permet facilement de calculer
le rang.
352 CHAPITRE 22. MATRICES ET APPLICATIONS LINÉAIRES
Chapitre 23
Intégration
et la différence est qu’on a inversé les quantificateurs : le “∀x ∈ I” (qui permettait de donner la continuité
en x ∈ I) est passé après le “∀ε > 0”, et surtout devant le “∃η”. Ainsi, à ε fixé, le η adapté ne dépend pas
de x. La notion de fonction uniformément continue est donc plus contraignante que la notion de fonction
continue.
Remarque I.4. La réciproque est fausse. Par exemple la fonction x 7→ x2 sur R n’est pas uniformément
continue.
Par l’absurde, si elle l’était, on aurait pour ε = 1 > 0 l’existence de η > 0 tel que : ∀x, y ∈ R, |x − y| ≤
η ⇒ |x2 − y 2 | ≤ 1.
Mais on a pour tout x ∈ R+ : (x + η)2 = x2 + 2xη + η 2 et donc pour tout x ∈ R+ on aurait : 2xη ≤ 1, ce
qui est impossible comme lim 2xη = +∞ (comme η > 0).
x→+∞
Théorème I.6 (de Heine). Une fonction continue sur un segment est uniformément continue.
353
354 CHAPITRE 23. INTÉGRATION
Démonstration. On considère f continue sur [a, b], et on suppose par l’absurde que f n’est pas uniformé-
ment continue, et donc :
Prenons un tel ε > 0, et appliquons pour n ∈ N∗ le résultat à η = n1 , cela veut dire qu’il existe deux suites
(xn ), (yn ) telles que pour tout n ∈ N∗ :
1
|xn − yn | ≤ et |f (xn ) − f (yn )| > ε.
n
Mais (xn ) est bornée (car un segment est borné) et donc par théorème de Bolzano–Weierstrass il existe
une suite extraite (xφ(n) ) qui converge vers un réel x, qui est nécessairement dans [a, b] comme un segment
est fermé.
Par encadrement, comme lim φ(n) = +∞, alors : |xφ(n) − yφ(n) | → 0, et donc la suite (yφ(n) ) converge
n→+∞ n→+∞
également vers x.
Comme f est continue en x, alors les suites (f (xφ(n) )) et (f (yφ(n) )) convergent vers f (x). Et donc :
Remarque II.2. Pour mettre en évidence l’ordre dans lequel les xi sont rangés, on pourra voir σ plutôt
comme une famille que comme un ensemble.
Remarques II.5.
1. Il faut bien regarder f sur les intervalles ouverts ]xi ; xi+1 [. Les valeurs de f en les xi n’a pas
d’importance.
II. INTÉGRALES DES FONCTIONS EN ESCALIER 355
2. Il n’y a pas unicité d’une subdivision. Plus précisément, si σ est une subdivision adaptée à f , tout
subdivision τ de [a, b] plus fine que σ (c’est-à-dire qui contient σ en tant qu’ensemble) est également
adaptée à f .
Exemples II.6.
1. La restriction de la fonction x 7→ ⌊x⌋ à n’importe quel segment est une fonction en escalier.
2. La fonction définie sur [a; b] dont le graphe est le suivant est en escalier :
x0 = a x1 x2 x3 x4 = b
Proposition II.7. L’ensemble E([a, b]) est à la fois un sous-anneau et un sev de F([a, b], R).
Démonstration. Pour le sous-anneau : la fonction constante de valeur 1 est constante, donc toutes ses
restrictions aussi, donc elle est en escalier (toute subdivision convient).
De plus la différence et le produit de deux fonctions constantes est une fonction constante, donc en prenant
deux fonctions en escalier et une subdivision adaptée simultanément aux deux (par union de subdivisions
adaptées à chacune) on a le résultat.
Pour le sev : on procède comme pour le produit : une combinaison linéaire de fonctions constantes est
constante, et il suffit juste de travailler à nouveau avec une subdivision adaptée aux deux fonctions en
escalier considérées.
x0 = a x1 x2 x3 x4 = b
Remarque II.9. On retrouve l’aire algébrisée sous la courbe (avec un signe “+” quand la fonction prend
des valeurs positives, et avec un signe “−” sinon).
Démonstration. La seule chose à prouver est que la quantité donnée ne dépend pas du choix de la subdi-
vision adaptée.
On va déjà montrer que, si σ est une subdivision adaptée, alors ajouter un point à σ ne change pas la
valeur de l’intégrale définie à l’aide de σ.
Soit σ = (xi ) une subdivision adaptée à f . On note k ∈ J0; n−1K et x ∈]xk ; xk+1 [ qu’on rajoute à σ. Comme
σ est adaptée à f , alors f est constante sur ]xk ; xk+1 [, de valeur λk (avec les notations précédentes), donc
la valeur de f sur ]xk ; x[ et ]x; xk+1 [ est également λk . Ainsi l’intégrale associée à σ ∪ {x} est :
k−1
! n−1
! n−1
X X X
(xi+1 − xi )λi + (x − xk )λk + (xk+1 − x)λk + (xi+1 − xi )λi = (xi+1 − xi )λi
| {z }
i=1 i=k+1 i=1
=(xk+1 −xk )λk
Remarque II.10. La valeur de f en les xi n’a aucune incidence sur son intégrale. Mieux : comme rajouter
des points à une subdivision préserve le fait qu’elle soit adaptée, on peut changer la valeur de f en un
nombre fini de points sans changer la valeur de l’intégrale.
Démonstration. Découle à chaque fois des propriétés analogues pour la somme, en prenant une subdivision
adaptée à f et g.
Remarque II.12. On retrouve ainsi les mêmes propriétés que pour l’intégrale qu’on avait définie pour
les fonctions continues à l’aide de primitives. La différence étant qu’on peut changer les fonctions en un
nombre fini de points sans changer la valeur de l’intégrale, donc par exemple pour la croissance il suffit
d’avoir f (t) ≤ g(t) pour tout t ∈ [a, b] sauf en un nombre fini de points.
Remarques III.2.
1. Une fonction constante est prolongeable par continuité (il suffit de fixer comme image l’unique valeur
qu’elle prend). Donc toute fonction en escalier est continue par morceaux : E([a, b]) ⊂ C([a, b]).
2. Une fonction continue est continue par morceaux (toute subdivision convient).
3. Comme pour les fonctions en escalier, les valeurs en les xi n’ont aucune incidence. Et une subdivi-
sion restera adaptée si on lui rajoute des points.
4. Le prolongement par continuité impose que f a des limites finies à gauche et à droite en les xi .
En revanche, ces limites n’ont pas de raison d’être égales (ce qui reviendrait à avoir une fonction
continue).
5. Une fonction continue par morceaux sur [a, b] a un nombre fini de points de discontinuité, puisqu’ils
sont inclus dans les points d’une subdivision adaptée.
Exemples III.3.
1. La fonction définie sur [a, b] dont le graphe est le suivant est continue par morceaux.
358 CHAPITRE 23. INTÉGRATION
x0 = a x1 x2 x3 x4 = b
n’est pas continue par morceaux. Elle est certes continue sur [−1; 0[ et sur ]0; 1], mais ses limites
à gauche et à droite en 0 ne sont pas finies donc ses restrictions à ] − 1; 0[ et ]0; 1[ ne sont pas
prolongeables par continuité en 0.
15
10
5
Cf
−1 0 1
−5
−10
−15
Proposition III.4. L’ensemble Cpm ([a, b]) est à la fois un sous-anneau et un sev de F([a, b], R).
Proposition III.5. Une fonction continue par morceaux sur un segment est bornée.
III. INTÉGRALES DES FONCTIONS CONTINUES PAR MORCEAUX 359
qui admet 0 et 1 comme bornes inférieure et supérieure respectivement, mais qui ne sont pas atteintes.
Cf
0 1
Définition III.7. Si I est un intervalle quelconque de R, une fonction f définie sur I sera dite continue
par morceaux si la restriction de f à tout segment de I est continue par morceaux (au sens précédent).
Exemples III.8.
1. La fonction partie entière est continue par morceaux sur R.
2. La fonction x 7→ x · ⌊x⌋ est continue par morceaux sur R :
10
9
8
7
6
5
4
3
2
1
−3 −2 −1 0 1 2 3 4
360 CHAPITRE 23. INTÉGRATION
sin ⌊ x1 ⌋
si x ̸= 0
3. La fonction x 7→ est continue par morceau sur ]0; 1], mais pas sur [0; 1]
0 si x = 0
(on aurait besoin d’une subdivision “infinie” dans le second cas).
−1
Remarques III.10.
1. Cette définition a bien un sens, car si f est bornée, alors {|f (x)| | x ∈ [a, b]} est une partie non vide
majorée de R. Et comme il s’agit même d’une partie de R+ , on a toujours ∥f ∥∞ ≥ 0.
2. Comme une fonction continue par morceaux sur un segment est bornée, on peut bien définir ∥f ∥∞
pour de telles fonctions. C’est également le cas pour le fonctions continues, et par théorème des
bornes atteintes on a même un maximum (au lieu d’une borne supérieure).
3. Géométriquement, cela veut dire que le graphe de f est compris entre les droites horizontales d’équa-
tion y = ±∥f ∥∞ .
Démonstration.
1. Si x ∈ [a, b], alors |λf (x)| = |λ| · ∥f (x)|, et on a le résultat en passant au sup.
2. Si x ∈ [a, b], alors : |f (x) + g(x)| ≤ |f (x)| + |g(x)| ≤ ∥f ∥∞ + ∥g∥∞ .
3. Si f = 0, alors il est clair que ∥f ∥∞ = 0 (par calcul direct ou par le premier point avec λ = 0).
Réciproquement, si ∥f ∥∞ = 0 alors pour tout x ∈ [a, b] on a : |f (x)| ≤ 0, donc f (x) = 0, et donc
f = 0.
Remarque III.12. On voit qu’en fait toutes les propriétés de la norme infinie découlent des propriétés
analogues pour la valeur absolue : ces deux notions s’inscrivent plus généralement dans la notion de “nor-
mes”, qui sont des applications à valeurs réelles (en fait nécessairement positives), qui vérifient les trois
propriétés ci-dessus : homogénéité, inégalité triangulaire et séparation. Et on en verra d’autres que cette
norme infinie ou la valeur absolue.
Définition III.13. Si f et g sont deux fonctions bornées sur [a, b], on définit la distance uniforme entre
f et g comme la quantité ∥f − g∥∞ .
III. INTÉGRALES DES FONCTIONS CONTINUES PAR MORCEAUX 361
Remarques III.14.
1. Cette définition a bien un sens car, par inégalité triangulaire, si f et g sont bornées, alors f − g
aussi. Mais on pourrait aussi définir une distance entre deux fonctions non bornées, mais dont la
différence serait bornée.
2. Graphiquement, cela veut dire que les courbes de f et g restent assez proches. On peut même voir
cela de manière asymétrique : le graphe de g reste dans le “cylindre” de rayon ∥f − g∥∞ autour du
graphe de f , ou de manière équivalente le graphe de f reste dans le “cylindre” de rayon ∥f − g∥∞
autour du graphe de g.
3
∥f − g∥∞
2
Cf
1
−4 −3 −2 −1 0 1 2 3 4 5 6
Cg −1
3
∥f − g∥∞
2
Cf
1
−4 −3 −2 −1 0 1 2 3 4 5 6
Cg −1
Théorème III.15. Si f est une fonction continue par morceaux sur [a, b] et ε > 0, alors il existe deux
fonctions en escalier φ− +
ε et φε telles que :
1. φ− +
ε ≤ f ≤ φε ;
−
2. ∥φ+
ε − φε ∥∞ ≤ ε.
362 CHAPITRE 23. INTÉGRATION
≤ε
Cφ+ε
Cf
Cφ−ε
≤ε
Cφ+ε
Cf Cφ−ε
≤ε
≤ε
−
Et il est alors clair que les fonctions φ+
ε , φε suivantes conviennent :
[a, b] → R [a, b] → R
−
φ+
ε : M i si x ∈ [x i ; x i+1 [ et φε : mi si x ∈ [xi ; xi+1 [
x 7→ x 7→
f (b) si x = b f (b) si x=b
Pour le cas général, on considère (xi )i∈J0;nK une subdivision adaptée à f . Pour tout i ∈ J0; n − 1K, notons
fi le prolongement par continuité de f |]xi ;xi+1 [ à [xi ; xi+1 ]. Comme fi est continue, il existe deux fonctions
−
en escalier φ+
ε,i et φε,i telles que pour tout x ∈]xi ; xi+1 [ :
φ− + + −
ε,i (x) ≤ fi (x) ≤ φε,i (x) et φε,i (x) − φε,i (x) ≤ ε.
| {z }
=f (x)
Remarque III.16. L’idée est que l’on peut encadrer aussi proche que l’on veut (au sens de la distance
définie avant) toute fonction continue par morceaux par des fonctions en escalier. Et on peut regarder
aussi ces approximations de manière séparée puisque, par inégalité triangulaire, on a :
−
∥φ+
ε − f ∥∞ ≤ ε et ∥φε − f ∥∞ ≤ ε.
En ce sens, cette notion de densité est très proche de celle qu’on avait vue avec les réels (par exemple la
densité de Q ou R \ Q dans R) : on dit que A est dense dans B si tout élément de B peut être approché
arbitrairement près par un élément de A.
De plus, l’intégrale ainsi définie coı̈ncide avec l’intégrale définie précédemment, dans le sens où les deux
définitions donnent la même valeur pour f ∈ E([a, b]).
Démonstration. Constatons déjà que les ensemble I + (f ) et I − (f ) sont non vides : f est bornée, et encadrée
par les fonctions constantes (donc en escalier) de valeurs ±∥f ∥∞ .
De plus, si on considère g, h en escalier sur [a, b] telles que g ≤ f ≤ h, alors par croissance de l’intégrale
Rb Rb
(pour les fonctions en escalier), on a : a g ≤ a h. Et donc, par définition des ensembles I + (f ) et I − (f ),
on a que tout élément de I + (f ) est plus grand que tout élément de I − (f ).
Les ensembles I + (f ) et I − (f ) sont donc non vides, respectivement minoré (par tout élément de I − (f ))
et majoré (par tout élément de I + (f )). Ce qui justifie que les bornes considérées sont bien définies, et
vérifient même : sup(I − (f )) ≤ inf(I+ (f )).
364 CHAPITRE 23. INTÉGRATION
− − −
Soit ε > 0. Considérons φ+ + +
ε , φε en escalier telles que φε ≤ f ≤ φε et ∥φε −φε ∥∞ ≤ ε. Alors par croissance
de l’intégrale (montrée pour les intégrales de fonctions en escalier), on a :
Z b Z b Z b Z b
φ+ φ− φ+ φ−
ε (t)dt − ε (t)dt = ε (t) − ε (t) dt ≤ εdt = (b − a)ε
a a a a
Remarques III.18. L’intégrale ainsi définie s’interprète aussi comme une aire (algébrisée) sous la courbe
d’une fonction, mais cela se voit moins directement.
De plus, comme on peut changer une fonction en escalier en un nombre fini de points sans changer la
valeur de son intégrale, on peut voir par encadrement que cela reste valable pour une fonction continue par
morceaux.
Démonstration. Découle à chaque fois des propriétés de l’intégrale définie sur les fonctions en escalier. Tous
les résultats se montrent par encadrement, par des encadrements arbitrairement proches par des fonctions
en escaliers.
Remarque III.20. On retrouve par linéarité qu’on peut changer une fonction continue par morceaux en un
nombre fini de points sans changer la valeur de son intégrale. L’idée est que les fonctions diffèrent d’une
fonction nulle sauf en un nombre fini de points, dont l’intégrale vaut 0 (par formule de l’intégrale d’une
fonction en escalier).
III. INTÉGRALES DES FONCTIONS CONTINUES PAR MORCEAUX 365
f (x0 )
f (x0 )
2
x0
x0 − η x0 + η
Remarque III.22. On peut adapter le résultat à des fonctions continues par morceaux : une fonction
continue par morceau de signe constant (sauf en un nombre fini de points) est d’intégrale nulle si, et
seulement si, elle est nulle en tous les points en lesquels elle est continue.
366 CHAPITRE 23. INTÉGRATION
Ra
Définition III.23. Si f ∈ Cpm ([a, b]), on définit l’intégrale de f entre b et a, notée b
f (t)dt, comme :
Z a Z b
f (t)dt = − f (t)dt.
b a
Z b
1
Proposition IV.2. Si f est continue sur le segment [a, b], alors il existe c ∈ [a, b] tel que f (c) = f (t)dt.
b−a a
m≤µ≤M
et donc µ ∈ [f (α), f (β)]. Par théorème des valeurs intermédiaires, comme f est continue sur [a, b] donc
entre α et β, on déduit qu’il existe c entre α et β (donc dans [a, b]) tel que f (c) = µ.
Remarques IV.3.
1. On peut modifier la démonstration pour voir que c peut même être choisi dans ]a, b[ : c’est clair si
µ est différent de m et M (car alors c est strictement entre α et β) ; et sinon cela veut dire que f
est constante donc tout c convient.
2. Le résultat est faux si f n’est pas continue. Par exemple, si on prend f la fonction partie entière
1
sur [0; 2], on trouve µ = ∈ / Z donc qui n’est pas dans l’image de f .
2
Théorème IV.4 (Théorème fondamental de l’analyse). Si f est continue sur un intervalle I, alors f admet
une primitive.
Plus précisément, pour tout x0 ∈ I et y0 ∈ R, l’application :
Z x
x 7→ f (t)dt + y0
x0
Démonstration. Comme les primitives de f (si ellesRexistent) diffèrent toutes d’une constante, il suffit de
x
montrer que, pour a ∈ I fixé, l’application F : x 7→ a f (t)dt est une primitive de f .
Fixons x0 ∈ I et considérons x ∈ I distinct de x0 . Alors :
Z x Z x0 Z x Z a Z x
F (x) − F (x0 ) 1 1 1
= f (t)dt − f (t)dt = f (t)dt + f (t)dt = f (t)dt
x − x0 x − x0 a a x − x0 a x0 x − x 0 x0
et finalement :
F (x) − F (x0 )
lim = f (x0 )
x→x0 x − x0
ce qui montre bien que F est dérivable, et que sa dérivée est f .
Remarques IV.5.
1. La définition qu’on avait donné initialement (dans le chapitre sur les primitives) coı̈ncide donc avec
celle qu’on donne ici.
2. Il faut cependant bien prendre garde R x au fait que f est continue : pour f seulement continue par
morceaux,R la fonction F : x 7→ a f (t)dt n’est pas dérivable partout. Par exemple, si on pose
x
F : x 7→ 0 ⌊t⌋dt, on obtient une fonction qui est dérivable en tout point sauf en les entiers, car
alors ses dérivées à gauche et à droite sont différentes.
10
9
8
7
6
5
4
3
2
1
−4 −3 −2 −1 0 1 2 3 4 5
Et on pouvait anticiper un tel résultat : on avait vu qu’une fonction dérivée doit vérifier le théorème
des valeurs intermédiaires, ce qui n’est pas le cas de la fonction partie entière, qui ne peut donc pas
être une dérivée.
368 CHAPITRE 23. INTÉGRATION
3. Il faut bien que f soit continue pour que F soit dérivable. Mais si f est seulement continue par
morceaux, on a tout de même que F est continue. L’idée étant que f est bornée au voisinage de
tout point (une fonction continue par morceaux sur un segment étant bornée), et si on considère M
une telle borne, alors sur le même voisinage on voit facilement que F est même M -lipschitzienne
(par croissance de l’intégrale).
Corollaire
Rx IV.6. Si f est continue par morceaux sur un intervalle I, et a ∈ I, alors la fonction F : x 7→
a
f (t)dt est dérivable en tout point où f est continue, et sa dérivée coı̈ncide alors avec f .
Démonstration. Il suffit de restreindre f (et donc F ) à un intervalle sur lequel f est continue, ce qui ramène
au résultat précédent.
Corollaire IV.7. Si f est continue sur un intervalle I et a, b ∈ I, alors en notant F une primitive quelconque
de f sur I on a :
Z b
f (t)dt = F (b) − F (a).
a
Remarque IV.8. On retrouve ainsi toutes les propriétés déjà énoncées pour l’intégrale d’une fonction conti-
nue sur un segment, et notamment l’intégration par parties, le changement de variable, ou les propriétés
d’intégrales dépendant de leurs bornes. Ces résultats demandent les mêmes hypothèses que précédemment
(notamment le fait d’être C 1 pour faire des intégrations par parties).
Les résultats s’adaptent alors à des fonctions continues par morceaux en découpant l’intégrale sur les
différents segments sur lesquels f est continue, à l’aide de la relation de Chasles.
Proposition IV.9. Soit f une fonction continue par morceaux sur R, alors :
1. si f est paire : pour tout a ∈ R, on a :
Z a Z a
f (t)dt = 2 f (t)dt.
−a 0
Démonstration. Se montre par changement de variable ou par dérivée d’une intégrale dépendant de ses
bornes (comme montré en début d’année) si la fonction f est continue.
Le cas général s’en déduit en découpant et en utilisant la relation de Chasles.
IV. PROPRIÉTÉS DES FONCTIONS ET DE LEURS INTÉGRALES 369
Remarque IV.10. Pour une fonction périodique, cela permet de donner un sens intuitif à la valeur
moyenne. En effet, si f est T -périodique, on en déduit que :
Z T Z x Z x
1 1 1
f (t)dt = lim f (t)dt = lim f (t)dt
T 0 x→∞ x 0 x→∞ 2x −x
qui se montre en encadrant x entre deux réels de la forme nT , (n + 1)T et en prenant la limite.
Le problème est que la variable apparaı̂t dans l’intégrande (et non dans les bornes). On procède alors à un
changement de variable pour la faire passer de l’un à l’autre, en posant u = xet . On a alors du = xet dt =
udt, et donc pour tout x > 0 :
Z 1√ Z ex √
2 2t
1 + u2
f (x) = 1 + x e dt = dt
0 x u
Alors en particulier f est de classe C n+1 , donc on peut lui appliquer l’hypothèse de récurrence, donc :
n x
f (k) (a) (x − t)n
X Z
k (n+1)
f (x) = (x − a) + f (t) dt.
k=0
k! a n!
(x − t)n+1
On procède alors par intégration par parties : les fonctions f (n+1) et t 7→ − sont de classe C 1 , et
(n + 1)!
(n+2) (x − t)n
de dérivées respectives f et t 7→ , et donc :
n!
Z x x Z x
(x − t)n (x − t)n+1 (x − t)n+1
(n+1)
f (t) dt = −f (n+1)
(t) + f (n+2) (t) dt
a n! (n + 1)! Za a (n + 1)!
x .
f (n+1) (a) n+1 (n+2) (x − t)n+1
= (x − a) + f (t) dt
(n + 1)! a (n + 1)!
Remarque IV.13. On retrouve (et c’est normal) la partie régulière de la formule de Taylor–Young. La
différence entre ces deux formules de Taylor est l’estimation de l’écart entre la fonction et sa partie ré-
gulière : la formule de Taylor–Young dit seulement que l’écart est “petit” si on se place au voisinage de a
(et a donc une nature locale), tandis que celle avec reste intégral donne l’écart de manière exacte, et en
n’importe quel point (d’où sa nature globale).
Si a > b, on utilise à nouveau l’inégalité triangulaire, en échangeant les bornes des intégrales pour qu’elles
soient dans le bon sens. On trouve le même résultat, ce qui prouve l’inégalité de Taylor–Lagrange.
Définition V.2. Étant donnée f : [a, b] → C continue par morceaux, on définit l’intégrale de f entre a
et b comme : Z b Z b Z b
f (t)dt = Re(f )(t)dt + i Im(f )(t)dt.
a a a
VI. SOMMES DE RIEMANN 371
Remarque V.3. On peut aussi revenir aux intégrales de Re(f ) et Im(f ) à partir de celle de f , en constatant
que :
Z b Z b Z b Z b
Re f (t)dt = Re(f )(t)dt et Im f (t)dt = Im(f )(t)dt.
a a a a
Proposition V.4. L’intégrale ainsi étendue aux fonctions à valeurs complexes vérifie la propriété de linéa-
rité, la relation de Chasles ainsi que l’inégalité triangulaire.
Démonstration. La linéarité et la relation de Chasles se montrent facilement par les propriétés analogues
pour les fonctions à valeurs réelles (en les appliquant à Re(f ) et Im(f ).
Pour l’inégalité triangulaire, considérons f continue par morceaux sur [a, b] à valeurs dans C. Notons θ ∈ R
Rb
u argument de a f (t)dt. Alors :
Z b Z b
iθ
f (t)dt = e f (t)dt .
a a
Et on peut alors se ramener au cas réel, et utiliser l’inégalité triangulaire pour l’intégrale de fonctions à
valeurs réelles, comme : R
b Rb
a f (t)dt = e−iθ a f (t)dt
Rb
= a f(t)e−iθ dt
Rb
= Re a f (t)e−iθ dt
Rb
= a Re(f (t)e−iθ )dt
Rb Rb
≤ a |f (t)e−iθ |dt = a |f (t)|dt
ce qui donne bien l’inégalité voulue.
Remarque V.5. On perd certains résultats propres à R, notamment ceux liés à la relation d’ordre sur R
(comme la positivité ou la croissance de l’intégrale).
Le théorème fondamental de l’analyse, même si sa preuve reposait sur le théorème des valeurs inter-
médiaires, reste vrai pour une fonction à valeur complexe, en regardant séparément ses parties réelle et
imaginaire.
Et les formules de Taylor (avec reste intégral on l’inégalité de Taylor–Lagrange) restent vraies, comme
elles reposent sur des intégrations par parties (qui restent valables par linéarité) et l’inégalité triangulaire
(dont on vient de voir qu’elle reste vraie).
En revanche, l’égalité de Taylor–Lagrange deviendrait fausse, à la manière du théorème de Rolle (dont il
s’agit d’une généralisation).
VI Sommes de Riemann
Définition VI.1. Étant donné [a, b] un segment, on appelle subdivision pointée de [a, b] la donnée d’un
couple (σ, (ti )i∈J0;n−1K ) où σ = (xi )i∈J0;nK est une subdivision de [a, b], et (ti )i∈J0;n−1K est une famille d’élé-
ments de [a, b] satisfaisant : ∀i ∈ J0; n − 1K, ti ∈ [xi ; xi+1 ].
On définira alors le pas de s, noté δ(s), comme le pas de σ.
Définition VI.2 (Somme de Riemann). Si f ∈ Cpm ([a, b]) et si (σ, (ti )i∈J0;n−1K ) est une subdivision pointée
de [a, b], on lui associe la somme de Riemann notée R(f, s) comme la quantité :
n−1
X
R(f, s) = (xi+1 − xi )f (ti ).
i=0
372 CHAPITRE 23. INTÉGRATION
Remarque VI.3. En pratique, on travaillera souvent avec les subdivisions régulières, et avec les subdivisions
pointées associées en prenant ti = xi ou ti = xi+1 , c’est-à-dire qu’on considèrera les deux sommes de
Riemann suivantes :
n−1 n
b−aX b−a b−aX b−a
f a+k et f a+k .
n k=0 n n k=1 n
Proposition VI.4. Si f est une fonction continue sur [a, b], et ε > 0, il existe η > 0 tel que, pour toute
subdivision pointée s de [a, b], si δ(s) ≤ η alors :
Z b
f (t)dt − R(f, s) ≤ ε.
a
Démonstration. Comme f est continue, par théorème de Heine elle est uniformément continue. Notons
ε
η > 0 qui correspond à la définition de l’uniforme continuité pour f avec > 0, et montrons qu’un tel
b−a
η convient.
ε
Soit i ∈ J0; n − 1K et t ∈ [xi ; xi+1 ]. Alors on a : |t − ti | ≤ xi+1 − xi ≤ η, et donc |f (t) − f (ti )| ≤ . Et
b−a
ainsi :
Z n−1
n−1 Z n−1
b X X xi X
f (t)dt − (xi+1 − xi )f (ti ) = f (t)dt − (xi+1 − xi )f (ti )
a
i=0 Zxi+1
i=0 i=0
n−1
X xi
= (f (t) − f (ti )) dt
i=0 xi+1
n−1
X xi Z
≤ |f (t) − f (ti )|dt
i=0 xi+1
n−1 Z xi
X ε
≤ dt
xi+1 b−a
Zi=0b
ε
≤ dt = ε
a b−a
ce qui donne bien le résultat.
Remarque VI.5. Ce résultat veut dire que l’on peut approcher de manière arbitrairement proche une in-
tégrale (d’une fonction continue) par une somme de Riemann quelconque, à condition que le pas soit
suffisamment petit.
On peut aussi interpréter ce résultat en termes de limites :
Z b
R(s, f ) → f (t)dt.
δ(s)→0 a
Théorème VI.6. Si f est une fonction continue par morceaux sur le segment [a, b], alors :
b n−1 n
b−aX b−a b−aX b−a
Z
f (t)dt = lim f a+k = lim f a+k .
a n→+∞ n n n→+∞ n n
k=0 k=1
Démonstration. Notons déjà que, par relation de Chasles, en découpant l’intégrale en des intervalles sur
lesquels f est continue, on peut se ramener au cas où f est continue.
Et si f est continue, on applique le résultat précédent, en notant que les deux sommes dont on cherches
b−a
les limites sont des sommes de Riemann associées aux subdivision régulières : elles sont un pas de ,
n
qui tend vers 0 quand n tend vers +∞, ce qui donne le résultat par la proposition précédente.
VI. SOMMES DE RIEMANN 373
Remarque VI.7. On aura parfois des sommes légèrement différentes, comme par exemple :
n
b−aX b−a
f a+k .
n k=0 n
On essaie alors de se ramener aux sommes de Riemann, en calculant explicitement l’écart entre la somme
considérée et une somme de Riemann.
b−a
Ici, l’écart est de f (a) · , qui tend vers 0, donc on trouve :
n
b n
b−aX b−a
Z
f (t)dt = lim f a+k .
a n→+∞ n n
k=0
Et le résultat se généralise bien sûr à toute somme de Riemann dont le pas tend vers 0.
Remarque VI.8. Les deux sommes considérées ici et dont on prend les limites se comprennent bien gra-
phiquement : on découpe [a, b] en n parts égales, et on prend la fonction en escalier qui prend les mêmes
valeurs que f à gauche dans le premier cas, ou à droite dans le second.
On parle alors de méthode des rectangles à gauche dans le premier cas, et de méthode des rec-
tangles à droite dans le second. Il existe d’autres méthodes plus générales : l’idée est que l’on approxime
ici sur chaque tronçon la fonction f par une fonction constante. On pourrait l’approximer par la constante
prose au point milieu du rectangle (on parle de méthode du point milieu) ou par des polynômes de
degrés arbitrairement grands, et de coefficients bien choisis (qui s’inscrivent dans le cadre général des mé-
thode de Newton–Coates). Ces méthodes sont compliquées à gérer dans le cas général, mais se comprennent
très bien avec des fonctions suffisamment régulières (par exemple des polynômes de degré suffisamment
petit, sur lesquelles elles donnent des résultats exacts).
Cf
374 CHAPITRE 23. INTÉGRATION
Cf
Cf
Exemples VI.9.
n
X 1
1. Étudions la limite de la suite (un )n≥1 définie par : un = n · 2
.
k=1
(n + k)
On a : n n
1X 1 1 − 0X k
un = k
= f
n k=1 (1 + n ) 2 n k=1 n
1
où f : x 7→ , qui est continue sur [0; 1]. Et en reconnaissant une somme de Riemann, on a
(1 + x)2
donc que (un ) tend vers :
Z 1 Z 1 1
1 −1 1
f (t)dt = 2
dt = = .
0 0 (1 + t) 1+x 0 2
VI. SOMMES DE RIEMANN 375
n
X n
2. Étudions la suite (un )n≥1 définie par : un = .
k=1
n2 + k2
On a : n n
1X 1 1 − 0X k
un = 2 = f
n k=1 1 + nk 2 n k=1 n
1
où f : x 7→ , qui est continue sur [0; 1]. En en reconnaissant une somme de Riemann, on a
1 + x2
donc que (un ) tend vers : Z 1 Z 1
1 π
f (t)dt = 2
dt = .
0 0 1+t 4
On peut aller plus loin et déterminer la vitesse de convergence de (un ) en étudiant la suite de terme
π
général un − . Pour tout n ∈ N∗ , on a :
4
n Z 1
π X 1/n 1
un − = 2 − 2
dx
4 k 1 + x
k=1 1 + n
0
!
n Z k/n
X 1/n 1
= −
k 2 2
dx
k=1 1 + (k−1)/n 1 + x
n
Xn Z k/n
= (f (k/n) − f (x))dx
k=1 (k−1)/n
1
où on reprend f : x 7→ .
1 + x2
Mais par inégalité des accroissements finis (ou inégalité de Taylor–Lagrange à l’ordre 1, ce qui re-
−2x
vient au même) la fonction f étant de classe C 1 sur [0; 1] de dérivée f ′ : x 7→ , et donc
(1 + x2 )2
|f ′ | ≤ 2 (par majoration un peu brutale du numérateur, et minoration aussi brutale du dénomina-
teur, en valeur absolue) ce qui donne :
(k − 1) k
∀k ∈ J1; nK, ∀x ∈ ; , |f (k/n) − f (x)| ≤ 2|k/n − x| = 2(k/n − x)
n n
Remarque I.4. Pour simplifier les notations, dans la notation précédente pour σ, on pourra ne faire
apparaı̂tre que les éléments du support de σ (mais il y a alors une ambiguı̈té sur la valeur de n).
Exemples I.5.
1. Si n = 1, le seul élément de Sn est id.
1 2
2. Si n = 2, il y a deux éléments dans S2 , à savoir id et τ = : i 7→ 3 − i. Et S2 ≃ U2 ≃ Z/2Z
2 1
est un groupe abélien.
3. Si n ≥ 3, alors Sn est non abélien, et devient rapidement compliqué. On peut noter que S3 est
l’unique groupe non abélien (à isomorphisme de groupe près) de cardinal 6.
Proposition I.6. Deux éléments de Sn de supports disjoints commutent si leurs supports sont disjoints.
377
378 CHAPITRE 24. DÉTERMINANTS ET GROUPE SYMÉTRIQUE
iRσ j ⇔ ∃k ∈ Z, σ k (i) = j.
Alors Rσ est une relation d’équivalence. De plus, les classes d’équivalences sont les orbites sous σ.
Théorème I.18. Tout permutation s’écrit comme produit de cycles à supports disjoints. De plus, une telle
écriture est unique à l’ordre près des cycles.
Preuve du lemme : Notons i ∈ J1; nK tel que O = Oσ (i) = {σ k (i) | k ∈ Z}. On considère p ∈ N∗ le plus
petit possible tel que σ p (i) = i, qui existe bien car O est un sous-ensemble de J1; nK, donc est fini, donc il
existe k, l ∈ Z distincts avec σ k (i) = σ l (i).
Donc l’ensemble {k ∈ N∗ | σ k (i) = i} est une partie non vide (qui contient |k − l|) de N, donc possède un
plus petit élément.
Par division euclidienne, on trouve alors que :
et tous les éléments dans la description ci-dessus sont deux-à-deux distincts (sinon cela contredirait la
minimalité de p).
Et on a ainsi que :
σ|O = i σ(i) σ 2 (i) . . . σ p−1 (i)
qui est bien un cycle de support O.
On va construire grâce au lemme une décomposition, et montrer qu’elle est unique (à l’ordre près) :
— existence : comme Rσ est une relation d’équivalence, ses classes (qui sont les orbites) forment une
partition de J1; nK. Plus précisément, les orbites non réduites à un singleton forment une partition
du support de σ. On écrit alors :
Supp(σ) = ∪pi=1 Oi
380 CHAPITRE 24. DÉTERMINANTS ET GROUPE SYMÉTRIQUE
Remarque I.20. Le point important dans cette démonstration est qu’elle donne une méthode pour déter-
miner explicitement l’écriture d’une permutation en produit de cycles.
1 2 3 4 5 6
Exemple I.21. Reprenons σ = . Alors on a :
6 4 3 5 2 1
σ= 1 6 2 4 5 3 = 1 6 2 4 5
Et on peut ensuite calculer les ordres des permutations. Pour la permutation σ on a pour tout k ∈ Z que :
k k
σk = 1 6 2 4 5
et donc σ k = id ⇔ k ∈ 6Z.
Remarque I.22. Plus généralement, si σ est le produit de cycles de longueurs p1 , . . . , pr , alors σ est d’ordre
ppcm(p1 , . . . , pr ).
Corollaire I.23. Toute permutation s’écrit comme produit de transpositions.
Démonstration. Du fait du théorème précédente, il suffit de montrer que tout cycle s’écrit comme produit
de transpositions.
Considérons le cycle σ = a1 a2 . . . ap .
Un calcul directe montre que :
σ = a1 a2 a2 a3 . . . ap−2 ap−1 ap−1 ap
I. LE(S) GROUPE(S) SYMÉTRIQUE(S) 381
Remarques I.24.
1. Une telle écriture n’est évidemment pas unique. Prenons par exemple id qu’on peut toujours écrire
τ ◦ τ avec τ une transposition quelconque.
Du fait de l’unicité dans l’écriture précédente, il ne faut pas non plus espérer que les transpositions
aient des supports disjoints, ou qu’elles commutent.
2. Le résultat se comprend bien : on peut réarranger comme on veut un ensemble fini en échangeant les
éléments deux par deux. On a même mieux : on pourrait n’échanger que des éléments consécutifs
(à la manière
du tri à bulles), ce qui revient à ne considérer que les transpositions de la forme
i i + 1 (pour i ∈ J1; n − 1K). Et il y a de nombreux autres systèmes de générateurs.
Théorème I.26. La signature est l’unique morphisme de groupe non trivial de Sn dans {−1; 1}.
Démonstration. Montrons déjà que la signature est un morphisme de groupe non trivial de Sn dans
{−1; 1} :
— elle est à valeurs dans {−1; 1} : posons I = {(i, j) | 1 ≤ i < j ≤ n} ; par bijectivité de σ, on a que
l’application :
I → I
φσ : (σ(i), σ(j)) si σ(i) < σ(j)
(i, j) 7→
(σ(j), σ(i)) si σ(j) < σ(i)
est injective, donc bijective (en tant qu’application entre deux ensembles finis de même cardinal).
Et alors : Y Y
|σ(i) − σ(j)| = |i − j|
(i,j)∈I (i,j)∈I
Pour l’unicité, considérons φ un tel morphisme non trivial. Comme Sn est engendré par les transpositions,
il suffit de montrer que toute transposition a pour image −1, l’image des autres permutations découlera
par morphisme.
382 CHAPITRE 24. DÉTERMINANTS ET GROUPE SYMÉTRIQUE
Montrons déjà que toutes les transpositions ont même image. Pour cela, considérons i j et k l deux
transpositions. Comme i ̸= j et k ̸= l, on peut trouver une permutation qui envoie i sur k et j sur l. En
notant σ une telle transposition, on a :
σ −1 i j σ = k l
et donc :
φ( k l ) = φ(σ −1 i j σ) = φ(σ −1 ) φ( i j )φ(σ) = φ(σ −1 )φ(σ) φ( i j ) = φ( i j )
| {z } | {z }
=(φ(σ))−1 =1
et ainsi toutes les transpositions ont même image. Soit elles ont pour image 1, et dans ce cas φ est trivial,
soit elles ont pour image −1 et alors φ = ε.
Ce qui montre bien l’unicité.
Remarque I.27. Le résultat sur les transpositions se généralise à des permutations quelconques : étant
données deux permutations σ1 , σ2 , elles sont conjuguées (c’est-à-dire que l’on peut trouver σ ∈ Sn telle
que σ1 = σ −1 σ2 σ) si, et seulement si, leurs décompositions en cycles à supports disjoints font intervenir
autant de cycles de chaque longueur.
Corollaire I.28. Si σ ∈ Sn s’écrit comme le produit de transpositions σ = τ1 ◦ . . . τp , alors la parité de p
est donnée par : (−1)p = ε(σ).
Remarque I.29. On avait montré qu’une telle écriture n’était pas unique. Le résultat précédent montre
qu’elle a tout de même une certaine rigidité.
Corollaire I.30. Un p-cycle a pour signature (−1)p−1 .
Démonstration. On avait écrit un p-cycle en produit de (p − 1) transpositions. Comme les transpositions
sont de signature (−1), le résultat découle par morphisme.
Remarque I.31. Ce résultat permet en pratique de calculer facilement une signature, en décomposant une
permutation en produit de cycles (ce qui est plus pratique qu’une décomposition en produit de transposi-
tions).
1 2 3 4 5 6
Exemple I.32. Reprenons σ = = 1 6 2 4 5 . Alors :
6 4 3 5 2 1
ε(σ) = ε 1 6 · 2 4 5 = (−1)1 · (−1)2 = −1
→
−
v1
= (a1 , b1 ) A2 = a
2 b1 − a
1b 2
y1
→
− y2 − x2
u2 A1 = x1
= (x2 , y2 )
→
−
u1 →
−
v2
= (x1 , y1 ) = (a2 , b2 )
II. FORMES MULTILINÉAIRES ALTERNÉES 383
ou en dimension 3 :
→
−
u2
= (x2 , y2 , z1 )
→
−
u3
= (x3 , y3 , z3 )
x1 · y2 · z3 + x2 · y3 · z1 + x3 · y1 · z2
→
− V1 =
u1 −x3 · y2 · z1 − x2 · y1 · z3 − x1 · y3 · z2
= (x1 , y1 , z1 )
→
−v3
= (a3 , b3 , c3 )
→
−v2
= (a2 , b2 , c1 )
a1 · b 2 · c 3 + a2 · b 3 · c 1 + a3 · b 1 · c 2
V2 =
−a3 · b2 · c1 − a2 · b1 · c3 − a1 · b3 · c2
→
−v1
= (a1 , b1 , c1 )
On est donc à la recherche d’une fonction définie sur les familles de vecteurs qui généraliserait tout cela :
on veut qu’elle vérifie certaines propriétés qui se comprennent intuitivement (et qu’on expliquera quand
elles apparaı̂tront).
Remarques II.3.
1. Une application multilinéaire n’est en général pas linéaire : si λ ∈ K et (x1 , . . . , xn ) ∈ E1 × · · · × En ,
alors :
f (λ(x1 , . . . , xn )) = f (λx1 , . . . , λxn ) = λn f (x1 , . . . , xn ).
2. Dans le cas particulier où n = 2, on parle d’application bilinéaire. On parle alors de linéarité
à gauche pour désigner la linéarité par rapport aux éléments de E1 , et linéarité à droite par
rapport à ceux de E2 .
Exemples II.4.
384 CHAPITRE 24. DÉTERMINANTS ET GROUPE SYMÉTRIQUE
1. L’application qui à deux matrices associe leur produit est bilinéaire (on l’avait montré quand on avait
défini les produits matriciels). Plus généralement, si m0 , m1 , . . . , mn ∈ N∗ , alors l’application :
Mm0 ,m1 (K) × · · · × Mmn−1 ,mn (K) → Mm0 ,mn (K)
(A1 , . . . , An ) 7→ A1 × · · · × An
det (λ(a, b) + µ(a′ , b′ ), (c, d)) = det ((λa + µa′ , λb + µb′ ), (c, d)) = (λa + µa′ )d − (λb + µb′ )c
.
= λ (ad − bc) + µ (a′ d − b′ c) = λdet((a, b), (c, d)) + µdet((a′ , b′ ), (c, d))
(a, b) · (c, d) = ac + bd
est bilinéaire.
Définition II.5. Si E est un K-espace vectoriel, et n ∈ N∗ , une application n-linéaire de E n dans K est
appelée forme n-linéaire sur E.
Exemple II.6. Dans les exemples précédents, le déterminant et le produit scalaire sont des applications
2-linéaires de R2 × R2 sur R : ce sont des formes 2-linéaires sur R2 .
c’est-à-dire que tout n-uplet dont deux éléments sont égaux ont une image nulle par φ.
Exemples II.8.
1. Le déterminant est une forme 2-linéaire alternée :
(a, b) · (a, b) = a2 + b2
Proposition II.9. Si φ est une forme n-linéaire alternée , alors l’image par φ d’un n-uplet ne change pas
si on ajoute à l’un se ses éléments une combinaison linéaire de ses autres éléments.
Démonstration. On considère (x1 , . . . , xn ) ∈ E n , alors pour tous i, j ∈ J1; nK distincts et tout λ ∈ K,
on peut changer la valeur de xi en xi + λxj sans changer la valeur de φ. Comme modifier xi par une
combinaison linéaire des xj (pour j ̸= i) revient à faire un nombre fini d’opérations de ce type, le résultat
voulu en découlera.
Par n-linéarité, on a déjà :
Mais comme φ est alternée, on déduit que le second terme ci-dessus est nul. Ce qui prouve le résultat.
Corollaire II.10. L’image d’une famille liée par une forme n-linéaire alternée est nulle.
Démonstration. Considérons (x1 , . . . , xn ) famille liée. Alors l’un des vecteurs s’exprime P comme combinaison
linéaire des autres. Il existe donc i ∈ J1; nK et des scalaires (λj )j̸=i tels que : xi = j̸=i λj xj = 0.
Et ainsi : X
φ(. . . , xi , . . . ) = φ(. . . , xi − λj xj , . . . ) = φ(. . . , 0, . . . ) = 0
j̸=i
c’est-à-dire que le fait d’inverser deux éléments dans un n-uplet change son image par φ en son opposé.
Les formes n-linéaires alternées sont exactement les formes n-linéaires antisymétriques.
Démonstration. On procède par double implication :
— si φ est alternée : considérons (x1 , . . . , xn ) ∈ E n et fixons i, j ∈ J1; nK tels que i < j. Alors comme
φ est alternée :
φ(. . . , xi + xj , . . . , xi + xj , . . . ) = 0
mais par n-linéarité, on a également :
φ(. . . , xj , . . . , xi , . . . ) = −φ(. . . , xi , . . . , xj , . . . )
φ(x1 , . . . , xn ) = −φ(x1 , . . . xn )
c’est-à-dire que le fait d’échanger les éléments d’un n-uplet suivant une permutation modifie la valeur de
φ en la multipliant par la signature de la permutation.
Démonstration. On sait qu’inverser deux éléments dans un n-uplet multiplie par −1 son image par φ. Le
résultat est donc vrai pour tout transposition.
On en déduit alors le résultat général : on considère une permutation σ, qu’on écrit comme produit des
transpositions τ1 ◦ · · · ◦ τp . Le fait le permuter les éléments suivant σ revient à appliquer p transpositions,
donc à multiplier φ par (−1)p = ε(σ).
C’est donc une droite vectorielle engendrée par la forme n-linéaire alternée :
n n
!
X X X
x1 = ai,1 ei , . . . , xn = ai,n ei 7→ ε(σ)aσ(1),1 . . . aσ(n),n
i=1 i=1 σ∈Sn
Démonstration. Le lemme précédent donne déjà l’écriture de φ(x1 , . . . , n) : dans la somme du lemme, il ne
restera que les termes où les ik sont deux-à-deux distincts (et forment donc l’ensemble J1; nK), où on fait
à chaque fois ressortir la signature de la permutation qui permet de ranger les ik dans l’ordre croissant.
Pour montrer qu’il s’agit d’une droite vectorielle, on constate déjà que :
III. DÉTERMINANTS 387
— c’est un espace vectoriel : c’est un sev de F(E n , K) en tant que sous-ensemble non vide (la fonction
nulle est n-linéaire alternée) stable par combinaison linéaire (immédiat par le calcul) ;
— il est engendré par un vecteur : par l’écriture précédente, il suffit de voir que l’application ψ don-
née dans le théorème est une forme n-linéaire alternée. La n-linéarité vient du fait que chaque
application : (x1 , . . . , xn ) 7→ aσ(1),1 . . . aσ(n),n est n-linéaire (par n-linéarité du produit de n facteurs,
comme chaque facteur correspond à un unique xi ). Le caractère alterné est plus calculatoire, mais
se montre en faisant agir une transposition, et en utilisant que pour tout transposition τ on a :
{τ ◦ σ | σ ∈ Sn } = Sn et que ε(τ ◦ σ) = −ε(σ) (ce qui fera bien apparaı̂tre le “−” des formes
antisymétriques, donc alternées).
— et ce vecteur est non nul : il suffit de voir que ψ est non nulle, mais comme Mat(ei ) (ei ) = In = (δi,j ),
alors : X
ψ(e1 , . . . , en ) = ε(σ)δσ(1),1 . . . δσ(n),n = ε(id) = 1
σ∈Sn
Remarque II.15. On a en fait un résultat plus général, mais plus compliqué à montrer, qui est que l’en-
semble des formes p-linéaires alternées sur un espace de dimension n est un espace vectoriel de dimension
n
k
.
La structure d’espace vectoriel se montre comme dans le cas où p = n.
Pour la dimension :
1 ≤ i1 <
— le cas général se comprend bien : on a vu qu’il suffisait de regarder les φ(ei1 , . . . , eip ) (avec
n
· · · < ip ≤ n) pour déterminer φ, ce qui donne une majoration de la dimension par p (car d’un
côté la dimension constitue le nombre de degré de libertés, et de l’autre on a np choix pour les ij ) ;
— on retrouve le cas où p = 1, puisqu’une forme 1-linéaire alternée est en fait un forme linéaire, et
dimE ∗ = dimE = n = n1 ;
— le cas où p = 0 est un peu plus subtile, mais se comprend bien : une application 0-linéaire alternée
est en fait une application de E 0 dans K, donc une fonction de {0} dans K, et F(Ω, F ) est un
espace vectoriel de dimension card(Ω) · dim(F ), ce qui donne bien une dimension 1 dans notre cas ;
— et on retrouve le cas où n < p : toute famille à p éléments étant liée, une forme p-linéaire alternée
sur un espace de dimension plus petit est nulle ;
III Déterminants
III.1 Déterminant d’une famille de vecteurs dans une base
Théorème-Définition III.1. Étant donné E un espace vectoriel de dimension n et B = (e1 , . . . , en ) une
base de E, il existe une unique forme n-linéaire alternée sur E telle que l’image de (e1 , . . . , en ) soit égale
à 1.
On l’appelle le déterminant dans la base (ei ), et on le note det(ei) ou detB .
Si (x1 , . . . , xn ) ∈ E n vérifie : MatB (xj ) = (ai,j ), alors :
X X n
Y
detB (x1 , . . . , xn ) = ε(σ)aσ(1),1 . . . aσ(n),n = ε(σ) aσ(i),i .
σ∈Sn σ∈Sn i=1
De plus, toute forme n-linéaire alternée est un multiple de detB . Plus précisément, si φ est une telle forme,
alors :
φ = φ(e1 , . . . , en ) · detB .
388 CHAPITRE 24. DÉTERMINANTS ET GROUPE SYMÉTRIQUE
Démonstration. L’unicité vient du fait que l’ensemble des formes n-linéaires forme une droite vectorielle :
si une autre forme existait, elle serait de la forme φ = λdetB . Et on trouve alors λ = 1 en évaluant en
(e1 , . . . , en ) ce qui donne bien l’unicité.
L’existence vient de l’application ψ construite au théorème précédent (on avait bien que ψ(e1 , . . . , en ) = 1),
et donne la formule du théorème par son caractère n-linéaire alterné.
Enfin, comme detB est une forme n-linéaire alternée non nulle, alors elle engendre l’ensemble des formes
n-linéaires alternées (comme il s’agit d’une droite vectorielle). Donc toute forme n-linéaire alternée φ s’écrit
sous la forme φ = λdetB , et l’évaluation en (e1 , . . . , en ) donne λ = φ(e1 , . . . , en ).
Exemples III.2.
1. Donnons l’expression du déterminant dans K2 muni de sa base canonique B. Considérons les vec-
teurs x = (a, b) et y = (c, d). Alors on a déjà que :
a c
MatB (x, y) = .
b d
+
a c
b d
−
aei − |{z}
detB (x, y, z) = |{z} bdi − cge − af h + bf g + |{z} cdh
|{z} |{z} |{z}
id
1 2 1 3 2
1 3 2 3 1 2 3
Qu’on ne retiendra pas par cœur, mais qu’on retrouve avec la règle de Sarrus :
+ a d g a d
b e h b e
− c f ic f
+ a d g a d g a d g
b e h = b e h −b e h
− c f i c f i c f i
Remarque III.3. En dimensions 2 et 3, on retrouve les formules pour l’aire d’un parallélogramme ou pour
le volume d’un parallélépipède. Cette conformité du déterminant avec l’aire ou le volume se comprennent
bien par les propriétés du déterminant :
III. DÉTERMINANTS 389
par formule du changement de base. Ce qui donne bien que le déterminant de f est bien défini et le dépend
pas de la base choisie.
Et le fait que φ = φ(e1 , . . . , en )detB donne le dernier résultat.
390 CHAPITRE 24. DÉTERMINANTS ET GROUPE SYMÉTRIQUE
Corollaire III.10. Un endomorphisme f de E est un automorphisme si, et seulement si, son déterminant
est non nul, et on a alors :
1
det(f −1 ) = .
det(f )
L’application det réalise ainsi un morphisme de groupes de GL(E) dans K∗ .
Remarque III.11. Le premier résultat se comprend bien en terme de familles de vecteurs, dans la mesure
où :
— un endomorphisme est bijectif si, et seulement si, l’image d’une base est une base ;
— une famille est une base si, et seulement si, son déterminant est non nul.
X n
Y
det(A) = ε(σ) aσ(i),i .
σ∈Sn i=1
On notera alors :
a1,1 . . . a1,j . . . a1,n
. .. ..
.
. . .
det(A) = ai,1 . . . ai,j . . . ai,n .
. .. ..
.. . .
a . . . a . . . a
n,1 n,j n,n
Remarque III.13.
Le déterminant d’une matrice est le déterminant dans la base canonique de Mn,1 (K) de la famille de ses
vecteurs colonnes. C’est donc le déterminant de l’endomorphisme canoniquement associé.
Démonstration. Découle des résultats pour les endomorphismes, appliqués aux endomorphismes canoni-
quement associés à A et à B.
Remarque III.18. On peut aussi interpréter ce résultat en terme d’endomorphismes, comme on a montré
que le déterminant d’un endomorphisme ne dépend pas de la base choisie.
Corollaire III.19. Une matrice A ∈ Mn (K) est inversible si, et seulement si, son déterminant est non nul,
et on a alors :
1
det(A−1 ) = .
det(A)
L’application det réalise ainsi un morphisme de groupes de GLn (K) dans K∗ .
Remarque III.20. On retrouve d’une autre manière que deux matrices semblables ont même déterminant,
comme :
det(P −1 BP ) = det(P −1 )det(B)det(P ) = det(P )−1 det(B)det(P ) = det(B).
Démonstration. On utilise que le déterminant d’une matrice est une forme n-linéaire alternée, vue comme
une application sur les colonnes ou les lignes.
Une permutation revient à faire agir une transposition sur les lignes ou les colonnes, et donc multiplie le
déterminant par −1 (car le déterminant est antisymétrique).
Une dilatation revient à multiplier une ligne ou une colonne par λ, donc à multiplier le déterminant par λ
(car le déterminant est n-linéaire).
Une transvection revient à ajouter à une ligne ou une colonne une combinaison linéaire des autres lignes
ou colonnes, et ne change pas le déterminant (car le déterminant est alterné).
Remarque IV.2. Un point important est que toutes ces opérations préservent le rang (et l’inversibilité),
donc il est rassurant de voir que ces opérations préservent la nullité ou non du déterminant.
Remarque IV.3. On peut ainsi effectuer la méthode du pivot pour calculer le déterminant d’une matrice :
— soit on se ramène par opérations élémentaires à la matrice In , dont le déterminant est 1 ;
— soit on se ramène à une matrice non inversible, donc le déterminant est 0.
Et les opérations élémentaires utilisées permettent d’en déduire le déterminant de la matrice de départ.
Proposition IV.4. Le déterminant d’une matrice triangulaire est égal au produit de ses coefficients diago-
naux.
IV. CALCULS DE ET AVEC DES DÉTERMINANTS 393
Démonstration. Montrons le pour une matrice triangulaire supérieure (le cas des matrices triangulaires
inférieures se déduit par passage à la transposée).
Soit A = (ai,j ) ∈ Mn (K) triangulaire supérieure, c’est-à-dire que : ∀i, j ∈ J1; nK, i > j ⇒ ai,j = 0.
On utilise le lemme suivant :
Lemme IV.5. Soit σ ∈ Sn telle que : ∀i ∈ J1; nK, σ(i) ≤ i. Alors σ = id.
Preuve du lemme : On montre par récurrence forte (finie) sur i ∈ J1; nK que σ(i) = i :
— si i = 1 : σ(1) ≤ 1, donc nécessairement σ(1) = 1.
— si i ∈ J1; n − 1K tel que pour tout j ∈ J1; iK, σ(j) = j. Alors σ(i + 1) ≤ i + 1 donc σ(i + 1) ∈ J1; i + 1K.
Mais par injectivité de σ, on a que σ(i + 1) ∈ / σ (J1; iK) = J1; iK. Et donc σ(i + 1) = i + 1.
Ce qui prouve le lemme par récurrence.
On a par définition :
X n
Y X n
Y n
Y
det(A) = ε(σ) aσ(i),i = ε(σ) aσ(i),i = ai,i .
σ∈Sn i=1 σ=id i=1 i=1
car dans la somme tout élément σ ∈ Sn \ {id} vérifie σ(i) > i pour un i ∈ J1; nK (d’après le lemme), et
donc pour un tel σ on a : ni=1 aσ(i),i = 0 (car l’un des facteurs est nul).
Q
Remarques IV.6.
1. Ce résultat simplifie beaucoup les calculs, puisqu’il suffit d’échelonner une matrice (par opérations
élémentaires) pour calculer son déterminant, au lieu de faire toute la méthode du pivot.
2. On retrouve au passage qu’une matrice triangulaire est inversible si, et seulement si, ses coefficients
diagonaux sont non nuls.
1 −1 2 −1
2 −1 1 −2
Exemple IV.7. Calculons le déterminant de la matrice : A = −1 3
:
1 −1
3 0 −2 0
1 −1 2 −1
2 −1 1 −2
det(A) =
−1 3 1 −1
3
0 −2 0
1 −1 2 −1
0 1 −3 0
=
0 2 3 −2
0 3 −8 3
1 −1 2 −1
0 1 −3 0
=
0 0 9 −2
0 0 1 3
1 −1 2 −1
0 1 −3 0
= −
0 0 1 3
0 0
9 −2
1 −1 2 −1
0 1 −3 0
= −
0 0 1 3
0 0 0 −29
= 29
394 CHAPITRE 24. DÉTERMINANTS ET GROUPE SYMÉTRIQUE
Proposition IV.8. Le déterminant d’une matrice triangulaire en bloc est égal au produit des déterminants
de ses blocs diagonaux.
Mais, du fait de la forme de A, les seuls termes non nuls de la sommes sont ceux pour lesquels σ(J1; n1 K) ⊂
J1; n1 K, et donc σ(J1; n1 K) = J1; n1 K (en tant qu’application injective entre ensembles de même cardinal, la
restriction de σ à J1; n1 K réalise une bijection sur J1; n1 K).
Un tel σ ∈ Sn vérifie également : σ(Jn1 + 1; nK) ⊂ Jn1 + 1; nK, et donc σ(Jn1 + 1; nK) = Jn1 + 1; nK (par le
même argument).
On note Sn′ l’ensemble de tels éléments σ ∈ Sn , auxquels on associe les restrictions σ1 , σ2 respectivement
à J1; n1 K et à Jn1 + 1; nK, on a :
X n1
Y n
Y
det(A) = ε(σ) aσ1 (i),i aσ2 (j),j
′
σ∈Sn i=1 j=n1 +1
mais en assimilant σ1 à un élément de Sn1 (par restriction) et σ2 à un élément de Sn2 (à savoir l’élément :
j 7→ σ2 (j + n1 ) − n1 ), on trouve que :
X n1
Y n2
Y
det(A) = ε(σ1 ) · ε(σ2 ) [A1,1 ]σ1 (i),i [A2,2 ]σ2 (j),j = det(A1,1 )det(A2,2 ).
σ1 ∈Sn1 ,σ2 ∈Sn2 i=1 j=1
Le résultat général se déduit alors par récurrence, en notant que toute matrice triangulaire en blocs peut
se décomposer en matrice triangulaire en blocs de la forme ci-dessus.
Par linéarité du déterminant par rapport aux n1 premières colonnes et par son caractère alterné, on voit
facilement que φ est une forme n1 -linéaire alternée sur Mn1 ,1 (K), et donc en notant B la base canonique
de Mn1 ,1 (K) on obtient que pour tous X1 , . . . , Xn1 ∈ Mn1 ,1 (K) on a :
In1 A1,2
φ(X1 , . . . , Xn1 ) = detB (X1 , . . . , Xn1 )φ(B) = detB (X1 , . . . , Xn1 )det .
0 A2,2
et on obtient de même, en notant C la base canonique de Mn2 ,1 (K), que pour tous Y1 , . . . , Yn2 ∈ Mn2 ,1 (K) :
In1 A1,2
ψ(Y1 , . . . Yn2 ) = detC (Y1 , . . . , Yn2 )det .
0 In2
La dernière matrice est triangulaire avec des 1 sur la diagonale, donc de déterminant 1, ce qui donne
finalement que pour tous X1 , . . . , Xn1 ∈ Mn1 ,1 (K) et Y1 , . . . , Yn2 ∈ Mn2 ,1 (K) :
X1 . . . Xn1 A1,2
det = detB (X1 , . . . , Xn1 ) · detC (Y1 , . . . , Yn2 )
0 Y1 . . . Yn2
En prenant pour X1 , . . . , Xn1 , Y1 , . . . , Yn2 les colonnes respectivement de A1,1 et A2,2 , on obtient donc :
1 ai,1 ... ai,j−1 ai,j+1 . . . ai−1,n
0 a1,1 ... a1,j−1 a1,j+1 . . . a1,n
.. .. .. ..
. . . .
j−1 ..
i−1
= (−1) · (−1) · . ai−1,1 . . . ai−1,j−1 ai−1,j+1 . . . ai−1,n
a . . . ai+1,j−1 ai+1,j+1 . . . ai+1,n
i+1,1
.. .. .. ..
. . . .
0 an,1 . . . an,j−1 an,j+1 . . . an,n
a1,1 ... a1,j−1 a1,j+1 ... a1,n
. .. .. ..
.
. . . .
a . . . ai−1,j−1 ai−1,j+1 . . . ai−1,n
= (−1)i+j · i−1,1
ai+1,1 . . . ai+1,j−1 ai+1,j+1 . . . ai+1,n
.. .. .. ..
. . . .
a . . . an,j−1 an,j+1 . . . an,n
n,1
= (−1)i+j ∆i,j
cycle 1 2 . . . i qui est
où on a permuté les i premières lignes par le de signature (−1)i−1 , et les j
premières colonnes par le cycle 1 2 . . . j qui est de signature (−1)j−1 , et où le dernier déterminant
se calcule par blocs.
Corollaire IV.12 (Développement du déterminant suivant une ligne). Si A = (ai,j ) ∈ Mn (K) et i ∈ J1; nK,
alors :
Xn
det(A) = (−1)i+j ai,j ∆i,j .
j=1
Remarques IV.13.
1. On peut ainsi transformer le calcul du déterminant d’une matrice de taille n en celui de n matrices
de taille (n − 1). Cette méthode n’est en général pas rentable (on peut voir que la complexité est de
n(n − 1)
l’ordre de n! si on effectue toutes les étapes, donc bien plus long qu’un pivot qui demande
2
opérations). Mais elle peut être utile lorsque la matrice considérée présente beaucoup de 0 sur une
ligne ou une colonne (et on choisira alors cette ligne ou colonne pour développer le déterminant).
2. Il ne faut pas oublier les signes à rajouter du fait des (−1)i+j . Du fait de la somme, cela revient à
alterner les signes, qu’on peut visualiser en mettant en regard la matrice dont on veut calculer le
IV. CALCULS DE ET AVEC DES DÉTERMINANTS 397
et les deux déterminants de taille 3 que l’on fait apparaı̂tre se calculent rapidement par la règle de Sarrus,
ou avec un pivot :
−1 2 −1 −1 2 −1
−1 1 −2 = 0 −1 −1 = − −1 −1 = −(4 + 7) = −11
7 −4
3 1 −1 0 7 −4
1 −1 −1 1 −1 −1
1 0
2 −1 −2 = 0 1 0 =
= −2
−1 3 −1 0 2 −2 2 −2
et finalement :
det(A) = −3 · · · (−11) + 2 · (−2) = 29.
∗
par récurrence sur n ∈ N :
Démonstration. Montrons le résultat
— si n = 1 : alors V (x1 ) = 1 = 1, qui vérifie bien la formule car on trouve le produit vide (qui vaut
1) ;
— si n = 2 : alors :
1 1
V (x1 , x2 ) =
= x2 − x1
x1 x2
qui correspond bien à la formule ;
398 CHAPITRE 24. DÉTERMINANTS ET GROUPE SYMÉTRIQUE
Remarque IV.17. Le déterminant d’une matrice étant égal à celui de sa transposée, on a également que :
1 x1 x2
1 . . . xn−1
1
1 x2 x2 n−1
2 . . . x2
V (x1 , . . . , xn ) = .. ..
.. ..
. . . .
1 xn x2n n−1
. . . xn
et on reconnaı̂t la matrice, dans les bases canoniques de Kn−1 [X] et Kn , de l’application :
φ : P 7→ (P (x1 ), . . . , P (xn )).
Il est clair d’une telle application n’est pas inversible si deux des xi sont égaux. On peut voir indifféremment
que, si xi = xj pour i ̸= j fixés, alors :
IV. CALCULS DE ET AVEC DES DÉTERMINANTS 399
Q
— φ( k̸=i (X − xk )) = 0 = φ(0), donc φ n’est pas injective ;
— (0, . . . , 1, . . . 0) (un 1 en position i et des 0 partout ailleurs) n’a pas d’antécédent, car un élément
de Imφ a mêmes coordonnées en places i et j ; donc φ n’est pas surjective.
Inversement, si les xi sont deux-à-deux distincts, en notant L1 , . . . , Ln les polynômes interpolateurs de
Lagrange associés à la famille (xi ), l’application φ est inversible d’inverse :
n
X
−1
φ : (y1 , . . . , xn ) 7→ yi Li .
i=1
IV.4 Comatrices
Définition IV.18. Étant donnée A ∈ Mn (K), on appelle comatrice de A, notée Com(A), comme la
matrice de Mn (K) dont les coefficients sont les cofacteurs de A, c’est-à-dire que :
Remarque IV.21. En prenant la transposée dans les égalités précédentes, on trouve également que
1
Corollaire IV.22. Si A ∈ GLn (K), on a : A−1 = Com(A)T .
det(A)
Remarque IV.23. Cette méthode permet d’exprimer implicitement des inverses de matrices, mais est en
général peu efficace car assez longue en calculs. Elle reste raisonnable pour les matrices de taille 2 ou 3,
à plus forte raison quand elles présentent de nombreux coefficients nuls (car alors les cofacteurs sont plus
facile à calculer).
Exemples IV.24.
a b d −c
1. Pour une matrice de taille 2 : A = , la comatrice est : Com(A) = .
c d −b a
−1 1 d −b
Et donc, si A est inversible, son inverse est : A = .
ad − bc −c a
−1 1/a −b/ad
Si de plus c = 0, on obtient que : A = , et on retrouve qu’une matrice triangulaire
0 1/d
inversible est triangulaire, avec comme coefficients diagonaux les inverses des coefficients diago-
naux de la matrice de départ. Il n’est d’ailleurs pas difficile d’étendre ce résultat à des matrices
triangulaires de taille quelconques par un calcul analogue.
Si A n’est pas inversible, avec A ̸= 0, on déduit que les colonnes de Com(A)T sont des éléments
de KerA (qui est de dimension 1), et comme Com(A)T est non nulle, on déduit que ses colonnes
engendrent KerA (et sont proportionnelles).
4 3 −2
2. Pour une matrice de taille 3, considérons : A = −5 −1 2 .
−2 6 3
On calcule le déterminant de A par règle de Sarrus, ce qui donne :
det(A) = −12 + 60 − 12 + 4 − 48 + 45 = 37
Et de plus :
−15 11 −32
Com(A) = −21 8 −30
4 2 11
Et donc :
−15 −21 4
1
A−1 = · 11 8 2
37
−32 −30 11
Chapitre 25
Séries numériques
2. si (un ) est une suite géométrique : par exemple si un = 3 · 2n (suite géométrique de raison 2 et de
premier terme 3) alors :
n
X 2n+1 − 1
3 · 2n = 3 · = 3 · 2n+1 − 1 .
Sn =
k=0
2−1
1 1 1
3. si on a un télescopage : par exemple si un = = − alors :
n(n + 1) n n+1
n
X 1 1 1
Sn = − =1− .
k=1
k k + 1 n + 1
401
402 CHAPITRE 25. SÉRIES NUMÉRIQUES
Et la linéarité de la somme permet aussi d’utiliser plus généralement ces situations connues.
P
Définition I.4. Si (un ) est une suite numérique, on dira que la série un converge (ou est convergente)
si la suite (Sn ) des
P+∞sommes partielles converge.
On notera alors n=0 un sa limite, qu’on appellera somme de la série.
Une série qui ne converge pas sera dite divergente.
Plus généralement, on parlera de nature d’une série selon qu’elle converge ou non.
Remarque I.5. P
On prendra bien garde à ne pas confondre :
— la série un : qui P
est une suite ;
n
— la somme partielle P k=0 uk : qui est un réel ou un complexe, construit en tant que somme finie ;
— la somme de la série +∞ n=0 un : qui n’a même pas toujours un sens.
Exemples I.6.
1. Dans les exemples précédents, seule la série associée au téléscopage convergeait.
2. La série de terme général (−1)n diverge. On a en effet que pour tout n ∈ N :
n
X
k 0 si n est impair
(−1) =
1 si n est pair
k=0
1 1
3. La série de terme général diverge, tandis que la série de terme général 2 converge. On avait
n n
montré ces deux résultats en montrant que :
P1
— si on note (Sn )n≥1 la suite des sommes partielles de la série , alors pour tout n ∈ N∗ on a :
n
2n 2n
X 1 X 1 1
S2n − Sn = ≥ =
k=n+1
k k=n+1 2n 2
donc la suite (Sn ) ne peut converger, car sinon la suite extraite (S2n ) convergerait vers la même
limite, donc on aurait que (S2n − Sn ) tend vers 0 ;
P 1
— si on note (Tn )n≥1 la suite des sommes partielles de la série , alors la suite (Tn ) est
n2
croissante : elle converge si, et seulement si, elle est majorée. Mais pour tout n ∈ N∗ on a :
n n n
X 1 X 1 X 1
Tn = 2
= 1 + 2
≤1+ ≤2
k=1
k k=2
k k(k − 1)
|k=2 {z }
1
=1− par télescopage
n
P 1
et donc (Tn ) converge, donc la série converge.
n2
P P
Proposition I.7. Étant donnée (un )n≥n0 une suite complexe et n1 ≥ n0 , les séries n≥n0 un et n≥n1 un
ont même nature.
Démonstration. On revient à la définition de la convergence, avec les sommes partielles. On a pour tout
n ≥ n1 :
Xn 1 −1
nX n
X
uk = uk + uk
k=n0 k=n0 k=n1
et donc les sommes partielles associées aux suites (un )n≥n0 et (un )n≥n1 diffèrent d’une constante : l’une
converge si, et seulement si, l’autre converge. C’est-à-dire que les séries associées ont même nature.
I. CONVERGENCE ET DIVERGENCE D’UNE SÉRIE 403
Remarque I.8. On s’intéressera ainsi plus particulièrement au comportement en l’infini d’une suite pour
déterminer la nature de la série associée, et retirer éventuellement les premiers termes si ceux-ci posent
problème.
En revanche, pour déterminer la somme d’une série, il faudra bien prendre garde à conserver tous les
termes, puisque ceux-ci ont une incidence sur la somme.
P
Proposition I.9. La suite (un ) et la série télescopique (un+1 − un ) ont même nature.
Remarques I.11.
1. On obtient notamment que multiplier une suite par un scalaire (non nul) ne change pas la nature
de sa série.
P
2. La réciproque est fausse : prenons λ = µ = 1 et (vn ) = (−un ) avec un divergente, ce qui donne
une combinaison linéaire de série qui converge, alors qu’aucune des séries ne converge.
P
3. Ce résultat peutPaussi s’utiliser
P pour déterminer la nature d’une série : si un converge, alors
les deux séries
P v et
nP (un + vn ) ont même nature.
P La réciproque
P se déduit de la proposition
appliquée à un et vn , et la réciproque avec (−un ) et (un + vn ).
P
Proposition-Définition I.12. Si la série un converge,
P alors la suite (un ) tend vers 0.
Ainsi, si la suite (un ) ne tend pas vers 0, la série un sera divergente, et on dira qu’elle diverge gros-
sièrement.
Remarque I.13. La réciproque est fausse. Une suite peut tendre vers 0sans que sa série ne converge, ou
P1 1
même ne soit bornée. On a vu par exemple que n
diverge alors que tend vers 0.
n
En revanche, cela dit plus rapidement que (−1)n diverge, sans avoir à calculer les sommes partielles.
P
La première chose à faire pour déterminer si une série converge est donc de vérifier si son terme général
tend vers 0.
√
π n
Exemple I.14. La série de terme général 1 − est divergente car :
n
√ √ √
π n π −π 1 π 1
1− = exp nln 1 − = exp n +o = exp − √ + o √ → 1 ̸= 0
n n n n n n n→+∞
Remarque I.15. Cette analyse asymptotique est d’autant plus intéressante qu’on verra d’autres critères, P
en fonction de la vitesse à laquelle la suite (un ) tend vers 0, pour en déduire la nature de la série un .
L’idée derrière est que non seulement le terme général doit tendre vers 0, mais il doit tendre suffisamment
vite pour avoir la convergence de la série (à une considération près sur le signe dont on parlera plus tard).
P
Définition I.16. Si un est une série convergente, on définit son reste de rang n, pour n ∈ N, comme
la quantité :
+∞
X Xn +∞
X
Rn = uk − uk = uk .
k=0 k=0 k=n+1
Remarque I.17. Le reste donne la vitesse de convergence d’une série vers sa limite.
Proposition I.18. Avec les mêmes notations, la suite (Rn ) tend vers 0.
Démonstration. On a pour tout n ∈ N que :
+∞
X n
X
Rn = uk − uk
k=0 k=0
P Pn P+∞
et par convergence de la série un , on a : lim k=0 uk = k=0 uk . Ce qui donne bien que Rn tend vers
n→+∞
0 par opérations sur les limites.
Démonstration.
P n Notons déjà que, si |q| ≥ 1, alors pour tout n ∈ N on a : |q n | = |q|n ≥ 1, donc la série
q diverge grossièrement.
Si |q| < 1, alors on a explicitement les sommes partielles, avec :
n
X 1 − q n+1 1
∀n ∈ N, qk = →
k=0
1−q n→+∞ 1−q
1
en notant que lim q n = 0 (par limite classique). Et ainsi q n converge, et sa somme vaut
P
.
n→+∞ 1−q
I. CONVERGENCE ET DIVERGENCE D’UNE SÉRIE 405
P
Corollaire I.21. Si (un ) est une suite géométrique (non nulle) de raison q ∈ C, la série un converge si,
u0
et seulement si, |q| < 1, et dans ce cas sa somme est : .
1−q
Démonstration. Par linéarité.
52n+3 52 25
Exemple I.22. Soit un = 3n−2 . Alors (un ) est une suite géométrique de raison q = 3 = , et donc la
P 3 3 27
série un converge, et sa somme vaut :
+∞
X 53 1 53 · 35 35 · 53 30375
un = = = = .
3−2 52 3
3 −5 2 2 2
n=0 1−
33
zn
Proposition I.23 (Série exponentielle). Si z ∈ C, la série de terme général est convergente, avec :
n!
+∞ n
X z
= ez .
n=0
n!
[0; 1] → C
Démonstration. Fixons z ∈ C, et considérons la fonction f : .
t 7→ etz
Alors on avait vu (au Chapitre 8) que, comme la fonction t 7→ tz est dérivable sur [0; 1], alors f est dérivable
sur [0; 1] avec : f ′ : t 7→ zetz .
Une récurrence immédiate montre alors que f est infiniment dérivable avec :
— par définition :
+∞ n +∞ +∞
X z + (−z)n X z n X z 2n
= =
n=0
2 · n! n=0, n pair
n! n=0
(2n)!
— par linéarité :
ez + e−z
= ch(z).
2
P+∞ z 2n
et donc on trouve que : ch(z) = n=0 , ce qui coı̈ncide (pour z ∈ R) avec la formule et le développe-
(2n)!
ment limité (poussé à l’infini par inégalité de Taylor–Lagrange) du cosinus hyperbolique.
Et on pourrait faire de même avec le sinus hyperbolique. Et tout cela reste très proche des considérations
énoncées précédemment autour de cos et de sin.
Proposition II.4. Soient (un ), (vn ) deux suites à valeurs positives telles que : ∀n ∈ N, 0 ≤ un ≤ vn . Alors :
P P
1. si vn converge, alors un converge ;
P P
2. si un diverge, alors vn diverge.
P+∞
un ≤ +∞
P
De plus, s’il y a convergence, alors : 0 ≤ n=0 n=0 vn .
Démonstration.
P
1. si vn converge : alors pour tout n ∈ N, on a :
n
X n
X +∞
X
0≤ uk ≤ vk ≤ vk
k=0 k=0 k=0
P P
et donc les sommes partielles de la série un sont majorées, donc la série u converge.
P+∞n
En passant à la limite dans l’inégalité précédente, on trouve bien que 0 ≤ n=0 un ≤ +∞
P
n=0 vn .
II. SÉRIES À TERMES POSITIFS 407
un diverge : alorsP un tend vers +∞, et en utilisant à nouveau que 0 ≤ nk=0 uk ≤ nk=0 vk
P P P P
2. si
on déduit que la série vn tend vers +∞ par encadrement.
Remarque II.5. Les résultats de convergence restent valables si l’inégalité 0 ≤ un ≤ vn n’est valable qu’à
partir d’un certain rang. En revanche, l’inégalité sur les sommes n’est alors plus vérifiée.
Et ils s’étendent également par linéarité à des suites de même argument constant à partir d’un certain
rang.
Exemples II.6.
P 2 + cos(n)
1. Pour tout n ∈ N, on a : 1 ≤ 2 + cos(n) ≤ 3 et donc la série converge (étant majorée
3n
P 3 P 2 + cos(n) P1
par qui converge) mais la série diverge (étant minorée par qui diverge).
3n n n
P (n)e−n converge car :
P
2. Si P ∈ R[X], la série
— si P est unitaire, on a alors lim P (n) = +∞, et donc à partir d’un certain rang la suite
n→+∞
(P (n)e−n ) est positive.
— sinon on se ramène par linéarité au cas où P est unitaire ;
Et alors, par croissance comparée on a : lim P (n)e−n/2 = 0. Et donc, à partir d’un certain rang
n n→+∞
on a 0 ≤ P (n)e−n ≤ e−n/2 = e−1/2 , qui est le terme général d’une série convergente (comme on
a une série géométrique de raison e−1/2 avec |e−1/2 | < 1).
Et le résultat se généralise sans trop de mal au cas où P ∈ C[X] par linéarité (en traitant séparément
la
P convergence des monômes). On verra qu’on peut même les étendre à une série de la forme
P (n)q n pour P ∈ C[X] et q ∈ C avec |q| < 1.
P1 P 1
3. Comme on a vu que diverge, alors pour tout α ≤ 1 on a que diverge également comme
n nα
1 1
on a pour un tel α : ≤ α .
n n
Démonstration. Comme (un ), (vn ) sont à termes positifs et que un = O(vn ), il existe M ∈ R+ telle que :
∀n ∈ N, P 0 ≤ un ≤ M · vn . P
La série
P vn converge, donc la série M vn également, et on conclut par la proposition précédente que
un converge.
P
Théorème
P II.8. Si (un ), (vn ) sont deux suites à termes positifs telles que un ∼ vn , alors les séries un
et vn ont même nature.
Démonstration. On utilise
P la proposition précédente,
P en notant que, comme un ∼ vn , alors :
— un = O(vn ) : si P vn converge, alors P un aussi ;
— vn = O(un ) : si un converge, alors vn aussi.
Ce qui donne bien l’équivalence.
408 CHAPITRE 25. SÉRIES NUMÉRIQUES
Remarque II.9. Le résultat est faux si les suites considérées ne sont pas à termes positifs (ou au moins de
P (−1)n
signe constant). Et il faudra toujours le préciser. On verra par exemple que la série √ converge, ce
n
P (−1)n 1
qui implique la divergence de la série √ + , alors que les termes généraux sont équivalents.
n n
Du fait des propriétés des équivalences de suites, il suffira en fait de voir que l’une des deux suites est à
termes positifs.
Exemples II.10.
n n2
1. Si un = cos − 1, alors un ∼ − , qui est le terme général d’une série convergente de signe
2n 4n
n2
1
constant. La convergence vient du fait que, par croissances comparées : n = O n .
4 2
1
2. Si un = 1 − e1/n , alors
P
un diverge comme un ∼ qui est le terme général d’une série divergente
n
à termes positifs.
1 1 1 1
3. Si n ∈ N∗ , on a : = − , et donc la série de terme général converge.
n(n + 1) n n+1 n(n + 1)
1 1 P 1
Comme 2 ∼ et que ces suites sont à termes positifs, on déduit que la série
n n(n + 1) n2
converge.
P 1
On montrerait de même que, pour tout α > 1, la série converge, en notant que, par télescopage
nα
P 1 1
sur les sommes partielles, la série α−1
− converge et que :
n (n + 1)α−1
α−1
1 1 1 + n1 −1 α−1
− = ∼ .
nα−1 (n + 1)α−1 (n + 1)α−1 nα
Démonstration.
II. SÉRIES À TERMES POSITIFS 409
f (k − 1)
f (k)
k−1 k
P
Notons déjà que, comme f est positive, alors la série f (n) est convergente si, et seulement si, elle est
majorée. Rn
Et de même, par positivité de f , la suite 0 f (t)dt n∈N est croissante, comme pour tout n ∈ N on a :
Z n+1 Z n Z n+1
f (t)dt − f (t)dt = f (t)dt ≥ 0
0 0 n
Rn
en utilisant la relation de Chasles et la positivité de l’intégrale. Donc la suite 0
f (t)dt n∈N
converge si,
et seulement si elle est bornée.
Considérons k ∈ N. Alors par monotonie de f on a :
et finalement
P : Rn
— si f (n) converge : alors elle est majorée, et tout majorant est un majorant de 0 f (t)dt , qui
estPdonc convergente ; P
— si f (n) diverge : alors elles tend vers +∞, donc n≥1 f (n) aussi, et donc par encadrement
Rn
0
f (t)dt diverge aussi.
ce qui donne bien l’équivalence.
Remarques II.12.
1. On peut tout aussi bien translater la série ou l’intégrale sans changer le résultat. Plus précisément,
P
si a ∈ R et f continue par morceaux, positive, décroissante sur [a; +∞[, alors la série n≥a f (n) a
Rn
même nature que la suite a f (t)dt n≥a .
410 CHAPITRE 25. SÉRIES NUMÉRIQUES
2. L’encadrement donné entre les sommes partielles et les intégrales se comprend bien en terme de
croissance d’intégrale : il s’agit d’encadrer, à la manière des rectangles, la fonction f par les fonc-
tions en escaliers qui prennent les mêmes valeurs que f en les entiers. Et on peut ainsi interpréter
la série comme une intégrale, et on a un problème de comparaison d’intégrales.
Inversement,
R n+1 par télescopage, on peut interpréter la suite des intégrales comme la série de terme
général n f (t)dt (par télescopage), qui est une série à termes positifs. Et on peut alors traiter
le problème comme une comparaison entre des séries à termes positifs (les mêmes encadrements
donnant que les séries considérées ont même nature).
3. On a mieux que la convergence ou la divergence des séries : l’encadrement entre sommes partielles
et intégrales permet d’avoir des équivalents des restes (en cas de convergence de la série) ou des
sommes partielles (en cas de divergence de la série).
P 1
Théorème II.13 (Séries de Riemann). Pour α ∈ R, la série converge si, et seulement si, α > 1.
nα
P 1
De telles séries sont appelées séries de Riemann. Lorsque α = 1, on retrouve la série n≥1 qu’on
n
appelle série harmonique.
P 1
Démonstration. Notons déjà que, si α ≤ 0, alors la série diverge grossièrement.
nα
1
Si α > 0, considérons la fonction f : t 7→ α qui est continue, positive, décroissante sur [1; +∞[. Et donc
t
P 1 R n dt
par le théorème précédent, la série converge si, et seulement si, la suite 1 α
converge. Mais on
nα t
a pour tout n ∈ N∗ :
ln(n) si α = 1 +∞ si α ≤ 1
Z n (
dt
= 1 1 → 1
1 t
α 1 − α−1 si α ̸= 1 n→+∞ si α > 1
α−1 n α−1
P 1
ce qui donne bien que la série converge si, et seulement si, α > 1.
nα
Remarques II.14.
1. On peut se passer de la comparaison à des intégrales : le cas α = 1 avait été fait en regardant les
sommes partielles de rang n et 2n, et permet de déduire les cas α ≤ 1. Et le cas α > 1 avait été
traité par télescopage. L’intérêt des intégrales est surtout qu’elle donne des encadrements, et donc
des meilleures estimations des sommes partielles ou des restes.
2. Il ne faut pas les confondre avec les sommes de Riemann, qu’on a vu au chapitre d’intégration,
qui ne sont pas du tout de la même forme (même si on a vu certains liens entre les deux notions).
3. On n’aura pas toujours des séries de Riemann, mais l’intérêt est que l’on pourra parfois comparer
(par exemple grâce au théorème de croissances comparées) à des séries de Riemann, ce qui permettra
d’estimer la convergence ou non d’une série.
4. Le théorème ci-dessus donne la convergence des séries, mais pas leurs sommes. Elles sont en géné-
rales très compliquées à expliciter, et constituent un objet fondamental en recherche mathématiques,
1
à savoir la fonction zêta de Riemann, définie par : ζ : α 7→ +∞
P
n=1 α . On peut donner explicitement
n
P+∞ 1 π2
les valeurs de ζ aux entiers positifs pairs (par exemple ζ(2) = n=1 2 = ), mais on connaı̂t très
n 6
peu d’informations sur les valeurs en les entiers impairs. On sait depuis 2000 qu’une infinité est
irrationnels, et depuis 2001 que l’un des quatre nombres ζ(5), ζ(7), ζ(9), ζ(11) est irrationnel. Mais
c’est à peu près tout.
II. SÉRIES À TERMES POSITIFS 411
Exemples II.15.
1
1. La série de terme général diverge. Et on a pour tout n ∈ N∗ l’encadrement :
n
n+1 Z n+1 n
X 1 1 X 1
≤ dt ≤
k=2
k 1 t k=1
k
1
2. La série de terme général converge, et pour tout n ∈ N∗ et N ≥ n + 1 on a :
n2
N +1 Z N +1 N
X 1 1 X 1
2
≤ 2
dt ≤
k=n+1
k n t k=n
k2
Et on a : Z N +1
1 1 1 1 1
dt = − → ∼
n+1 t2 n+1 N +1 N →+∞ n+1 n
Z N
1 1 1 1 1 1 1 1
+ dt = + − → + ∼
(n + 1)2 n+1 t2 (n + 1)2 n + 1 N N →+∞ n + 1 (n + 1)2 n
ce qui donne, en passant à la limite dans l’inégalité précédente et par encadrement d’équivalents
que :
+∞
X 1 1
Rn = 2
∼ .
k=n+1
k n
1
Exemple II.16. On considère α, β ∈ R, et on s’intéresse à la série de terme général . Alors :
nα ln(n)β
— si α < 1 : alors par croissances comparées, on a que :
1 1
=o
n(1+α)/2 nα ln(n)β
comme :
1 1 n(1−α)/2
= ·
nα ln(n)β n(1+α)/2 ln(n)β
| {z }
→ +∞
n→+∞
1 1+α
et donc, comme la série de terme général (1+α)/2 diverge (comme 2
< 1), alors la série de terme
n
1
général α diverge également ;
n ln(n)β
412 CHAPITRE 25. SÉRIES NUMÉRIQUES
1
et comme la série de terme général (1+α)/2 converge (comme 1+α2
> 1), alors la série de terme
n
1
général α converge également ;
n ln(n)β
1 1
— reste le cas où α = 1 : si β ≤ 0, alors β
≥ et on a donc divergence de la série. Si β > 0,
nln(n) n
1
on procède par comparaison à une intégrale, comme la fonction t 7→ est continue positive
tln(t)β
décroissante sur [2; +∞[. Pour n ≥ 2 on a par changement de variable u = ln(t) :
Z n Z ln(n)
1 du
dt =
2 tln(t)β ln(2) uβ
qu’on avait déjà étudiée pour les séries de Riemann, et qui tend vers une limite finie si, et seulement
si, β > 1.
1
Et finalement la série de terme général α converge si, et seulement si, α > 1 ou α = 1 et β > 1.
n ln(n)β
Remarque III.2. L’intérêt est de ramener l’étude d’une série à termes complexes à celle d’une série à
termes positifs. Et comme changer une suite de signe constant en sa valeur absolue revient à la multiplier
par une constant (1 ou −1 selon son signe), une série à termes de signe constant est convergente si, et
seulement si, elle est absolument convergente.
Exemples III.3.
1. En tant que séries à termes positifs, les séries de Riemann de paramètre α > 1 sont absolument
convergentes.
2. Une série géométrique est absolument convergente si, et seulement si, elle est convergente : si (un )
est géométrique de raison q, alors |un | est géométrique de raison |q|. La convergence de l’une ou
l’autre des séries est équivalente au fait que |q| < 1.
3. La série exponentielle est absolument convergente, puisque pour tout z ∈ C on a :
n
z |z|n
=
n! n!
qui est le terme général d’une série convergente, à savoir de la série qui définit e|z| .
III. SÉRIES ABSOLUMENT CONVERGENTES 413
P (−1)n
4. La série est absolument convergente, car on retrouve la série de Riemann de paramètre 2.
n2
P (−1)n
En revanche la série n’est pas absolument convergente (on retrouve la série harmonique).
n
Théorème III.4.
P Toute série absolument convergente est convergente.
De plus, si un est absolument convergente, alors :
X+∞ X +∞
un ≤ |un |.
k=0 k=0
P
Démonstration. Notons (un ) suite numérique telle que un converge absolument.
Si (un ) est à valeurs réelles : posons vn = max(un , 0) et wn = max(−un , 0), de sorte que les suites (vn ), (wn )
sont à valeurs positives et que :
∀n ∈ N, un = vn − wn et 0 ≤ vn , wn ≤ |un |.
On a ainsi queP P(vn ), (wn ) sont à valeurs positives, et majorées par |un |, dont la série converge,
les suites
donc les séries Pvn et Pwn convergent.
Et donc la série un = (vn − wn ) converge également par linéarité.
Si (un ) est à valeurs complexes : on considère les suites (vn ) = (Re(un )) et (wn ) = (Im(un )), qui convergent
absolument (comme elles sont majorées P par |un |), donc qui convergent (en tant que suites réelles qui
convergent absolument). Et donc un converge également.
Pour l’inégalité triangulaire, on utilise que pour tout n ∈ N :
n n
X X
uk ≤ |uk |
k=0 k=0
(−1)n+1
P
Remarque III.5. La réciproque est fausse : par exemple la série n≥1 dont on a vu qu’elle est
n
convergente (sa somme valant ln(2), mais non absolument convergente par comparaison avec la série
harmonique).
Une série qui converge, mais qui ne converge pas absolument sera dite semi-convergente.
Remarques III.8.
1. Comme la notion de O englobe celle de o ou d’équivalent, on peut utiliser ce résultat lorsque un ∼ vn
ou un = o(vn ).
2. En pratique, on essaie de travailler avec des séries absolument convergentes bien connues : par
exemple les séries de Riemann,les séries
géométriques, ou la série exponentielle. Par exemple, s’il
1 P
existe α > 1 tel que un = O α
, alors un est (absolument) convergente. En pratique, on
n
cherchera α > 1 tel que la suite (nα un ) tend vers 0.
3. Ce résultat est très utile pour montrer la convergence d’une série. Mais il ne saurait montrer la
divergence : on essaie alors de se ramener à une série à termes de signe constant et d’utiliser les
résultats précédents (par exemple une comparaison à une série de Riemann).
Exemple III.9.
Si on fixe x > 0, on peut chercher à montrer que la suite (un ) définie par :
nx n!
∀n ∈ N, un =
(x + n)(x + n − 1) . . . (x + 1)x
converge. Pour cela, on préfère travailler avec des sommes qu’avec des produits, et on pose donc la suite
(vn ) définie par :
Xn n
X
vn = ln(un ) = xln(n) + ln(k) − ln(x + k)
k=1 k=0
et plutôt que d’étudier la convergence de (vn ) (ce qui donnerait la convergence de (un )), on va plutôt étudier
la convergence de la série de terme général vn+1 − vn , ce qui est équivalent (pas télescopage). On a pour
tout n ∈ N :
vn+1 − vn = xln(n + 1) + 1) − ln(x
ln(n + + n + 1) − xln(n)
1 x
= xln 1 + − ln 1 +
n n+1
x x 1
= − +O 2
n n+1 n
x 1 1
= +O 2
=O
n(n + 1) n n2
P
et donc la série (vn+1 − vn ) converge absolument, donc converge.
Donc (vn ) converge, donc (un ) également.
Remarques III.11.
1. Ce critère est un peu comme une comparaison à des séries géométriques (comme on le voit dans la
preuve), et permet d’avoir un panel plus large de comparaison que seulement les séries de Riemann.
2. On peut aussi l’appliquer à des séries dont certains termes sont nuls : il faut alors utiliser la suite
extraite (uφ (n)) construite à partir de (un ) en ne gardant que les termes non nuls.
un+1
3. On a en fait un résultat plus fort : il suffit que la suite soit minorée par un l > 1 à partir d’un
un
certain rang pour le premier cas, ou majorée par un l < 1 dans le second (et pas nécessairement
qu’elle converge).
P P 1 P (−1)n
4. Dans le cas où l = 1, on ne peut rien dire, comme le montrent les séries 1, , et
n n
P 1
dont la première diverge grossièrement, la deuxième diverge, la troisième converge mais pas
n2
absolument, et la dernière converge absolument.
Exemples III.12.
1. On peut retrouver rapidement la convergence de la série exponentielle (mais pas sa limite). Consi-
zn
dérons z ∈ C∗ et posons un = . Alors pour tout n ∈ N on a :
n!
|un+1 | |z|
= → 0
|un | n + 1 n→+∞
P zn
et donc la série converge absolument.
n!
n!
2. Étudions la convergence de la série de terme général un = n . On a pour tout n ∈ N :
n
n
n
un+1 (n + 1)! n 1
= · n+1
= 1−
un n!
(n + 1) n+1
1
= exp nln 1 −
n+1
1 1
= exp n · − +o
n+1 n+1
= exp (−1 + o(1)) → e−1 < 1
n→+∞
416 CHAPITRE 25. SÉRIES NUMÉRIQUES
P n!
et donc la série converge.
nn
Démonstration. Pour montrer la convergence, considérons la suite (Sn ) des sommes partielles : ∀n ∈
N, Sn = nk=0 (−1)k uk ;
P
Alors pour tout n ∈ N on a :
— S2n+2 − S2n = u2n+2 − u2n+1 ≤ 0 donc la suite (S2n ) est décroissante ;
— S2n+3 − S2n+1 = −u2n+3 + u2n+2 ≥ 0 donc la suite (S2n+1 ) est croissante ;
— S2n − S2n+1 = u2n+1 → 0.
n→+∞
Donc les suites (S2n ) et (S2n+1
P) sont adjacentes : elles convergent vers une même limite l qui est donc la
limite de (Sn ). Donc la série (−1)n un est convergente, de somme l. Et de plus, l vérifie :
S2
S4
Sn
u1
u3 Rn un+1
l u4
u2
Sn+1
S3
S1
Remarques III.14.
1. Il suffit en fait que (un ) soit décroissante à partir d’un certain rang. En revanche, il faut toujours
que (un ) tende vers 0.
III. SÉRIES ABSOLUMENT CONVERGENTES 417
2. En pratique, pour déterminer la convergence d’une série, on essaiera de se ramener à une combi-
naisons linéaires de séries dont on peut déterminer la nature (par critère des séries alternées ou par
comparaison pour les séries à termes positifs) dont au plus une ne converge pas, comme modifier
une série par une série convergente ne change pas sa nature.
Exemples III.15.
P (−1)n ln(n)
ln(n)
1. Avec (un ) = , on trouve la série : .
n n
Par comparaison avec la série harmonique, on voit déjà qu’elle n’est pas absolument convergente. Et
comme elle n’est pas de signe constant on ne peut pas non plus utiliser de comparaison (encadrements
ou équivalents).
On a déjà par croissance comparées que (un ) tend vers 0.
ln(x)
La fonction f : x 7→ est dérivable sur R∗+ , de dérivée définie par :
x
1 − ln(x)
∀x ∈ R∗+ , f ′ (x) =
x
et donc f est strictement décroissante sur [e; +∞[. On peut donc appliquer le théorème des séries
alternées, en notant que la suite (un )n≥3 est positive décroissante tendant vers 0.
P+∞ (−1)n ln(n)
On peut même estimer sa limite plus précisément : si on note l = n=1 et Sn =
n
n
Pn (−1) ln(n)
k=1 , alors pour tout n ≥ 3 on a :
n
ln(n + 1)
|l − Sn | ≤ .
n+1
1
et intéressons-nous à la série (−1)n un .
P
2. Considérons (un ) = √ n
n + (−1)
1 P
Notons déjà que un ∼ √ donc la série un diverge (par équivalent avec une série à termes
n
positifs), donc on n’a pas la convergence absolue.
Pour établir la nature de la série, on fait un développement asymptotique :
(−1)n
(−1)n un = √
n + (−1)n
(−1)n 1
= √ ·
n (−1)n
1+ √
n
(−1)n (−1)n 1
1
= √ 1− √ + +o
n n n n
(−1)n
1 1
= √ − +o
n n n
Et on peut étudier chacun des termes :
P (−1)n
— √ converge par théorème des séries alternées ;
n
P 1 1 1 1 1
— − +o diverge, comme − +o ∼ − , et l’on peut utiliser les équivalents (comme
n n n n n
1 P 1
− est de signe constant), et que − diverge (par propriété des séries de Riemann.
n n
Donc finalement (−1)n un diverge.
P
418 CHAPITRE 25. SÉRIES NUMÉRIQUES
(−1)n (−1)n
√ ∼ √
n + (−1)n n
P (−1)n P (−1)n
mais les séries √ et √ ne sont pas de même nature.
n + (−1)n n
Exemple III.17. Montrons que π < 4, où on définit π comme le double du premier point d’annulation sur
eix + e−ix
R+ de l’application cos définie par : cos(x) = .
2
Par linéarité de la somme, on a pour tout x ∈ R (en fait la même formule serait valable pour x ∈ C) que :
+∞ +∞
X (ix)n (−ix)n X (−1)n x2n
cos(x) = + = .
n=0
2 · n! 2 · n! n=0
(2n)!
22n
Posons (un ) = . Alors (un ) est positive, tend vers 0, et pour tout n ∈ N on a :
(2n)!
IV Familles sommables
IV.1 Ensembles dénombrables
Définition IV.1. Un ensemble I est dit dénombrable s’il existe une bijection σ : N → I.
Inversement, un ensemble infini qui n’est pas dénombrable sera dit indénombrable.
Remarques IV.2.
1. Un ensemble fini ou dénombrable sera dit au plus dénombrable (dans le sens où il n’a pas plus
d’éléments qu’un ensemble dénombrable).
2. Dans certaines terminologies, on considère que les ensembles finis sont aussi dénombrables. On
parlera ainsi plutôt d’ensemble infinis dénombrables pour éviter les confusions sachant que, avec la
définition précédente, un ensemble dénombrable est nécessairement infini.
3. Comme la composée et l’inverse d’une bijection sont bijectives, alors un ensemble est dénombrable
si, et seulement si, il est en bijection avec n’importe quel ensemble dénombrable.
Exemples IV.3.
IV. FAMILLES SOMMABLES 419
1. L’ensemble N est dénombrable, de même que toute partie infinie de N. Plus généralement, tout
sous-ensemble infini d’un ensemble dénombrable est dénombrable, ce qui se montre à l’aide une
composée à droite (à la manière des suites extraites). Et donc toute partie d’un ensemble (au plus)
dénombrable est au plus dénombrable.
2. L’ensemble Z est dénombrable, comme l’application :
N → Z
n
φ: si n est pair
n 7→ 2
n+1
− 2 si n est impair
−7 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7 Z
13 11 9 7 5 3 1 0 2 4 6 8 10 12 14 N
3. En revanche, R n’est pas dénombrable, tout comme n’importe quel intervalle de R non réduit à un
point. De manière plus subtile, les ensembles P(N) ou E N (pour E un ensemble ayant au moins
deux éléments) sont indénombrables.
Démonstration. Dans un cas comme dans l’autre, on peut mettre J en bijection avec une partie de I (par
restriction et correstriction).
Une telle partie est :
— soit finie : dans ce cas J est fini ;
— soit infinie : alors cette partie est dénombrable et en bijection avec J, donc J est dénombrable.
Remarque IV.5. L’idée est qu’une application injective ne perd pas d’information, et qu’une application
(peu importe ses propriétés) n’en crée pas, ce qui ressemble aux inégalités sur le rang qu’on avait vu pour
les applications linéaires en dimension finie.
N×N → N
(
f: (n + m)(n + m + 1)
(n, m) 7→ +m
2
définit bien une bijection de N × N sur N. Celle-ci revient à numéroter les éléments de N × N suivant les
“diagonales” : Dk = {(n, m) ∈ N × N | n + m = k} :
420 CHAPITRE 25. SÉRIES NUMÉRIQUES
3
9 13 18 24
2
5 8 12 17
1
2 4 7 11
0 1 3 6
0 1 2 3
Corollaire IV.7.
1. Un produit cartésien d’un nombre fini d’ensembles dénombrables est dénombrable.
2. Une union finie ou dénombrable d’ensembles finis ou dénombrables est finie ou dénombrable.
Démonstration.
1. Comme tout ensemble dénombrable est en bijection avec N, il suffit de montrer que Np est dénom-
brable pour tout p ∈ N∗ , ce qui se fait par récursivement. Plus précisément, pour tout p ∈ N∗ on
définit l’application φp : Np → N par :
— si p = 1 : alors φp = idN ;
— si p ≥ 2 : φp : (n1 , . . . , np ) 7→ f (φp−1 (n1 , . . . , np−1 ), np+1 )
où f est une bijection de N2 dans N (par exemple celle donnée dans la proposition précédente).
Et la bijectivité des applications φp découle de celle de f .
2. Montrons déjà le résultat sur une union dénombrable d’ensembles dénombrables. Notons J un
ensemble dénombrable, et pour tout j ∈ J considérons Ij ensemble dénombrable. Montrons que
I = ∪j∈J Ij est dénombrable :
— comme J est dénombrable, il existe σ : N → J bijective ;
— pour tout j ∈ J l’ensemble Ij est dénombrable, donc il existe τj : N → Ij bijective.
Et donc l’application :
N2 → I
φ:
(n, m) 7→ τσ(n) (m)
est une surjection de N2 (qui est dénombrable) dans I, donc I est dénombrable.
Et rajouter une infinité dénombrable de fois les ensembles considérés dans l’union, ou à rajouter
à chaque ensemble une infinité dénombrable d’éléments, ne ferait qu’augmenter cette union. Donc
une union finie ou dénombrable d’ensembles finis ou dénombrables est une partie d’une union
dénombrable d’ensemble dénombrables : elle est au plus dénombrable.
Exemple IV.8.
L’ensemble Q est donc dénombrable, comme l’application :
(
Z×N → Q
n
(n, m) 7→
m+1
est surjective de Z × N (qui est dénombrable) dans Q.
IV. FAMILLES SOMMABLES 421
et
P donc (Sn ) est une suite d’éléments de A qui tend vers +∞, donc A n’est pas majorée, donc
n∈N un = supA = +∞.
un converge : alors (Sn ) est majorée par +∞
P P
— si n=0 un , qui est également sa limite. Si F ⊂ N
est fini, alors en notant n0 = max(F ) on a : F ⊂ J0; n0 K. Et donc comme les un sont positifs :
X X +∞
X
ui ≤ ui = Sn0 ≤ un
i∈F i∈J0;n0 K n=0
et donc +∞
P
n=0 un est un majorant de A. Et comme, par la même P considération que ci-dessus, on
trouve que (Sn ) est une suite P
d’éléments de A, dont la limitePest +∞ n=0 un , alors par caractérisa-
tion on trouve que : sup A = +∞ +∞
P
n=0 nu , et donc u
n∈N n = n=0 n .
u
Théorème IV.12. Si (ui )i∈I est une famille de réels positifs indexé par I et σ est une permutation de I,
alors : X X
ui = uσ(i) .
i∈I i∈I
422 CHAPITRE 25. SÉRIES NUMÉRIQUES
Démonstration. Si F ⊂ I est fini, alors σ(F ) et σ −1 (F ) sont des ensembles fini de I (de même cardinal que
I). Ainsi, σ permet de définir une bijection sur l’ensemble E des parties finies de I, définie par : F 7→ σ(F ),
de bijection réciproque F 7→ σ −1 (F ).
Et ainsi on a l’égalité ensembliste (par double inclusion) :
X X
{ ui | F ⊂ I, F fini} = { uσ(i) | F ⊂ I, F fini}
i∈F i∈F
ce qui donne l’égalité voulue en considérant les bornes supérieures de ces ensembles.
Remarque IV.13. Lorsque tous les termes sont positifs, on peut réordonner les termes d’une série sans en
changer la valeur (et donc sans en changer la nature).
À l’inverse, changer l’ordre des termes dans une somme infinie peut en changer la valeur. On verra en
exercice que la série harmonique alternée, si on renumérote ses termes, peut changer de valeur, et même
ne plus converger.
P
Définition IV.14. Une famille (ui )i∈I de réels positifs est dite sommable si : i∈I ui < +∞, c’est-à-dire
si l’ensemble : X
A={ ui | F ⊂ I, F fini}
i∈F
est borné.
Exemple IV.15.
Si I = Z et x ∈]0; 1[, alors la famille x|n| n∈Z est sommable.
On a en effet que, si F ⊂ N est fini, alors F est borné, donc inclus dans un intervalle d’entiers de la
forme J−n; nK (pour n ∈ N∗ ). Et alors :
n n
X
|i|
X
|k|
X 1 − xn+1 2 1+x
x ≤ x =2 xk − 1 = 2 −1≤ −1=
i∈F k=−n k=0
1−x 1−x 1−x
1+x
donc l’ensemble des sommes finies est majoré par .
1−x
Et de plus, en considérant Fn = J−n; nK (pour n ∈ N∗ ) on a :
X 1 − xn+1 1+x
x|i| = 2 − 1 lim
i∈Fn
1−x n→+∞ 1−x
1+x 1+x
est même la borne supérieure cherchée. Et donc n∈Z x|n| =
P
ce qui donne que .
1−x 1−x
Proposition IV.16. Une famille (ui )i∈I de réels positifs sommable est à support au plus dénombrable,
c’est-à-dire que l’ensemble :
supp(u) = {i ∈ I | ui ̸= 0}
est au plus dénombrable.
1
Démonstration. Posons pour tout n ∈ N∗ : In = {i ∈ I | ui ≥ }. Alors pour tout n ∈ N∗ l’ensemble In
n
est fini, comme par croissance :
|In | X X
≤ ui ≤ ui < +∞
n i∈I i∈I n
1
De plus, comme R est archimédien : si i ∈ I vérifie ui ̸= 0, alors il existe n ∈ N∗ tel que ui ≥ , c’est-à-dire
n
i ∈ In . Et donc :
supp(u) = ∪n∈N∗ In
donc supp(u) est une union dénombrable d’ensemble finis : il est au plus dénombrable.
IV. FAMILLES SOMMABLES 423
Remarque IV.17. On a en fait un résultat plus fort : si (ui )i∈I est une famille sommable, alors pour tout
ε > 0 l’ensemble {i ∈ I | ui > ε} est fini, ce qui permet par contraposée de facilement montrer que certaines
familles ne sont pas sommables.
Exemple IV.18.
1
La famille n’est pas sommable car l’ensemble [4, 5] ∩ Q est infini, et pour tout x ∈ [4, 5] ∩ Q
x2 x∈Q∩[π;+∞[
1 1
on a : 2 ≥ .
x 25
Proposition IV.19 (Linéarité de la somme). Si (ui )i∈I et (vi )i∈I sont des familles sommables et λ, µ ∈ R+ ,
alors la famille (λui + µvi )i∈I est sommable, et :
X X X
(λui + µvi ) = λ ui + µ vi .
i∈I i∈I i∈I
Démonstration. Découle de la linéarité de la somme (pour le sommes finies), qui assure que pour tout
F ⊂ I fini on a : X X X
(λui + µvi ) = λ ui + µ vi
i∈F i∈F i∈F
Proposition IV.20 (Croissance de la somme). Si (ui )i∈I et (vi )i∈I sont deux familles de réels positifs, alors :
P P
1. si : ∀i ∈ I, ui ≤ vi , alors i∈I ui ≤ i∈I vi ;
P P
2. si J ⊂ I (avec J fini ou non), alors i∈J ui ≤ i∈I ui .
Démonstration.
1. avec l’inégalité vérifiée par (ui ) et (vi ), on a pour tout F ⊂ I fini :
X X
ui ≤ vi
i∈F i∈F
et donc tout majorant de A est un majorant de A′ , donc supA′ ≤ supA, ce qui donne l’inégalité
voulue.
Remarque IV.21. Les inégalités précédentes ont un sens que les famille soient sommable ou non. Dans le
cas de familles non sommables, on travaille en fait avec la relation d’ordre ≤ définie sur R.
Corollaire IV.22.
1. Si (ui )i∈I , (vi )i∈I sont des familles de réels positifs telles que ∀i ∈ I, ui ≤ vi et que la famille (vi )
est sommable, alors (ui ) est sommable.
2. Si (ui )i∈I et sommable et si J ⊂ I, alors (ui )i∈J est sommable.
Démonstration. C’est le résultat précédent, dans le cas où les sommes sont finies.
424 CHAPITRE 25. SÉRIES NUMÉRIQUES
En particulier, la famille (ui )i∈I est sommable si, et seulement si, les deux conditions suivantes sont
réalisées :
1. pour tout j ∈ J, la famille (ui )i∈Ij est sommable ;
P
2. la famille u
i∈Ij i est sommable.
j∈J
P P
Démonstration. Posons pour j ∈ J : Sj = i∈Ij ui . Et notons S = j∈J Sn . Les Sj et S sont donc des
éléments de [0; +∞].
Supposons que tous les Sj et S sont finis (ce qui correspond aux deux conditions de la fin du théorème).
Notons F ⊂ I fini. Alors comme F est fini et que les Ij sont deux-à-deux disjoints, l’ensemble J0 = {j ∈
J | F ∩ Ij ̸= ∅} est fini. Et on a :
X X X XX X
ui = ui ≤ ui = Sj ≤ S
i∈F j∈J0 i∈F ∩Ij j∈J0 i∈Ij j∈J0
ce qui donne que (ui )i∈I est sommable, et que sa somme Σ vérifie σ ≤ S.
et en passant au sup pour J0 ⊂ J on trouve que la famille (Sj )j∈J est sommable, de somme S ≤ Σ.
Finalement, on trouve bien que lafamille (ui )i∈I est sommable si, et seulement si, toutes les familles (ui )i∈Ij
P
sont sommables et que la famille i∈Ij ui également. Et en combinant les deux inégalités précédentes,
j∈J
on trouve alors que :
X X X
ui = ui .
i∈I j∈J i∈Ij
P
Enfin, si (ui )i∈I n’est pas sommable,
alors i∈I ui = +∞, et par contraposée du point précédent on a
P P
également que j∈J i∈Ij ui = +∞, car :
IV. FAMILLES SOMMABLES 425
— ou bien l’une des familles (ui )i∈Ij n’est pas sommable : et alors la somme comporte un terme égal
à +∞, donc vaut +∞P ;
— ou bien la famille i∈Ij ui n’est pas sommable, et sa somme vaut +∞.
j∈J
Corollaire IV.24 (Théorème de Fubini positif). On considère la famille (ui,j )(i,j)∈I×J de réels positifs.
Alors : ! !
X X X X X
ui,j = ui,j = ui,j
(i,j)∈I×J i∈I j∈J j∈J i∈I
Remarque IV.25. On peut voir cette somme sur une indexation par un produit comme une somme double.
L’intérêt est que, comme on le voit dans la formule, on peut sommer dans l’ordre que l’on veut, comme
pour les sommes finies : soit fixer un élément de I et sommer pour tous les éléments de J, soit l’inverse.
Et le résultat est vrai que les famille soient sommables ou non, et permet donc de prouver la sommabilité
d’une famille.
Exemple IV.26.
2 1
On considère l’ensemble I = {(n, m) ∈ N | m ≥ n} et on considère la famille . Montrons que
m! (n,m)∈I
la famille est sommable et calculons sa somme.
On a :
X 1 +∞ X
+∞ +∞ Xm
X 1 X 1
= =
m! n=0 m=n m! m=0 n=0 m!
(n,m)∈I
et on va utiliser la deuxième écriture, qui permet de calculer plus facilement puisque l’on a :
+∞ X m +∞ +∞ +∞ +∞
X 1 X (m + 1) X 1 X 1 X 1
= = + =2 = 2e
m=0 n=0
m! m=0 m! m=1
(m − 1)! m=0 m! m=0
m!
Ce qui prouve que la famille considérée est sommable, et que sa somme vaut 2e.
Corollaire IV.27. On considère les familles (ai )i∈I et (bj )j∈J de réels positifs. Alors :
! !
X X X
ai · b j = ai · bj .
(i,j)∈I×J i∈I j∈J
Démonstration. Découle du résultat précédent, appliqué à (ui,j ) = (ai · bj ) et par linéarité, comme :
! !! ! !
X X X X X X X
ai · b j = ai · b j = ai bj = ai · bj .
(i,j)∈I×J i∈I j∈J i∈I j∈J i∈I j∈J
Remarque IV.28. Là encore, comme le résultat est valable pour des familles sommables ou non, on peut
l’utiliser pour montrer la sommabilité d’une famille.
Exemple IV.29.
1
Montrons que la famille est sommable.
n m2
2
(n,m)∈N∗ ×N∗
Par théorème de Fubini, on a :
X 1 X 1 X 1
=
n2 m2 n∈N∗ n2 m∈N∗ m2
(n,m)∈N∗ ×N∗
426 CHAPITRE 25. SÉRIES NUMÉRIQUES
et on reconnaı̂t à droite deux sommes finies (par critère de Riemann), dont le produit est donc fini : la
famille est sommable, et on a même :
!2
X 1 X 1 π4
= = .
∗ ∗
n2 m2 n∈N∗
n2 36
(n,m)∈N ×N
Remarques IV.31.
1. Si I = N, une famille sommable revient à la donnée d’une série absolument convergente. Et si I
est fini on est ramené aux sommes finies, qu’on a déjà traitées.
2. Toute famille finie est sommable.
3. Si J ⊂ I et que (ui )i∈I est sommable, alors (ui )i∈I est également sommable.
4. Du fait du résultat analogue sur les familles sommables de réels positifs, si (ui )i∈I est sommable,
l’ensemble {i ∈ I | ui ̸= 0} est au plus dénombrable.
Démonstration. Notons déjà que, comme (ui )i∈I est sommable, alors (uσ(n) )n∈N aussi, comme on a direc-
tement que : X X
{ |ui | | F ⊂ I, F fini} = { |uσ(n) | | F ⊂ N, F fini}.
i∈F n∈F
uσ(n) est absolument convergente, donc convergente. Ce qui prouve déjà que +∞
P P
Et donc la série n=0 uσ(n)
a bien un sens, et est un complexe (fini).
Pour montrer
P que la quantité ne dépend pas de σ, il suffit de voir qu’on peut réordonner les termes dans
la somme +∞ n=0 uσ(n) sans changer sa valeur :
— si les ui sont des réels positifs : alors on a déjà montré le résultat ;
— si les ui sont des réels : on écrit ui = ui + |ui | − |ui | et donc :
| {z } |{z}
≥0 ≥0
+∞
X +∞
X +∞
X
uσ(n) = uσ(n) + |uσ(n) | − |uσ(n) |
n=0 n=0 n=0
où les deux sommes de droites ont bien un sens comme elles sont absolument convergentes, et on
peut y réordonner les termes comme ce sont deux séries à termes positifs ;
IV. FAMILLES SOMMABLES 427
— si les ui sont des complexes : on se ramène au cas précédent en notant que ui = Re(ui ) +i Im(ui ).
| {z } | {z }
∈R ∈R
Le dernier résultat vient du fait que, si on pose pour n ∈ N que Fn = σ (J0; nK) (qui est bien un sous-
ensemble fini de I), alors on reconnaı̂t le reste d’une série convergente :
X X +∞
X
ui − ui = uσ(n)
i∈I i∈Fn k=n+1
qui tend vers 0 pour n tendant vers +∞. Donc pour n suffisamment grand, on aura bien l’inégalité voulue
pour ε (avec F = Fn qui est bien fini).
Remarques IV.33.
1. Lorsque I n’est pas dénombrable, on a deux
P situations : ou bien I est fini, ou bien I est indénom-
brable. Dans le premier cas, la quantité i∈I ui a déjà été définie, et dans le second, comme (ui )i∈I
est sommable, alors {i ∈ I | ui ̸= 0} est fini ou dénombrable, et on peut donc se ramener aux deux
situations connues.
2. En modifiant un peu la démonstration, on peut mettre montrer que, pour tout ε > 0 il existe F ⊂ I
fini tel que :
X X
∀J ⊂ I, F ⊂ J ⇒ ui − ui ≤ ε
i∈I i∈J
(en considérant des restes de séries absolument convergentes), et ce que les ensembles J ci-dessus
soient fini ou non.
3. Comme la série uσ(n) converge (même absolument) alors uσ(n) tend vers 0. Et donc dans une famille
sommable, toute suite d’éléments de la famille tend vers 0.
Proposition IV.34 (Inégalité triangulaire). Si (ui )i∈I est une famille sommable de nombre complexes, alors :
X X
ui ≤ |ui |.
i∈I i∈I
Démonstration. Découle de l’inégalité triangulaire pour les séries, appliquée à la série de terme général
uσ(n) où σ est une bijection de N dans I.
Proposition IV.35. Soient (ui )i∈I une famille de complexes et (vi )i∈I une famille de réels positifs telles
que :
1. ∀i ∈ I, |ui | ≤ vi ;
2. la famille (vi )i∈I est sommable.
Alors la famille (ui )i∈I est sommable, avec :
X X
ui ≤ vi .
i∈I i∈I
P
Démonstration. Comme (vi )i∈I est sommable, alors la somme i∈I vi est finie. P
Par croissance des sommes (pour les sommes à termes positifs) on déduit que i∈I |ui | est finie, donc
(ui )i∈I est sommable.
La proposition précédente, et la croissance, assurent que :
X X X
ui ≤ |ui | ≤ vi .
i∈I i∈I i∈I
428 CHAPITRE 25. SÉRIES NUMÉRIQUES
Proposition IV.36 (Linéarité de la somme). Si (ui )i∈I , (vi )i∈I sont deux famille sommables, et λ, µ ∈ C,
alors la famille (λui + µvi )i∈I est sommable, avec :
X X X
(λui + µvi ) = λ ui + µ vi .
i∈I i∈I i∈I
donc la famille (|λ| · |ui | + |µ| · |vi |)i∈I est une famille sommable de réels positifs.
Par le pointP
précédent, on déduit que la famille (λui + µvi )i∈I est sommable.
La somme i∈I λui + µvi est ainsi bien définie, et la linéarité pour les sommes de séries permet de
conclure.
Démonstration. Par théorème de sommation par paquets (cas positif), comme Pla famille (|ui |)i∈I est som-
mable, on a déjà que les familles (|ui |)i∈Ij sont sommables, et que la famille i∈Ij |ui | également. On
j∈J
déduit ainsi que : P
— pour tout j ∈ J, la quantité Sj = i∈Ij ui est bien définie, et vérifie par inégalité triangulaire que :
P
Sj ≤ i∈Ij |ui | ;
— par majoration par une famille sommable, la famille (Sj )j∈J est donc sommable également.
Reste à montrer l’égalité sur les sommes, qu’on fait en se ramenant au cas de la sommation par paquets
dans le cas positifs par linéarité :
— si les ui sont des réels positifs : alors on a déjà montré le résultat ;
— si les ui sont des réels : on écrit ui = ui + |ui | − |ui | et donc par linéarité et par théorème :
P P P
i∈I u i = (|u i | + u i ) − |ui |
Pi∈I P i∈I
P P
= j∈J i∈Ij (|u i | + ui ) − |u i |
j∈J i∈Ij
P P .
= j∈J i∈Ij (|ui | + ui ) − |ui |
P P
= j∈J i∈Ij u i
— si les ui sont des complexes : on se ramène au cas précédent en notant que ui = Re(ui ) +i Im(ui ).
| {z } | {z }
∈R ∈R
IV. FAMILLES SOMMABLES 429
Corollaire IV.38 (Théorème de Fubini). Si la famille (ui,j )(i,j)∈I×J est sommable, alors :
! !
X X X X X
ui,j = ui,j = ui,j
(i,j)∈I×J i∈I j∈J j∈J i∈I
Corollaire IV.39. Si les familles (ai )i∈I et (bj )j∈J sont sommables, alors la famille (ai · bj )(i,j)∈I×J est
sommable, et on a : ! !
X X X
ai · b j = ai · bj .
(i,j)∈I×J i∈I j∈J
Remarque IV.40. Ce résultat, comme le théorème de Fubini, se généralise à des sommes sur des produits
finis d’ensembles.
P P
Proposition-Définition IV.41. Étant données un et vn deux séries absolument convergentes, on définit
leur produit de Cauchy comme la série de terme général wn défini par :
n
X n
X X
∀n ∈ N, wn = uk vn−k = un−k vk = uk vl .
k=0 k=0 k+l=n
P
Alors la série wn est absolument convergente, et vérifie :
+∞ +∞
! +∞
!
X X X
wn = un · vn .
n=0 n=0 n=0
P+∞ 0n
Comme exp(0) = n=0 = 1, on déduit déjà que :
n!
∀z ∈ C, exp(z)exp(−z) = exp(0) = 1
et donc exp : C → C∗ .
Et d’après la formule précédente, exp réalise bien un morphisme de groupes.
Chapitre 26
Probabilités et dénombrement
Alors Imφ ⊂ J0; 945K, tandis que |P(I)| = 2|I| = 210 = 1024.
Donc φ n’est pas injective : il existe deux ensembles J1 , J2 ⊂ I distincts avec φ(J1 ) = φ(J2 ). Et donc les
parties J1 \ J2 et J2 \ J1 sont disjointes de même somme.
Théorème I.7 (Principe des bergers). Si f : E → F est surjective, avec F fini, et que tout élément de F
possède p antécédents, alors E est fini de cardinal : |E| = p · |F |.
Démonstration. Par surjectivité de f P
, on peut écrire E comme l’union disjointe : E = ∪y∈F f −1 ({y}).
En passant au cardinal, on a : |E| = y∈F |f −1 ({y})| = y∈F p = p · |F |.
P
Remarque I.8. L’idée derrière le nom est qu’un berger, pour compter le nombre de pattes de ses moutons,
peut se contenter de compter ses moutons, comme chaque mouton a quatre pattes.
431
432 CHAPITRE 26. PROBABILITÉS ET DÉNOMBREMENT
Corollaire I.12. Étant donnés E un ensemble à p éléments et F un ensemble à n éléments, alors l’ensemble
n!
des applications injectives de E dans F possède éléments si p ≤ n, et est vide sinon.
(n − p)!
Corollaire I.13. Si E est un ensemble fini à n éléments, alors le groupe SE des permutations de E possède
n! éléments.
Démonstration. Comme E est fini, une application f : E → E est bijective si, et seulement si, elle est
injective. Il suffit donc de compter les applications injectives, qui sont bien au nombre de n! par le résultat
précédent (avec n = p).
I. RAPPELS ET COMPLÉMENTS DE DÉNOMBREMENT 433
p n−p
et donc il y a autant
de termes en a b que de manières de choisir p-fois a dans les n-facteurs
n
ci-dessus, donc p . Et on a bien :
n
n
X n p n−p
(a + b) = ab .
p=0
p
2. L’application :
P(E) → P(E)
φ:
A 7→ A
qui à une partie de E associe son complémentaire réalise une bijection (elle est involutive), et envoie
toute partie à p-élément sur une partie à n − p-élément, ce qui donne que :
n n
∀p ∈ J1; nK, = .
p n−p
434 CHAPITRE 26. PROBABILITÉS ET DÉNOMBREMENT
3. Pour le triangle de Pascal, fixons p ∈ J1; nK, et cherchons à compter les parties de J1; nK à p
éléments :
la partie à (p − 1) éléments de J1; n − 1K pour avoir
— soit la partie contient n : et il reste à fixer
p éléments en tout ; cela représente n−1
p−1
choix ;
— soit la partie ne contient pas n : et il faut fixer une partie à p éléments dans J1; n − 1K ; cela
représente n−1p
choix.
et donc on a en sommant :
n n−1 n−1
= + .
p p−1 p
4. Si on a à disposition n personnes et que l’on veut former une équipe de p personnes, avec un
capitaine, alors on peut procéder de différentes manières :
— on choisit le capitaine (on a n choix), puis le reste de l’équipe, ce qui donne n · n−1
p−1
manières
de faire ;
— on choisit les membres de l’équipe, puis parmi les personnes choisies on décide du capitaine, ce
qui donne p · np manières ;
— on choisit les non-capitaines, puis parmi les personnes non choisies on décide du capitaine, ce
n
qui donne p−1 · (n − p + 1).
Et on trouve donc la fameuse formule du capitaine :
n−1 n n
n =p = (n − p + 1)
p−1 p p−1
Remarque I.19. On voit bien apparaı̂tre, surtout dans le dernier exemple, un des enjeux des problèmes de
dénombrements : trouver la “bonne” manière de compter les éléments, ce qui peut donner des expressions
différentes sur le résultat final.
Proposition I.20. On considère E un ensemble quelconque x1 , . . . , xn ∈ E non nécessairement deux-à-deux
distincts, et on note k1 , . . . , kr les multiplicités d’occurrence dans la famille (xi ) (si les xi sont deux-à-deux
distincts, on aura r = n et k1 = · · · = kn = 1). Alors le nombre de n-uplets distincts que l’on peut former
avec les xi est de :
n!
k1 ! · · · · · kr !
(qu’on appelle aussi coefficient binomial généralisé).
Démonstration. O peut procéder de deux manières :
— on peut adapter la preuve qui donne le nombre de combinaisons : on considère l’application :
Sn 7→ E n
φ:
σ 7→ (xσ(1) , . . . , xσ(n) )
— par une “vraie” méthode combinatoire : on compte les n-uplets possibles en raisonnant sur les
positions de chaque valeur prise par les xi . On a k1 coordonnées qui prennent la premièrevaleur,
ce qui laisse k1 choix pour les coordonnées associées. Pour la valeur suivante, il y a n−k
n
1
k2
choix.
n−k1 −k2 n−k1 −···−kr−1
Puis k3
choix pour la suivante. Et ainsi de suite jusqu’à avoir kr
choix pour la
dernière.
En utilisant les expressions factorielles des coefficients binomiaux, et en utilisant que k1 +· · ·+kr = n,
on déduit que l’ensemble des n-uplets a pour cardinal :
n! (n − k1 )! (n − k1 − k2 )! (n − k1 − · · · − kr−1 )!
· · · ··· ·
k1 !(n − k1 )! k2 !(n − k1 − k2 )! k3 !(n − k1 − k2 − k3 )! kr !(n − k1 − · · · − kr )!
Exemple I.21. On peut se demander combien de mots on peut former à partir de DIPLODOCUS. On a
parmi les lettres de DIPLODOCUS :
— deux D et deux O ;
— une fois les lettres I,P,L,C,U,S.
avec donc un total de 10 lettres, cela fait un nombre de mots de :
10!
= 907200.
2! · 2! · 1! · · · · · 1!
II Espaces probabilisés
II.1 Univers et événements
Définition II.1. Une expérience aléatoire est une expérience dont on ne peut prédire l’issue.
L’ensemble des issues d’une expérience aléatoire est appelé l’univers.
Remarque II.2. En général, on notera Ω l’univers d’une expérience aléatoire, et ω ses éléments. On ne
travaillera cette année qu’avec des univers finis.
Définition II.4. Étant donnée une expérience aléatoire d’univers Ω, on appellera événement une partie
de Ω. Plus précisément, on dira que :
1. Ω est l’événement certain ;
2. ∅ est l’événement impossible ;
3. les singletons sont les événements élémentaires.
Exemple II.5. Si on considère l’expérience “tirer une carte au hasard dans un jeu de tarot”, alors |Ω| = 78,
et l’événement A = {R♣, R♢, R♡, R♠} revient à tirer un Roi.
Exemple II.7. On considère un lancer de dé à 6 faces, avec les événements A =“le numéro est pair”=
{2, 4, 6} et B =“le numéro est premier”= {2, 3, 5}. Alors :
— A = {1, 3, 5} =“le numéro est impair”;
— B = {1, 4, 6} =“le numéro n’est pas premier”;
— A ∪ B = {2, 3, 4, 5, 6} = {1} ;
— A ∩ B = {2}.
Définition II.8. Un système complet d’événements est une famille (Ai )i∈J1;nK d’événements deux-à-
deux incompatibles tels que : ∪ni=1 Ai = Ω.
Remarque II.9. C’est une partition, dans laquelle on autorise certains événements à être vide.
Exemples II.10.
1. ({ω})ω∈Ω est un système complet d’événements ;
2. si A ⊂ Ω, alors (A, A) est un système complet d’événements.
Remarque II.12. Le point important ici est que la probabilité est une donnée à rajouter à l’univers consi-
dérer. On peut avoir des expériences aléatoires qui ont même univers, mais pas la même probabilité. Par
exemple, ce serait la différence entre un dé équilibré et un dé truqué.
Démonstration.
1. Comme Ω ∩ ∅ = ∅ et Ω ∪ ∅ = Ω, alors par additivité :
et donc P(∅) = 0.
2. Comme A ∩ A = ∅ et A ∪ A = Ω, alors par additivité :
4. On a l’union disjointe : (A ∪ B) = A ∪ (B \ A) qui donne déjà que : P(A ∪ B) = P(A) + P(B \ A).
Et on a également l’union disjointe : B = (A∩B)∪(B\A), ce qui donne : P(B) = P(A∩B)+P(B\A).
En réinjectant, on a bien :
Remarques II.14.
1. Ces résultats se comprennent bien d’un point de vue probabiliste. Par exemple, pour la croissance : si
l’événement A est réalisé et que A ⊂ B, alors l’événement B est aussi réalisé. Et donc la probabilité
de B est plus grande que celle de A, comme B est réalisé dès que A l’est.
En particulier : X
P({ω}) = 1
ω∈Ω
Définition II.16. On considère Ω un ensemble P fini. On appelle distribution de probabilité sur Ω une
famille (pω )ω∈Ω de réels positifs telle que : ω∈Ω pω = 1.
438 CHAPITRE 26. PROBABILITÉS ET DÉNOMBREMENT
Théorème II.17. Si Ω est une ensemble fini muni d’une probabilité P, alors la famille (P({ω}))ω∈Ω est une
distribution de probabilité qui détermine entièrement P, dans le sens où l’application P 7→ (P({ω}))ω∈Ω
définit une bijection des probabilités sur Ω vers les distributions de probabilité sur Ω.
Démonstration. Notons déjà que, comme la famille ({ω})ω∈Ω forme un système complet d’événements, on
a bien que (P({ω}))ω∈Ω est une distribution de probabilité.
Reste à montrer la bijectivité de φ : P 7→ (P({ω}))ω∈Ω :
— injectivité : par probabilité d’une union disjointe, on a que :
X
∀A ⊂ Ω, P(A) = P({ω})
ω∈A
et donc P est entièrement déterminée par les probabilités des événements élémentaires, donc par
φ(P), ce qui donne bien l’injectivité.
P (pω )ω∈Ω une distribution de probabilité sur Ω. On considère sur P(Ω)
— surjectivité : considérons
l’applicationPP : A 7→ ω∈A pω . Montrons que P vérifie bien φ(P) = (pω ) :
— P(Ω) = ω∈Ω pω = 1 par définition d’une distribution de probabilités ;
— si A et B sont incompatibles, alors :
X X X
P(A ∪ B) = pω = pω + pω = P(A) + P(B)
ω∈A∪B ω∈A ω∈B
et on déduit également de ces deux résultats, comme φ est à valeurs dans R+ (somme de réels
positifs) que :
∀A ∈ P(Ω), 1 = P(Ω) = P(A ∩ A) = P(A) + P(A)
| {z }
≥0
donc finalement P est une application de P(Ω) dans [0; 1], avec P(Ω) = 1 et additive : c’est une
probabilité.
De plus, si ω0 ∈ Ω, alors :
X
P({ω0 }) = p ω = p ω0
ω∈{ω0 }
Remarques II.18.
1. L’idée est qu’une probabilité se comprend bien en termes de probabilité des événements élémentaires.
C’est d’autant plus légitime sur un univers fini, mais pourrait très bien s’étendre à des univers infinis
(les termes sont toujours positifs donc les sommes ont toujours un sens, et comme toutes les sommes
finies étant majorées par 1, on ne manipule que des familles sommables).
2. Ce résultat met en évidence le lien entre probabilités et dénombrement : on peut raisonner sur les
événements élémentaires, qu’on peut dénombrer et évaluer individuellement leurs probabilités pour
déduire la probabilité de tout événement.
Proposition-Définition II.19. Si Ω est un univers fini, il existe une unique probabilité P telle que tous les
événements élémentaires ont même probabilité.
On l’appelle la probabilité uniforme sur Ω, et elle est donnée par :
|A|
∀A ∈ Ω, P(A) = .
|Ω|
III. PROBABILITÉ CONDITIONNELLE 439
Démonstration. Nécessairement, si les événements élémentaires ont tous la même probabilité, en notant α
cette probabilité, on a par probabilité d’une union disjointe que :
X
1 = P(Ω) = P({ω}) = |Ω| · α
ω∈Ω
1
et donc α = .
|Ω|
1
La famille (pω ) = forme alors une distribution de probabilités, et par union disjointe on trouve
|Ω|
que :
X 1 |A|
∀A ⊂ Ω, P(A) = = .
ω∈A
|Ω| |Ω|
Remarques II.20.
1. On parlera aussi d’équiprobabilité, comme tous les événements élémentaires ont même probabilité.
2. Pour mettre en évidence le caractère uniforme d’une probabilité, on emploiera le terme équilibré
pour un lancer (d’un dé ou d’une pièce par exemple) ou indiscernable pour un tirage (de cartes
ou de boules).
3. Dans le cas d’une probabilité uniforme, le fait de dénombrer les événements élémentaires (ce qui
revient à calculer des cardinaux d’ensembles) permet directement de déduire les probabilités. C’est
dans ce cadre que les technique de dénombrement sont les plus efficaces.
Exemple II.21. Les problèmes de dénombrements sont souvent présentés sous forme de tirages. Si on
considère une urne contenant n ∈ N∗ boules, et que l’on effectue p tirages successifs, on a deux paramètres
à prendre en compte, selon que l’on fait des remises ou non et que l’ordre compte ou non.
Le fait de ne pas compter l’ordre revient à faire des tirages simultanés, pour lesquels la notion de remise
n’a pas vraiment de sens, si bien qu’on
a généralement l’un des trois cas suivants :
n
— sans remise et sans ordre : p possibilités ;
— sans remise et avec ordre : Apn possibilités ;
— avec remise et avec ordre : np possibilités.
Et le tirage avec remise sans tenir compte de l’ordre correspond à n+p−1
p
possibilités (ce que l’on montrera
en exercice).
Remarque III.2. Le sens derrière est celui conforme à l’intuition : c’est la probabilité de réaliser l’événe-
ment A tout en sachant déjà que B est réalisé.
440 CHAPITRE 26. PROBABILITÉS ET DÉNOMBREMENT
Exemple III.3. Considérons un jeu de tarot, duquel on tire une carte avec équiprobabilité.
On considère les événements A =“tirer un roi” et B =“tirer une tête”.
Un jeu de tarot contient 78 cartes, dont les têtes sont les valets, cavaliers, reines et rois (chaque valeur
étant représentée par 4 cartes, ce qui fait 16 têtes). Comme on a une équiprobabilité, on déduit que :
4 2 16 8 2
P(A) = = , P(B) = = et P(A ∩ B) = P(A) =
78 39 78 39 39
Par définition, on a les probabilités conditionnelles :
2 2
P(A ∩ B) 39 1 P(A ∩ B) 39
PB (A) = = 8 = et PA (B) = = 2 =1
P(B) 39
4 P(A) 39
Remarque III.4. L’événement “A sachant B” n’existe pas : pour calculer une probabilité conditionnelle, il
faudra systématiquement revenir aux calculs des probabilités de A ∩ B et de B.
Proposition III.5. Si B est un événement de l’espace probabilisé (Ω, P) tel que P(B) ̸= 0, alors l’applica-
tion :
P(Ω) → [0; 1]
PB :
A 7→ PB (A)
est une probabilité sur Ω.
Remarque III.6. Les propriétés des probabilités (passage au complémentaire, croissance, sous-additivité,
etc.) sont donc aussi vérifiées par les probabilités conditionnelles.
P (A1 ∩ · · · ∩ An ) = P(A1 )PA1 (A2 )PA1 ∩A2 (A3 ) . . . PA1 ∩···∩An−1 (An )
Qn−1 .
= i=0 PA1 ∩···∩Ai (Ai+1 )
III. PROBABILITÉ CONDITIONNELLE 441
Remarques III.8.
1. Cette formule est particulièrement utile lors de tirages successifs sans remise : chaque tirage modifie
les probabilités des tirages suivants, ce qui fait apparaı̂tre les produits de probabilités conditionnelles
du théorème.
Et elles se comprennent bien en terme d’arbres de probabilité : le produit correspond au produit des
probabilités associées à chaque branche.
Et le même raisonnement se transpose à un tirage simultané, en ordonnant les éléments tirés.
2. La formule s’étend au cas où P(A1 ∩· · ·∩An−1 ) = 0, en posant par convention que PB (A)·P (B) = 0
dès que P(B) = 0.
Exemple III.9.
On considère une urne contenant 2n boules (n noires et n blanches), et on y tire successivement sans
remise 3 boules. On se demande la probabilité de tirer dans cet ordre des boules noire/blanche/noire.
Pour i ∈ {1, 2, 3} notons Bi l’événement “tirer une boule blanche au tirage i”. On veut donc calculer la
probabilité de B1 ∩ B2 ∩ B3 , ce qui se fait par les probabilités composées :
n n n−1 n
P B1 ∩ B2 ∩ B3 = P B1 PB1 (B2 ) · PB1 ∩B2 B3 = · · =
2n 2n − 1 2n − 2 4(2n − 1)
ce qui se comprend bien avec l’arbre suivant :
n−2
2n−2 B3
n−1
B2
2n − 1 n
2n−2 B3
B1
n n−1
2n−2 B3
2n n
2n − 1 B2
n−1 B3
2n−2
n−1
2n−2 B3
n
B2
n 2n − 1
n−1 B3
2n 2n−2
B1
n
2n−2 B3
n−1
B2
2n − 1
n−2 B3
2n−2
442 CHAPITRE 26. PROBABILITÉS ET DÉNOMBREMENT
Théorème III.10 (Formule des probabilités totales). Si on considère {A1 , . . . , An } un système complet
d’événements, et B ∈ P(Ω), alors :
n
X n
X
P(B) = P(B ∩ Ai ) = P(Ai )PAi (B)
i=1 i=1
(en reprenant à nouveau la convention selon laquelle PA (B) · P (A) = 0 dès que P(A) = 0).
Démonstration. Comme on a un système complet d’événements, alors Ω = ∪ni=1 Ai (comme union disjointe)
et donc pour tout événement B on a : B = ∪ni=1 (B ∩ Ai ) (l’union étant également disjointe). Par additivité,
il vient donc :
Xn
P(B) = P(B ∩ Ai )
i=1
et la réécriture vient :
— directement de la définition des probabilités conditionnelles si P(Ai ) ̸= 0 ;
— du fait que, si P(Ai ) = 0, alors P(B ∩ Ai ) = 0 (par croissance).
Remarque III.11. Tout l’enjeu est justement de trouver un système complet d’événements qui facilite les
calculs des probabilités qui apparaissent dans la somme.
Et à nouveau, le résultat se comprend bien avec un arbre :
PA1 (B) B
A1
PA1 (B) B
PA2 (B) B
P(A1 )
A2
PA2 (B) B
P(A2 ) ..
.
P(Ai )
PAi (B) B
Ai
PAi (B) B
P(An ) ..
.
PAn (B) B
An
PAn (B) B
Exemple III.12. On considère une urne contenant n boules noires et b boules blanches. On tire sans remise
trois boules, et on se demande la probabilité d’avoir une boule blanche au troisième tirage.
Pour i ∈ {1, 2, 3} notons Bi l’événement “tirer une boule blanche au tirage i”. On veut calculer la probabilité
de B3 . Pour cela, on utilise le système complet d’événements B1 ∩ B2 , B1 ∩ B2 , B1 ∩ B1 , B1 ∩ B2 , ce qui
III. PROBABILITÉ CONDITIONNELLE 443
donne :
P(B3 ) = P(B1 ∩ B2 ∩ B3 ) + P(B1 ∩ B2 ∩ B3 ) + P(B1 ∩ B1 ∩ B3 ) + P(B1 ∩ B2 ∩ B3 )
b b−1 b−2 b n b−1
= · · + · ·
b+n b+n−1 b+n−2 b+n b+n−1 b+n−2
n b b−1 n n−1 b
+ · · + · ·
b+n b+n−1 b+n−2 b+n b+n−1 b+n−2
b · ((b + n)2 − 3(b + n) + 2) b
= =
(b + n)(b + n − 1)(b + n − 2) b+n
Et notons que le résultat final est rassurant : si on échange les rôles de b et n, cela vient à calculer la
n
probabilité de P(B3 ), qui vaudrait donc . Et on a bien que :
b+n
b n
P(B3 ) + P(B3 ) = + = 1.
b+n b+n
Et surtout, on aurait pu prévoir ce résultat : le rôle des boules est symétrique : si on regarde nos triplets
obtenus à la fin, on comprend bien que le fait de regarder la première ou la troisième boule ne change rien
b
à la probabilité. Et il est immédiat que P(B1 ) = par un argument de dénombrement.
n+b
Théorème III.13 (Formule de Bayes). Si A, B sont des événements qui sont tous les deux de probabilité
non nulle, alors :
PA (B)P(A)
PB (A) = .
P(B)
Démonstration. On a directement par définition que :
— avec p = 10−3 : on a une chance sur 2 d’être malade avec un test positif ;
— avec p = 10−4 : on a 9% de chance d’être malade avec un test positif.
PA (B)P(Ai )
∀i ∈ J1; nK, PB (Ai ) = Pn i .
j=1 P(Aj )PAj (B)
Démonstration. Découle du résultat précédent, et de la formule des probabilités totales pour changer P(B)
en l’expression du dénominateur.
PA (B)P(A)
PB (A) =
P(A)PA (B) + P(A)PA (B)
III.3 Indépendance
Définition III.18. Deux événements A et B sont dits indépendants si : P(A ∩ B) = P(A)P(B).
Exemples III.19.
1. On lance un dé équilibré à 6 faces. Alors les événements A =“le montant est un nombre premier”
et B =“le montant est un multiple de 3” sont indépendants.
On a : A = {2, 3, 5}, B = {3, 6} et A∩B = {3}. Et comme on a une équiprobabilité on a directement
que :
1 1 1
P(A ∩ B) = = · = P(A) · P(B).
6 2 3
2. On considère le fait de tirer une carte dans un jeu de cartes indiscernables. On considère les évé-
nements A =“tirer une dame” et B =“tirer un cœur”. Dans ce cas, on a A ∩ B =“tirer la dame de
cœur”.
Alors selon le type de jeu, les événements A et B sont indépendants ou non :
— dans un jeu de 52 cartes :
1 1 1
P(A ∩ B) = = · = P(A) · P(B)
52 13 4
donc A et B sont indépendants ;
— dans le même jeu, mais où on aurait perdu le roi de trèfle :
1 52 4 13
P(A ∩ B) = ̸= 2 = · = P(A) · P(B)
51 51 51 51
donc A et B ne sont pas indépendants ;
— dans un jeu de tarot on a :
1 56 4 14
P(A ∩ B) = ̸= 2 = · = P(A) · P(B)
78 78 78 78
donc A et B ne sont pas indépendants.
Proposition III.20. Soient A, B deux événements avec P(B) ̸= 0. Alors les événements A et B sont
indépendants si, et seulement si, P(A) = PB (A).
III. PROBABILITÉ CONDITIONNELLE 445
P(A ∩ B)
Démonstration. On écrit directement, comme P(B) ̸= 0, que : PB (A) = . Et donc A et B sont
P(B)
indépendant si, et seulement si :
P(A ∩ B)
P(A) = = PB (A)
P(B)
Remarques III.21.
1. On comprend bien avec ce résultat le terme d’indépendance : le fait d’avoir une information sur B
ne donne aucune information sur A, dans la mesure où la probabilité de A n’est pas affectée par le
fait que B soit réalisée ou non.
2. Si P(B) = 0, alors B est indépendant de A : on a en effet P(A ∩ B) ≤ P(B) (par croissance) donc
P(A ∩ B) = 0, donc P(A ∩ B) = P(A) · P(B).
Proposition III.22. Si A et B sont deux événements indépendants, alors A et B le sont aussi.
Démonstration. Par formule des probabilités totales, on a :
Remarque III.25. Des événements mutuellement indépendants sont deux-à-deux indépendants, dans le
sens où, avec les notations précédentes :
En revanche, la réciproque est fausse. Par exemple, on si on considère le lancer d’un dé rouge et d’un dé
bleu équilibrés à 6 faces (chacun), on peut considérer les événements suivants :
A = “le montant du dé bleu est pair”, B = “le montant du dé rouge est pair”,
Proposition III.26. Si A1 , . . . , An sont des événements mutuellement indépendants, et que l’on se donne
pour tout i ∈ J1; nK un événement Bi ∈ {Ai , Ai }, alors les événements B1 , . . . , Bn sont mutuellement
indépendants.
Espaces préhilbertiens
Exemples I.2.
1. Le produit usuel sur R est bilinéaire symétrique.
2. Le produit scalaire usuel sur R2 est bilinéaire symétrique comme :
est symétrique.
4. Si E est de dimension 2 et B = (e1 , e2 ) est une base de E, alors detB est une forme bilinéaire sur
E, mais n’est pas symétrique comme detB (e1 , e2 ) = 1 ̸= −1 = detB (e2 , e1 ).
En revanche, l’application :
2
(R2 ) → R
((x1 , x2 ), (y1 , y2 )) 7→ x1 y2 + x2 y1
447
448 CHAPITRE 27. ESPACES PRÉHILBERTIENS
— si f1 , f2 ∈ E et λ, µ ∈ R, alors :
Z b Z b
φ(λf1 + µf2 , g) = (λf1 (t) + µf2 (t)) g(t)dt = (λf1 (t)g(t) + µf2 (t)g(t)) dt
a a
Z b Z b
=λ f1 (t)g(t)dt + µ f2 (t)g(t)dt = λφ(f1 , g) + µφ(f2 , g)
a a
Remarque I.3. L’aspect symétrique permet de montrer plus facilement la bilinéarité : une application de
E 2 sur R symétrique est bilinéaire si, et seulement si, elle est linéaire à gauche ou à droite.
Proposition I.4 (Identités remarquables). Si φ est une forme bilinéaire symétrique sur E, alors pour tous
x, y ∈ E on a :
1. φ(x + y, x + y) = φ(x, x) + 2φ(x, y) + φ(y, y) ;
2. φ(x − y, x − y) = φ(x, x) − 2φ(x, y) + φ(y, y) ;
3. φ(x + y, x − y) = φ(x − y, x + y)φ(x, x) − φ(y, y).
Démonstration.
Découle à chaque fois de la bilinéarité et de la symétrie. Plus précisément, si x, y ∈ E, alors :
φ(x − y, x − y) = φ(x + (−y), x + (−y)) = φ(x, x) + 2φ(x, −y) + φ(−y, −y) = φ(x, x) − 2φ(x, y) + φ(y, y) .
Remarque I.5. Ce sont les mêmes formules que sur R (pour le produit usuel).
Définition I.6 (Produit scalaire). Une forme bilinéaire symétrique φ sur E est un produit scalaire si elle
est :
1. définie :
∀x ∈ E, φ(x, x) = 0 ⇔ x = 0;
2. positive :
∀x ∈ E, φ(x, x) ≥ 0.
I. PRODUITS SCALAIRES, ESPACES PRÉHILBERTIENS, ESPACES EUCLIDIENS 449
Remarque I.7. En général, si φ défini un produit scalaire sur E, on notera ⟨x, y⟩ ou (x|y) au lieu de
φ(x, y). Et on pourra noter ⟨·, ·⟩ ou (·|·) pour désigner φ.
Proposition-Définition I.8.
1. Pour n ∈ N∗ , l’application : (X, Y ) 7→ X T · Y définit un produit scalaire sur Rn .
2. Pour n, p ∈ N∗ , l’application (A, B) 7→ tr(AT · B) définit un produit scalaire sur Mn,p (R).
Ces produits scalaires sont appelés produits scalaires canoniques de Rn et Mn,p (R).
Démonstration.
Si X = (xi ), Y = (yj ) ∈ Rn , alors :
n
X
T
X ·Y = xi y i
i=1
et donc : p
n X
X
T
tr(A · A) = a2i,j .
i=1 j=1
Remarque I.9. On pourrait généraliser cette méthode pour créer des produits scalaires sur n’importe quel
espace vectoriel de dimension finie : si on considère E de dimension n ∈ N∗ , et (e1 , . . . , en ) une base de
E, alors l’application :
φ: P E×E → R
( ni=1 xi ei , ni=1 yi ei ) 7→
P Pn
i=1 xi yi
définit un produit scalaire sur E.
De plus, en munissant Rn du produit scalaire canonique, l’application :
E → Rn
ψ : Pn
i=1 xi ei 7→ (x1 , . . . , xn )
Remarques I.11.
1. La continuité est importante pour avoir l’aspect défini. Ainsi, la même application est une forme
bilinéaire symétrique positive sur Cpm ([a, b], R), mais ce n’est plus un produit scalaire.
2. Ce n’est pas non plus un produit scalaire sur C(R, R) : la seule propriété que l’on aurait est que :
⟨f, f ⟩ = 0 ⇔ f |[a,b] = 0.
En revanche, c’en est un sur R[X] : la bilinéarité, symétrie, positivité sont claires. Et si P ∈ R[X]
Rb
vérifie a P (t)2 dt = 0, alors P est nul sur [a, b], donc nul.
Définition I.12. Un espace préhilbertien est un espace vectoriel muni d’un produit scalaire.
Si cet espace est de dimension finie, on parlera d’espace euclidien.
Remarque I.13. Un même espace peut être muni de différents produits scalaires : il faudra donc préciser
celui considéré.
Exemple I.14. L’espace E = R[X] est un espace préhilbertien pour les produits scalaires suivants :
Rb
1. (P, Q) 7→ a P (t)Q(t)dt (pour a < b) ;
2. ( an X n , bn X n ) 7→ +∞
P P P
n=0 an bn ;
P+∞ (i) (i)
3. (P, Q) 7→ i=0 P (a)Q (a) (pour a ∈ R).
Proposition I.15. Tout sous-espace d’un espace préhilbertien est un espace préhilbertien.
Démonstration. Si E est muni du produit scalaire φ, alors φ définit également une forme bilinéaire symé-
trique définie positive sur tout sous-espace vectoriel de E comme toutes les propriétés à vérifier pour φ
sont définies à l’aide de quantificateurs universel.
Remarque I.16. La réciproque est fausse, dans le sens où : si φ est une forme bilinéaire symétrique sur
un espace E, et F est un sev de E pour lequel φ est un produit scalaire, alors φ n’est pas nécessairement
un produit scalaire sur E.
Exemple I.17. Si n ∈ N, alors Rn [X] est espace euclidien, et on peut prendre n’importe quel produit scalaire
issu de R[X].
Si x0 , . . . , xn sont des réels deux-à-deux distincts, alors :
n
X
(P, Q) 7→ P (xi )Q(xi )
i=0
est un produit scalaire sur Rn [X] (mais pas sur R[X]). On peut le montrer par le calcul, ou recon-
naı̂tre le produit scalaire associé à la base des polynômes d’interpolation de Lagrange associés à la famille
(x0 , . . . , xn ).
I. PRODUITS SCALAIRES, ESPACES PRÉHILBERTIENS, ESPACES EUCLIDIENS 451
Exemple I.19. Sur Rn , la norme et la distance associées au produit scalaire canonique sont données par :
v v
u n u n
uX uX
2
∥(x1 , . . . , xn )∥ = t xi et d ((x1 , . . . , xn ), (y1 , . . . , yn )) = t (xi − yi )2 .
i=1 i=1
Théorème I.20 (Inégalité de Cauchy–Schwarz). Si E est un espace préhilbertien muni du produit scalaire
⟨·, ·⟩, alors :
∀x, y ∈ E, |⟨x, y⟩| ≤ ∥x∥ · ∥y∥
avec égalité si, et seulement si, les vecteurs x et y sont colinéaires.
Démonstration. Soient x, y ∈ E.
Si y = 0, alors l’inégalité est vérifiée : c’est même une égalité, et on a bien la condition d’égalité (comme
le vecteur nul est colinéaire à tout vecteur).
Sinon, considérons l’application définie sur R par :
donc f est une fonction polynomiale du second degré, comme ⟨y, y⟩ = ̸ 0 (puisque y ̸= 0).
De plus, pour tout t ∈ R, on a : f (t) ≥ 0 (par positivité du produit scalaire). Donc f est de signe constant.
Et donc le discriminant de f est négatif ou nul, c’est-à-dire :
En passant à la racine carrée, on trouve bien que : |⟨x, y⟩| ≤ ∥x∥ · ∥y∥.
En cas d’égalité, on déduit que f a un discriminant nul, donc s’annule en un réel t. On a alors pour ce
même t : ⟨x + ty, x + ty⟩ = 0. Et comme le produit scalaire est défini, on a donc x = −ty, donc x et y sont
bien colinéaires.
Réciproquement, si x et y sont colinéaires : comme y ̸= 0, il existe λ ∈ R tel que x = λy, et alors f (−λ) = 0.
D’où l’équivalence cherchée.
Remarques I.21.
1. On retrouve une situation déjà connue pour le produit scalaire sur R2 :
|→
−
u ·→
−
v | ≤ ∥→
−
u ∥ · ∥→
−
v ∥.
452 CHAPITRE 27. ESPACES PRÉHILBERTIENS
2. Le caractère défini est seulement indispensable pour montrer la situation d’égalité. Si on a seulement
une forme bilinéaire symétrique positive φ, on trouve tout de même que :
p p
∀x, y ∈ E, |φ(x, y)| ≤ φ(x, x) · φ(y, y)
en étudiant séparément selon que φ(y, y) = 0 ou φ(y, y) ̸= 0. Et la situation d’égalité peut s’analyser
en déterminant l’ensemble {x ∈ E | φ(x, x) = 0}.
Exemples I.22.
1. Pour tous x1 , . . . , xn , y1 , . . . , yn ∈ R, on a :
v v
Xn u n
X uX
u n
u 2t
xi yi ≤ xi yi2
t
i=1 i=1 i=1
avec égalité si, et seulement si, les vecteurs (x1 , . . . , xn ) = et (y1 , . . . , yn ) sont colinéaires.
On retrouve l’inégalité entre moyennes arithmétique et quadratique :
Pn r Pn
2
i=1 xi i=1 xi
= |⟨(x1 , . . . , xn ), (1/n, . . . , 1/n)⟩| ≤ ∥(x1 , . . . , xn )∥ · ∥(1/n, . . . , 1/n)∥ =
n n
Proposition I.23. Si E est un espace préhilbertien, et ∥ · ∥ est la norme associée au produit scalaire sur
E, alors pour tous x, y ∈ E et λ ∈ R on a :
1. ∥λx∥ = |λ| · ∥x∥ (positive homogénéité de degré 1, ou juste homogénéité) ;
2. ∥x∥ = 0 ⇔ x = 0 (séparation) ;
3. ∥x + y∥ ≤ ∥x∥ + ∥y∥ (inégalité triangulaire).
De plus, dans l’inégalité triangulaire, il y a égalité si, et seulement si, x et y sont positivement coli-
néaires (ou colinéaires de même sens), c’est-à-dire qu’il existe µ ∈ R+ tel que x = µy ou y = µx.
Démonstration.
1. Par définition de la norme, on a :
p p p
∥λx∥ = ⟨λx, λx⟩ = λ2 ⟨x, x⟩ = |λ| · ⟨x, x⟩ = |λ| · ∥x∥.
Remarques I.24.
1. On retrouve les trois propriétés qu’on avait démontrées pour la norme ∥ · ∥∞ sur les fonctions
continues par morceaux : ce sont en fait les trois propriétés qui justifient l’appellation de norme.
2. Pour l’inégalité triangulaire, on a même :
avec égalité à droite (resp. à gauche) si, et seulement si, x et y sont colinéaire de même sens (resp.
de sens opposés).
Corollaire I.25. Avec les mêmes notations, si d est la distance associée au produit scalaire sur E, alors
pour tous x, y, z ∈ E on a :
1. d(x, y) = d(y, x) ;
2. d(x, y) = 0 ⇔ x = y ;
3. d(x, z) ≤ d(x, y) + d(y, z).
Démonstration. Découle respectivement de la symétrie du produit scalaire, de son caractère défini, et de
l’inégalité triangulaire pour la norme.
Proposition I.26 (Identités remarquables). Si E est un espace préhilbertien muni d’un produit scalaire ⟨·, ·⟩
et de norme associée ∥ · ∥, alors pour tous x, y ∈ E on a :
1. ∥x + y∥2 = ∥x∥2 + 2⟨x, y⟩ + ∥y∥2 ;
2. ∥x − y∥2 = ∥x∥2 − 2⟨x, y⟩ + ∥y∥2 ;
3. ⟨x + y, x − y⟩ = ∥x∥2 − ∥y∥2 .
Démonstration. Découle des identités remarquables avec les formes bilinéaires symétriques.
Corollaire I.27 (Identités de polarisation). Avec les mêmes notations, on a :
1 1
2
x∥ + ∥y∥2 − ∥x − y∥2 = 1 ∥x + y∥2 − ∥x − y∥2 .
∥x + y∥2 − ∥x∥2 − ∥y∥2
⟨x, y⟩ =
2 2 4
Démonstration. Découle directement des identités remarquables.
Corollaire I.28 (Identité du parallélogramme). Avec les mêmes notations, on a :
x−
y
x
y
x+
Dont tout le monde connaı̂t bien un cas particulier : quand il s’agit d’un rectangle, on retrouve le théorème
de Pythagore.
II Vecteurs orthogonaux
II.1 Orthogonalité et orthonormalité
Définition II.1. Si E est un espace préhilbertien muni d’un produit scalaire ⟨·, ·⟩, on dit que x, y ∈ E sont
orthogonaux, ce que l’on note x ⊥ y, si ⟨x, y⟩ = 0.
Exemples II.2.
1. Peu importe l’espace considéré : le vecteur nul est orthogonal à tout vecteur, et c’est le seul vecteur
satisfaisant cette propriété.
C’est aussi le seul vecteur orthogonal à lui-même (comme un produit scalaire est défini).
2. Sur R2 muni du produit scalaire canonique, les vecteurs (a, b) et (−b, a) sont orthogonaux.
Définition II.3. Avec les mêmes notations, si X, Y sont deux parties de E, on dira que X et Y sont
orthogonales, ce que l’on note X ⊥ Y , si tout vecteur de X est orthogonal à tout vecteur de Y :
∀(x, y) ∈ X × Y, x ⊥ y.
Définition II.4. Avec les mêmes notations, une famille (xi )i∈I d’éléments de E est dite orthogonale si
tous ses éléments sont deux-à-deux orthogonaux : ∀i, j ∈ I, i ̸= j ⇒ xi ⊥ xj .
Elle sera dite de plus orthonormale (ou orthonormée) si tous ses vecteurs sont unitaires (c’est-à-dire
de norme 1), c’est-à-dire si :
∀i, j ∈ I, ⟨xi , xj ⟩ = δi,j .
Exemples II.5.
1. Pour le produit scalaire canonique, les bases canoniques de Rn ou de Mn,p (R) sont orthonormées.
2. Plus généralement, si B = (e1 , . . . , en ) est une base de E, elle est orthonormée pour le produit
scalaire : * n +
X n
X n
X
xi ei , yi ei = xi y i .
i=1 i=1 i=1
Par exemple, si x0 , . . . , xn sont des réels deux-à-deux distincts, la famille des polynômes d’interpola-
tion de Lagrange
Pnassociés forme une famille orthonormale pour le produit scalaire défini sur Rn [X]
par : ⟨P, Q⟩ = i=0 P (xi )Q(xi ).
II. VECTEURS ORTHOGONAUX 455
3. Sur C([0, 2π], R), la famille (fk )k∈N définit par fk : x 7→ cos(kx) est une famille orthogonale pour le
R 2π
produit scalaire : ⟨f, g⟩ = 0 f (t)g(t)dt.
On a pour k, l ∈ N avec k ̸= l, on a :
R 2π R 2π
⟨fk , fl ⟩ = 0 fk (t)fl (t)dt = 0 cos(kt)cos(lt)dt
1 R 2π 1 R 2π
= cos((k + l)t)dt + cos((k − l)t)dt
2 0 2π2
0
2π
1 1 1 1
= sin((k + l)t) + sin((k − l)t)
2 k+l 0 2 k+l 0
= 0
Proposition II.6. Une famille orthogonale de vecteurs non nuls est libre.
Remarque II.7. On retrouve notamment un résultat vu pendant l’année, à savoir que la famille (x 7→
cos(kx))k∈N est une famille libre.
Théorème II.9 (de Pythagore). Si E est un espace préhilbertien et x, y ∈ E, alors x et y sont orthogonaux
si, et seulement si, ∥x + y∥2 = ∥x∥2 + ∥y∥2 .
ce qui donne bien que ∥x + y∥2 = ∥x∥2 + ∥y∥2 si, et seulement si, ⟨x, y⟩ = 0, c’est-à-dire que x et y sont
orthogonaux.
Remarque II.10. Les formulations autour des triangles rectangles, et les similarités entre les mots “hypoté-
nuse” et “hippopotame” ont entraı̂ner de nombreuses déformations de ce théorème. De nombreuses blagues
à la qualité discutable autour de théorème autour d’hippopotames par exemple. Ou sinon le fait que le fait
d’accoler la même figure aux côtés d’un triangle rectangle, en la dilatant suivant un rapport correspondant
à la longueur du côté, donne que l’aire de la figure adjacente à l’hypoténuse est égale à la somme des aires
des deux autres. Et c’est même valable lorsque les figures représentent des hippopotames :
456 CHAPITRE 27. ESPACES PRÉHILBERTIENS
Remarque II.12. On pouvait aussi procéder par calcul direct, par propriétés d’une forme bilinéaire symé-
trique. Plus généralement, on obtient pour tout famille :
2
Xn
n X
X n n
X X
x = ⟨x , x ⟩ = ∥xi ∥2 + ⟨xi , xj ⟩
i
i j
i=1 i=1 j=1 i=1 i̸=j
ce qui permet de voir au passage que l’on n’a plus l’équivalence lorsque l’on considère plus de deux vecteurs.
Plus précisément, on peut construire les xk récursivement : si on a déjà construit les vecteurs x1 , . . . , xk−1 ,
x∗k
alors on peut poser xk = ∗ , où :
∥xk ∥
k−1
X
∗
xk = ek − ⟨ek , xi ⟩xi .
i=1
II. VECTEURS ORTHOGONAUX 457
Démonstration. On considère la famille (xk ) construite comme dans l’énoncé du théorème. On va montrer
par récurrence sur k ∈ J1; nK que la famille (x1 , . . . , xk ) est orthonormée, et vérifie Vect(e1 , . . . , ek ) =
Vect(x1 , . . . , xk ).
e1
Si k = 1 : comme la famille (e1 , . . . , en ) est libre, alors e1 ̸= 0, et ainsi x1 = est un vecteur unitaire :
∥e1 ∥
la famille (x1 ) est orthonormée, et engendre bien Vect(e1 ).
Supposons que (x1 , . . . , xk ) soit orthonormée avec Vect(x1 , . . . , xk ) = Vect(e1 , . . . , ek ). Alors pour tout
j ∈ J1; kK on a : D E
⟨x∗k+1 , xj ⟩ = ek+1 − ki=1 ⟨ek+1 , xi ⟩xi , xj
P
k
X
ek+1 = ⟨ek+1 , xi ⟩xi ∈ Vect(x1 , . . . , xk ) = Vect(e1 , . . . , ek )
i=1
Remarques II.14.
1. La récursivité de la construction se comprend bien avec n = 2 :
— on transforme e1 en le divisant par sa norme pour le rendre unitaire ;
— on transforme e2 en lui retirant ⟨e2 , x1 ⟩x1 pour le rendre orthogonal à e1 , qu’on renormalise pour
le rendre unitaire également.
Et on verra le sens plus général qui se cache derrière.
e3 e3 e3
e1 x1 x1
e2 e2 x∗2
e3 x∗3
x1 x1 x3 x1
x2 x2 x2
458 CHAPITRE 27. ESPACES PRÉHILBERTIENS
2. Il existe des énoncés légèrement différents qui permettent d’assurer l’unicité de la base (x1 , . . . , xn ).
Il suffit par exemple d’imposer que pour tout k ∈ J1; nK, ⟨ek xk ⟩ > 0 et on a alors l’unicité d’une telle
base (celle donnée par la construction du théorème). On peut notamment observer que, si (ei ) est
orthonormée, alors la famille (xi ) rendue par l’algorithme de Gram–Schmidt est égale à la famille
(ei ).
R1
Exemple II.15. On considère R[X] muni du produit scalaire : ⟨P, Q⟩ = 0 P (t)Q(t)dt. Appliquons l’algo-
rithme de Gram–Schmidt à la famille (P0 = 1, P1 = X, P2 = X 2 ) (qui est bien libre) pour construire une
famille orthonormée (Q0 , Q1 , Q2 ) :
R1 P0 P0
— On a directement : ∥P0 ∥2 = 0 1dt = 1, donc Q0 = = = 1.
∥P0 ∥ 1
— Pour Q1 , on a déjà :
Z 1
∗ 1
Q1 = P1 − ⟨X, Q0 ⟩Q0 = X − t · 1dt · 1 = X −
0 2
et donc : 2
Z 1
1 1
∥Q∗1 ∥2 = t− dt =
0 2 12
donc finalement :
Q∗1 √ √
1
Q1 = = 12 X − = 3 (2X − 1)
∥Q∗1 ∥ 2
— Pour Q2 , on a déjà :
Q∗2 = P2 − ⟨P
R2 , Q0 ⟩Q0 − ⟨P√ 1 ⟩Q1
2 , Q √
1 2 R1
= X − 0 t dt · 1 − 3 0 t2 (2t − 1)dt · 3(2X − 1)
2
1 1 1
= X 2 − − (2X − 1) = X 2 − X +
3 2 6
et donc : 2
Z 1
1 1
∥Q∗2 ∥2 = 2
t −t+ dt =
0 6 180
donc finalement :
Q∗2 √ √
2 1
= 5 6X 2 − 6X + 1 .
Q2 = ∗
= 180 X − X +
∥Q2 ∥ 6
√ √
Et finalement, la famille 1, 3(2X − 1), 5(6X 2 − 6X + 1) est une famille orthonormale pour ce produit
scalaire sur R[X].
Remarque II.16. Le théorème de Pythagore permet de gagner un peu de temps dans les calculs. On a
en effet, que les xi sont orthogonaux, et donc pour tout k la famille (x1 , . . . , xk+1 , x∗k ) est orthogonale, et
donc :
2
Xk−1
k−1
X
2
∗ ∗ 2
∥ek ∥ =
xk + ⟨ek , xi ⟩xi
= ∥xk ∥ + ⟨ek , xi ⟩2 ∥xi ∥2
| {z }
i=1 i=1 =1
et donc :
k−1
X
2 2
∥xk ∥ = ∥ek ∥ − ⟨ek , xi ⟩2
i=1
Par exemple, dans le calcul précédent, on pouvait calculer ∥Q∗2 ∥ un peu plus rapidement, en utilisant que :
1 1 1 1
∥Q∗2 ∥2 = ∥P2 ∥2 − ⟨P2 , Q1 ⟩2 − ⟨P2 , Q0 ⟩2 = − − = .
5 9 12 180
II. VECTEURS ORTHOGONAUX 459
Remarques II.20.
1. Le second résultat s’appelle le théorème de la base orthonormale incomplète.
2. L’algorithme de Gram–Schmidt ne fait rien si la famille est déjà orthonormée. Si elle est seulement
orthogonale, l’algorithme divise chaque vecteur par sa norme.
Proposition II.21. Si E est un espace euclidien, et (e1 , . . . , en ) est une bon de E, alors pour tout x ∈ E
on a : n
X
x= ⟨x, ei ⟩ei
i=1
c’est-à-dire que les coordonnées de x dans (e1 , . . . , en ) sont : (⟨x, e1 ⟩, . . . , ⟨x, en ⟩).
Démonstration. Notons x = ni=1 xi ei (c’est-à-dire que (x1 , . . . , xn ) sont les coordonnées de x). Alors pour
P
tout j ∈ J1; nK : * n +
X Xn n
X
⟨x, ej ⟩ = xi ei , ej = xi ⟨ei , ej ⟩ = xi δi,j = xj
i=1 i=1 i=1
ce qui donne bien le résultat.
Proposition II.22.
Soit B = (e1 , . . . , en ) une bon de E et x, y ∈ E. On note
E un espace euclidien,
x1 y1
.. ..
X = MatB (x) = . et Y = MatB (y) = . . Alors :
xn yn
v
n
X √
u n
uX
⟨x, y⟩ = X T Y = xi yi et ∥x∥ = XT X = t x2i .
i=1 i=1
460 CHAPITRE 27. ESPACES PRÉHILBERTIENS
Remarques II.23.
1. La proposition précédente permet d’exprimer facilement les xi , yi à l’aide des produits scalaires
⟨x, ei ⟩, ⟨y, ei ⟩ et permettent d’adapter les expressions précédentes aux vecteurs et espaces considérés.
2. Une autre manière de formuler est que, étant donné un produit scalaire, une base orthonormée
revient à choisir une base dont le produit scalaire associé est celui déjà considéré.
X ⊥ = {y ∈ E | ∀x ∈ X, x ⊥ y}.
Exemples III.2.
1. On a toujours ∅⊥ = E = {0}⊥ (le vecteur nul est orthogonal à tout vecteur) et E ⊥ = {0} (et c’est
le seul). Comme c’est même le seul vecteur orthogonal à lui-même, on déduit que X ∩ X ⊥ = {0}
ou ∅.
2. Dans R3 muni du produit scalaire canonique, pour tous a, b, c ∈ R on a :
Démonstration.
1. Comme le vecteur nul est orthogonal à tout vecteur, on a : 0 ∈ X ⊥ .
Si y1 , y2 ∈ X ⊥ et λ, µ ∈ R, alors pour tout x ∈ X on a :
∀y ∈ Y, ⟨z, y⟩ = 0
Remarques III.4.
1. On voit ainsi l’aspect central des espaces vectoriels quand on travaille avec des espaces orthogonaux :
déjà l’orthogonal d’une partie (quelconque) est toujours un espace vectoriel ; et ensuite il suffit de
regarder les orthogonaux des espaces vectoriels, et pour les étudier il suffit d’étudier l’orthogonalité
par rapport aux éléments d’une famille génératrice. Par exemple, si F = Vect(e1 , . . . , en ), alors on
a l’équivalence :
x ∈ F ⊥ ⇔ ∀i ∈ J1; nK, x ⊥ ei .
2. Pour montrer que X ⊥ est un espace vectoriel, on pouvait aller plus vite en montrant que c’est une
intersection d’espaces vectoriels :
Démonstration. On a déjà que F ∩ F ⊥ = {0}, ce qui montre que F et F ⊥ sont en somme directe.
Reste à montrer que E = F + F ⊥ . Considérons (f1 , . . . , fn ) une base orthonormé de F (qui existe bien
comme F est de dimension finie.
Soit x ∈ E. Alors pour tout j ∈ J1; nK on a :
* n
+ n
X X
x− ⟨x, fi ⟩fi , fj = ⟨x, fj ⟩ − ⟨x, fi ⟩ ⟨fi , fj ⟩ = ⟨x, fj ⟩ − ⟨x, fj ⟩ = 0
| {z }
i=1 i=1
δi,j
Pn
ce qui assure que x − i=1 ⟨x, fi ⟩fi ∈ F ⊥.
Et on a ainsi que :
n
X n
X
x= ⟨x, fi ⟩fi + x − ⟨x, fi ⟩fi ∈ F + F ⊥
|i=1 {z } | i=1
{z }
∈F ∈F ⊥
Corollaire III.11. Si E est un espace euclidien, alors pour tout sous-espace vectoriel F de E on a :
dim(F ⊥ ) = dim(E) − dim(F ).
Exemple III.12. Dans le cas d’un hyperplan, tout supplémentaire (donc en particulier le supplémentaire
orthogonal) est une droite. Et donc tout vecteur non-nul a orthogonal à un hyperplan H engendre H ⊥ .
Et en reprenant l’orthogonal, on déduit que : H = Vect(a)⊥ = {a}⊥ .
On retrouve dans R3 que :
et plus généralement on
Pnavait vu que, étant donné (e1 , . . . , en ) une base de E, un hyperplan est donné par
une équation du type i=1 ai xi = 0, où les xi sont les coordonnées dans la base (ei ) des points considérés,
et les ai sont des coefficients qui dépendent de l’hyperplan.
Et cet hyperplan est directement {(a1 , . . . , an )}⊥ pour le produit scalaire associé à (e1 , . . . , en ).
Corollaire III.13. Si E est un espace euclidien, les hyperplans sont exactement les orthogonaux de droites.
Plus précisément, si on considère B = (e1 , . . . , en ) une base orthonormée de E, et H l’hyperplan d’équation
P n ⊥
i=1 ai xi = 0, alors H = Vect ((a1 , . . . , an )) .
Démonstration. Le premier résultat découle directement des dimensions, comme les hyperplans sont exac-
tement les espaces de dimension n, donc leur orthogonal est une droite. Et inversement l’orthogonal d’une
droite est bien un hyperplan.
Le second résultat découle du lien entre expression du produit scalaire et coordonnées dans une base
orthonormée.
Remarque III.14. Avec les mêmes notations, le vecteur n = ni=1 ai ei est un vecteur normal à H. Tout
P
élément non nul de H ⊥ = Vect(n) est également appelé vecteur normal.
F⊥
x = xF + xF ⊥
F⊥ xF ⊥
x = xF + xF ⊥
xF ⊥
F
xF = pF (x)
F
xF = pF (x)
Remarques III.16.
1. L’unicité du supplémentaire orthogonal permet de ne pas préciser les deux espaces supplémentaires
(comme on le ferait normalement pour un projecteur).
464 CHAPITRE 27. ESPACES PRÉHILBERTIENS
2. Étant donné un projecteur p ∈ L(E), c’est un projecteur orthogonal si, et seulement si, (Imp)⊥ =
Kerp.
Proposition III.17. Si F est un sous-espace vectoriel de dimension finie E préhilbertien, en notant (f1 , . . . , fn )
une base de F et pF la projection orthogonale sur F , on a :
n
X
∀x ∈ E, pF (x) = ⟨x, fi ⟩fi .
i=1
⊥
et
Pndonc, par unicité de l’écriture (comme F et F sont en somme directe), on a bien que pF (x) =
i=1 ⟨x, fi ⟩fi .
Si y ∈ F vérifie que x − y ∈ F ⊥ , alors :
donc y = pF (x).
Remarques III.18.
1. On a ainsi deux méthodes pour calculer un projeté orthogonal : ou bien on passe par une base
orthonormée, ou bien on utilise la caractérisation de la fin de la proposition. Et c’est souvent cette
seconde méthode qui est plus efficace, car la première demande de déterminer une base orthonormée
ce qui peut prendre du temps, et cela fait aussi apparaı̂tre des racines carrées, alors que la seconde
permet de faire des calculs dans une base quelconque.
2. On retrouve l’expression de l’algorithme de Gram–Schmidt. Si on reprend les notations de l’al-
gorithme, on a que, pour tout k ∈ J1; nK, la famille (x1 , . . . , xk ) est une base orthonormée de
Fk = Vect(e1 , . . . , ek ), et on a donc x∗k+1 = ek+1 − pk (ek+1 ), où pk est la projection orthogonale sur
Fk .
3. Pour le dernier résultat, on pouvait aussi constater que pour tout i ∈ J1; nK, on a : ⟨x − y, fi ⟩ = 0,
et donc ⟨x, fi ⟩ = ⟨y, fi ⟩ par linéarité à gauche. De sorte que, par expression des coordonnées en
base orthonormée :
X n n
X
y= ⟨y, fi ⟩fi = ⟨x, fi ⟩fi = pF (x).
i=1 i=1
⟨x, n⟩
∀x ∈ E, pH (x) = x − n.
∥n∥2
— par caractérisation d’un projecteur : on note p(id) = λcos + µsin. Et on a id − p(id) ∈ F ⊥ , ce qui
donne :
0 = ⟨id − pid, cos⟩ = ⟨id − λcos − µsin, cos, cos⟩ = ⟨id, cos⟩ − λ∥cos∥2 − µ⟨sin, cos⟩ = −λπ
0 = ⟨id − pid, sin⟩ = ⟨id − λcos − µsin, cos, sin⟩ = ⟨id, sin⟩ − λ⟨cos, sin⟩ − µ∥sin∥2 = −2π − µπ
et donc λ = 0 et µ = −2, ce qui donne p(id) = −2sin.
Remarques III.23.
1. Comme A est supposé non vide, alors d(x, A) est la borne inférieure d’une partie non vide minorée
de R+ , donc c’est un réel positif ou nul.
2. Si x ∈ A, on a d(x, A) = 0. Mais la réciproque est fausse pour des parties A quelconques. Par
exemple, si on se place sur R, alors pour tout x ∈ R on a d(x, Q) = 0 (par densité de Q dans R).
Démonstration.
F⊥
x
F⊥
x
∥x − pF (x)∥
F
∥x − pF (x)∥
pF (x)
F
y p(x) y
Soit y ∈ F . Alors :
x − y = (x − pF (x)) + (pF (x) − y)
| {z } | {z }
∈F ⊥ ∈F
ce qui donne bien que ∥x − y∥ ≥ ∥x − pF (x)∥, avec égalité si, et seulement si, ∥y − pF (x)∥ = 0, c’est-à-dire
y = pF (x).
Remarques III.25.
1. Une conséquence est que, dans le cadre du théorème, la distance n’est plus seulement une borne
inférieure : c’est un minimum.
2. On peut reformuler ce résultat en termes d’extrema : la fonction x 7→ d(x, y), définie sur F , atteint
un minimum global strict en F .
3. La dernière formule montre aussi comme alléger les calculs avec le théorème de Pythagore : il suffit
de calculer ∥x∥2 et ∥pF (x)∥2 (ce qui revient à prendre y = 0) et on trouve :
ce qui fait apparaı̂tre au passage que l’on a toujours ∥x∥ ≥ ∥pF (x)∥ pour un projecteur orthogonal
(c’est d’ailleurs une caractéristique des projecteurs orthogonaux).
Corollaire III.26. Considérons H un hyperplan d’un espace euclidien E, de vecteur normal n. Alors :
|⟨x, n⟩|
∀x ∈ E, d(x, H) = .
∥n∥
qui est bien défini comme toutes les intégrales ci-dessus sont positives.
III. ESPACES ORTHOGONAUX 467
R1
Considérons l’espace C([0, 1], R) muni du produit scalaire ⟨f, g⟩ = 0
f (t)g(t)dt. Alors on a :
Pour calculer cette√distance, on√passe la projection orthogonale sur F = R2 [X]. Comme on a déjà montré
que la famille (1, 3(2X − 1), 5(6X 2 − 6X + 1)) est une base orthonormée de R2 [X] pour ce produit
scalaire, on déduit que le projeté orthogonal de exp est :
D √ E √ D √ E √
pF (exp) = ⟨exp, 1⟩ · 1 + exp, 3(2X − 1) · 3(2X − 1) + exp, 5(6X − 6X + 1) · 5(6X 2 − 6X + 1)
2
R1
Pour calculer ces quantités, on calcule ak = 0 et tk dt pour k ∈ {0, 1, 2}. On a :
R1
— pour k = 0 : a0 = 0 et dt = e − 1 ;
R1 1 R1
— pour k = 1 : a1 = 0 tet dt = [tet ]0 − 0 et dt = e − a1 = 1 ;
R1 1 R1
— pour k = 2 : a2 = 0 t2 et dt = [t2 et ]0 − 2 0 tet = e − 2a1 = e − 2.
Par linéarité on déduit :
⟨exp, 1⟩ = a0 = e − 1
D √ E √ √
exp, 3(2X − 1) = 3(2a1 − a0 ) = 3(3 − e)
D √ E √ √
exp, 5(6X 2 − 6X + 1) = 5(6a2 6a1 + a0 ) = 5(7e − 19)
Et donc ∥pF (exp)∥2 = (e − 1)2 + 3(3 − e)2 + 5(7e − 19)2 = 249e2 − 1350e + 1833.
2
R 1 2t e2 − 1
Et comme ∥exp∥ = 0 e dt = , on déduit que :
2
−497e2 + 2700e − 3667
A= ≃ 3 · 10−5
2
et que A est un minimum, atteint pour a + bX + cX 2 = pF (exp), ce qui donne :
À titre de comparaison, si on avait voulu approcher exp par son développement de Taylor en 0, on aurait
eu : Z 1 2
t2 15e2 − 90e + 134
t
e −1−t− dt = ≃ 7 · 10−3
0 2 30
et avec le développement en 1 :
1 2
e(t − 1)2 −31e2 + 90e − 15
Z
t
e − e − e(t − 1) − dt = ≃ 2 · 10−2
0 2 30
et on trouverai une valeur environ de 2 · 10−4 avec un développement de Taylor en 1/2 (ce qui est à peu
près la meilleure valeur que l’on puisse faire avec un développement de Taylor).
468 CHAPITRE 27. ESPACES PRÉHILBERTIENS
Chapitre 28
Variables aléatoires
I Variables aléatoires
I.1 Variables aléatoires et événements
Définition I.1 (Variable aléatoire). Étant donné Ω l’univers d’une expérience aléatoire, et E un ensemble
quelconque, on appelle variable aléatoire sur Ω à valeurs dans E tout application X : Ω → E.
On parle de variable aléatoire réelle lorsque E ⊂ R.
Remarques I.2.
1. L’idée d’une variable aléatoire est de simplifier notre problème, en regroupant ensemble certaines
issues, qui joueraient le même rôle.
2. Comme au premier chapitre de probabilités, on ne considèrera que des ensembles Ω finis dans ce
chapitre. Et, quitte à restreindre X, on pourra alors toujours considérer E fini également.
3. On peut composer à gauche une variable aléatoire par une fonction quelconque, et avoir ainsi une
nouvelle variable aléatoire. Si X : Ω → E est une variable aléatoire, et f : E → F est une fonction
quelconque, alors f ◦ X, qu’on notera plus simplement f (X), est une variable aléatoire.
Exemples I.3.
1. Si on tire deux dés à 6 faces, on peut considérer la variable aléatoire X qui, à un tirage donné,
associe la somme des montants.
On passe alors de 36 tirages à seulement 11 sommes.
2. On peut considérer une urne, dans laquelle sont placées des boules blanches et noires, que l’on tire
n fois. Et on peut considérer la variable aléatoire qui, étant donnés une suite de tirages, associe
le rang du premier tirage où on a tiré une boule blanche, ou 0 comme image si on ne tire jamais
de boule blanche. Ainsi, si on note ai ∈ {B, N } la couleur de la boule au i-ème tirage, la variable
aléatoire considérée est définie par :
0 si ∀i ∈ J1; nK, ai = N
X : (a1 , . . . , an ) 7→
min {i ∈ J1; nK | ai = B} sinon
Remarque I.4.
Une variable aléatoire permet de passer d’un ensemble d’issues Ω à un ensemble E quelconque.
Inversement, étant donnée une variable aléatoire X à valeurs dans E et une partie A de E, on peut
considérer l’événement X −1 (A), qu’on notera plus simplement [X ∈ A] ou (X ∈ A). Si A = {a}, on
notera [X = a] au lieu de [X ∈ {a}], et dans le cas de variables aléatoires réelles, pour tous a, b ∈ R avec
a < b, on notera respectivement [X ≤ a], [X ≥ a], [a ≤ X ≤ b] au lieu de [X ∈] − ∞; a]], [X ∈ [a; +∞[] et
[X ∈ [a; b]] (et les notations idoines pour des inégalités strictes).
469
470 CHAPITRE 28. VARIABLES ALÉATOIRES
Proposition I.5. Si X : Ω → E est une variable aléatoire, alors {[X = a] | a ∈ E} est un système complet
d’événements, qu’on appelle système complet d’événements associé à X.
Démonstration. On utilise que E s’écrit comme l’union disjointe : E = ∪a∈E {a}.
Le caractère disjoint assure que les événements [X = a] sont deux à deux incompatibles. Et le fait que ce
soit un recouvrement assure que l’on a bien un recouvrement de Ω.
Exemple I.6. Pour un lancé de deux dés à 6 faces, la variable aléatoire X qui correspond à la somme des
montants des dés vérifie X(Ω) = J2; 12K, et on a :
. . . , [X = 10] = {(6, 4), (5, 5), (4, 6)}, [X = 11] = {(6, 5), (5, 6)}, [X = 12] = {(6, 6)}.
et cette dernière union est disjointe également. Et donc par définition de PX on déduit que :
Démonstration. Découle du résultat analogue pour les probabilités, qui donne la bijection entre probabilité
et distribution de probabilités.
Remarque I.11. On définit alors une relation d’équivalence sur les variables aléatoires, en notant X ∼ Y
si PX = PY . On dira alors que X et Y suivent (ou ont) la même loi.
I. VARIABLES ALÉATOIRES 471
Corollaire I.12. Si Ω est un ensemble fini muni de la probabilité uniforme P, et X : Ω → E est une variable
aléatoire, alors :
|X −1 (A)|
∀A ∈ P(E), PX (A) = .
|ω|
Exemple I.13. lancer de deux dés équilibrés à 6 faces
Proposition I.14. Si X, Y : Ω → E sont deux variables aléatoires de même loi, et f une fonction définie
sur E, alors f (X) et f (Y ) suivent la même loi.
Plus précisément, cette loi est donnée par :
X
∀A ∈ P (f (X(Ω))) , Pf (X) (A) = P(f (X) ∈ A) = P(X = x).
x∈X(Ω), f (x)∈A
Démonstration. immédiat
Démonstration. On applique la formule des probabilités totales aux systèmes complets d’événements
{[Y = y] | y ∈ Y (Ω)} et {[X = x] | x ∈ X(Ω)}.
Remarque II.6. Autrement dit, les lois marginales se déduisent de la loi conjointe. Mais la réciproque est
fausse : par exemple, si on lance deux dés équilibrés à 6 faces, et qu’on considère X la variable aléatoire
correspondant au montant du premier dé, et Y celle du second. Alors X et Y suivent la même loi, mais
les couples (X, X) et (X, Y ) ne suivent pas la même loi, puisque pour tous k, l ∈ J1; 6K on a :
1 δk,l
P(X = k, Y = l) = et P(X = k, X = l) =
36 6
Démonstration. Notons déjà que, si X et Y sont indépendants, en appliquant la définition aux singletons
{x} et {y} on a bien le résultat.
Réciproquement, si pour tout (x, y) ∈ X(Ω) × Y (Ω) on a P(X = x, Y = y) = P(X = x)P(Y = y). Soit
A ∈ P(X(Ω)) et B ∈ P(Y (Ω)). Alors par propriété des lois de variables aléatoires :
X X
P(X ∈ A) = P(X = x), P(Y ∈ B) = P(Y = y)
x∈A y∈B
X
P((X, Y ) ∈ A × B) = P([X ∈ A] ∩ [Y ∈ B]) = P([X = x] ∩ [Y = y])
(x,y)∈A×B
Remarques III.2.
1. Si Ω est fini, alors X(Ω) également, donc la somme ci-dessus a toujours un sens. On verra l’année
prochaine, pour les variables aléatoires discrète, que l’on peut étendre la définition à des ensembles
X(Ω) dénombrables, à condition que la famille (xP(X = x))x∈X(Ω) soit sommable.
2. L’espérance se comporte comme une somme, donc également comme une intégrale, et on verra
qu’elle possède des propriétés communes avec ces deux autres notions.
474 CHAPITRE 28. VARIABLES ALÉATOIRES
3. L’espérance correspond à la moyenne des valeurs prises par X, pondérées par les probabilités as-
sociées : c’est donc un indicateur sur les valeurs prises par X en moyenne. On dira notamment
qu’une variable aléatoire est centrée si son espérance est nulle.
Exemple III.4. Si A ⊂ Ω, la variable aléatoire 1A suit une loi de Bernoulli de paramètre P(A).
Proposition III.5. Si X est une variable aléatoire réelle ou complexe sur un espace probabilisé (Ω, P) fini,
alors : X
E(X) = X(ω)P({ω}).
ω∈Ω
Démonstration. Par sommation par paquets (cas de sommes finies), en notant que [X = x] = ∪ω∈Ω, X(ω)=x {ω}.
Proposition III.6 (Linéarité de l’espérance). Si X, Y sont deux variables aléatoires réelles ou complexes
sur Ω et λ, µ ∈ R (ou C), alors :
E [λX + µY ] = λE [X] + µE [Y ] .
En particulier, on a :
E(X) = E (Re(X)) + iE (Im(X)) .
Proposition III.8 (Positivité de l’espérance). Si X est une variable aléatoire à valeurs dans R+ , alors :
E(X) ≥ 0
Corollaire III.10 (Croissance de l’espérance). Si X et Y sont deux variables aléatoires telles que X ≤ Y ,
alors E(X) ≤ E(Y ).
|E(X)| ≤ E(|X|)
Proposition III.12 (Théorème de transfert). Si X est une variable aléatoire sur Ω et f : X(Ω) → R, alors :
X
E (f (X)) = f (x)P(X = x)
x∈X(Ω)
E(XY ) = E(X)E(Y ).
E(X)
P(X ≥ a) ≤
a
a si X ≥ a
Démonstration. On pose Y = a · 1[X≥a] = .
0 si X < a
On a donc Y ≤ X, et par croissance de l’espérance :
E(Y ) ≤ E(X)
III.2 Variance
Définition III.18 (Variance et écart type). Si X est une variable aléatoire réelle, on définit sa variance
comme :
V (X) = E (X − E(X))2
Proposition III.20 (Formule de Koenig–Huygens). Si X est une variable aléatoire réelle, alors :
Corollaire III.22. Si X est une variable aléatoire réelle qui n’est pas presque sûrement constante, alors la
X − E(X)
variable aléatoire Y = est bien définie, et est centrée réduite (E(Y ) = 0 et V (Y ) = 1).
σ(X)
Théorème III.24 (Inégalité de Bienaymé–Tchebychev). Si X est une variable aléatoire réelle, pour tout
a > 0 on a :
V (X)
P (|X − E(X)| ≥ a) ≤
a2
Démonstration. On applique Markov à Y = (X − E(X))2 , qui est bien positive, avec a2 , en notant que :
[|X − E(X)| ≥ a] = Y ≥ a2
pour a > 0.
Exemple III.25. Application type ”loi des grands nombres” : on tire une pièce (peut-être truquée) qui tombe
sur pile avec probabilité p. On lance n fois cette pièce, et on note le nombre de Pile obtenus. On veut savoir
à quel point le résultat obtenu est fiable.
N
Si on note N le nombre de Pile obtenus, et F = la fréquence associée, alors N ∼ B(n, p) (par
n
indépendance des lancers), donc E(N ) = np puis par linéarité E(F ) = p.
Par Bienaymé–Tchebychev, si on veut savoir à 0, 01 près la valeur de p, on utilise que :
Donc si on veut avoir moins d’une chance sur 10 de faire une erreur de plus de 0, 01 sur la valeur de p, il
suffit de lancer 25000 fois la pièce et de regarder la fréquence d’apparition de Pile.
III. ESPÉRANCE ET VARIANCE 477
III.3 Covariance
Définition III.26 (Covariance). Si X, Y sont deux variables aléatoires réelles, on définit la covariance de
X et Y comme :
Cov(X, Y ) = E (X − E(X)) E (Y − E(Y )) .
On dira que X et Y sont décorrélées si Cov(X, Y ) = 0.
Remarque III.29. Réciproque fausse. Contre exemple : X ∼ U({−1, 0, 1}) et Y = X 2 . On trouve que
cov(X, Y ) = 0, mais X = 0 ⇔ Y = 0 donc pas indépendantes.
Proposition III.30. L’application cov est une forme bilinéaire qui vérifie pour toutes variables aléatoires
X, Y :
1. cov(X, Y ) = cov(Y, X) (symétrie)
2. cov(X, X) = V (X) ≥ 0 (positivité)
Remarque III.31. Pas défini, donc pas un produit scalaire sur les va réelles. Mais c’en est un sur les va
centrées !
Remarque III.35. En prenant X1 , . . . , Xn indépendantes qui suivent une même loi de Bernoulli de para-
mètre p, on retrouve la variance d’une loi binomiale.
478 CHAPITRE 28. VARIABLES ALÉATOIRES
Chapitre 29
On considère ici l’espace R2 , muni de sa structure euclidienne par son produit scalaire canonique, et on
note ∥ · ∥ la norme associée.
A
Bo (A, r)
Bf (A, r) = {x ∈ R2 | ∥x − A∥ ≤ r}.
A
Bf (A, r)
Remarque I.2. La boule ouverte (resp. fermée) de centre A de rayon r joue dans R2 le même rôle que
l’intervalle ouvert ]a−r, a+r[ (resp. le segment [a−r, a+r]) dans R. Et lien entre les boules ouvertes/fermées
est le même que celui entre les intervalles ouverts/fermés : on retire on on rajoute le bord.
Définition I.3 (Voisinage). Soit x ∈ R2 et U ⊂ R2 . On dit que U est un voisinage de x s’il existe r > 0
tel que : Bo (x, r) ⊂ U .
479
480 CHAPITRE 29. FONCTIONS À DEUX VARIABLES
r
x U
Bo (x, r)
Remarques I.4.
1. Si U est un voisinage de x, alors nécessairement x ∈ U .
2. La réciproque est fausse : si x ∈ U , U est un voisinage de x à moins que x soit “au bord” de U .
Et c’est l’intérêt de travailler avec des boules (ouvertes ou fermées), puisqu’elle ont des éléments
partout autour de leur centre.
Définition I.5 (Ouverts). Un sous-ensemble U de R2 est un ouvert s’il est un voisinage de chacun de ses
points, c’est-à-dire s’il vérifie l’une des conditions équivalentes suivantes :
∀x ∈ U, ∃r > 0, Bo (x, r) ⊂ U
∀x ∈ U, ∃r > 0, ∥x − y∥ < r ⇒ y ∈ U
Remarque I.6. Que ce soit pour les voisinages ou les ouverts, on peut changer les boules ouvertes par des
boules fermées dans les définitions. Le point important étant que, si x ∈ R2 et r > 0, alors : Bf (x, r/2) ⊂
Bo (x, r).
Exemples I.7.
1. Les boules ouvertes sont des ouverts.
Soit A ∈ R2 et r> 0. Montrons que
la boule ouverte U = Bo (A, r) est un ouvert. Soit donc x ∈ U .
r − ∥x − A∥
Alors on a : Bo x, ⊂ U . En effet, on a pour tout y ∈ R2 :
2
r − ∥x − A∥ r − ∥x − A∥
y ∈ Bo x, ⇒ ∥y − x∥ <
2 2
r − ∥x − A∥
⇒ ∥y − A∥ ≤ ∥y − x∥ + ∥x − A∥ ≤ + ∥x − A∥ ≤
inégalité triangulaire 2
⇒ y∈U
I. FONCTIONS CONTINUES À DEUX VARIABLES 481
x A
Bo (A, r)
x
y ε A
Bf (A, r)
Proposition I.8.
1. Une union (quelconque) d’ouverts est un ouvert.
2. Une intersection d’un nombre fini d’ouverts est un ouvert.
Démonstration. à faire
482 CHAPITRE 29. FONCTIONS À DEUX VARIABLES
Remarque I.9. Le fait que les ouverts soient en nombre fini pour l’intersection est fondamental. Par
exemple on a :
∩n∈N∗ Bo (0, 1/n) = {0}
qui n’est pas un ouvert.
De plus, même si les ouverts sont inclus les uns dans les autres, une intersection infinie d’ouverts peut
être vide. Par exemple on a :
∩n∈N∗ Bo ((1/n, 0), 1/n) = ∅.
Définition I.10 (Fermés). Un sous-ensemble F ⊂ R2 est dit fermé si son complémentaire R2 \ F est un
ouvert.
Proposition I.11.
1. Une intersection quelconque de fermés est un fermé.
2. Une intersection d’un nombre fini de fermés est un fermé.
Démonstration. Comme pour les ouverts, ou comme corollaire en utilisant les règles de de Morgan.
x
A
Bf (A, r)
Remarques I.13.
1. On a exactement la même situation que sur R.
2. Comme dans R, il existe des ensembles qui ne sont ni ouverts, ni fermés. Par exemple, l’ensemble
R+ × R∗+ n’est ni ouvert, ni fermé.
À l’inverse, il existe des ensembles ouverts et fermés : il s’agit de ∅ et R2 , et ce sont les seuls.
Remarque I.15. En général, comme on le verra dans les exemples, les lignes de niveau sont des courbes,
mais ce n’est pas toujours le cas. Par exemple, si f est la fonction nulle sur R2 , alors Γ0 = {(x, y) | x, y ∈ R}
est le plan R2 .
Le cas général se comprend assez bien : on intersecte le graphe de f (qui se ressemble localement à un
plan) avec le plan d’équation z = λ, ce qui donne localement une intersection de deux plans distincts, donc
une droite. Et on garde la même structure en la projetant sur le plan d’équation z = 0, ce qui donne bien
une courbe.
Et c’est la méthode générale pour comprendre graphiquement les courbes de niveaux : la courbe Γλ est
la projection orthogonale (pour le produit scalaire canonique de R3 ) sur le plan d’équation z = 0 de
l’intersection du graphe de f avec le plan d’équation z = λ.
484 CHAPITRE 29. FONCTIONS À DEUX VARIABLES
Exemples I.16.
R2 → R
1. Le plan d’équation x+y +z = 0 est le graphe de la fonction : f : . La ligne de
(x, y) 7→ −x − y
niveau associée à la valeur 0 est : Γ0 = {(a, −a) | a ∈ R} = {(x, y) ∈ R2 | x + y = 0} (qui est même
une droite). Et plus généralement, pour tout λ ∈ R on a : Γλ = {(a − λ, −a) | a ∈ R} = {(x, y) ∈
R2 | x + y + λ = 0}. Donc les lignes de niveaux sont exactement les droites du plan de pente −1.
4 Γ1 3
f (x, y) = 2
3 z Γ2 2
2 f (x, y) = 1
y Γ3 1 y
1 f (x, y) = 0 x x
−4 −3 −2 −1 1 2 3 4
0 f (x, y) = −1
−1
−1 f (x, y) = −2
−4
−3 −2
−2 f (x, y) = −3 −2
−1
0
−3 1 −3
2
3
−4
−4 −3 −2 −1 0 1 2 3 4 4 −4
R2 → R
2. La fonction g : a pour graphe l’hyperboloı̈de de révolution d’axe (Oz) d’équa-
(x, y) 7→ x2 + y 2
tion : z = x2 + y 2 .
Pour tout λ ∈ R+ , la ligne de niveau associée est un cercle : Γλ = {(x, y) | x2 + y 2 = λ}. Et les
lignes de niveau sont même exactement les cercles de centre (0, 0), comme Img = R+ .
8
2
7
6
f (x, y) = 4 1 y
5
f (x, y) = 3
4 Γ4 Γ3 Γ2 Γ1 x
f (x, y) = 2
−2 −1 1 2
3
f (x, y) = 1
2 z
−1
1 y −2
−1
0
x 1
0
−2 −1 0 1 2 2 −2
Proposition I.17. L’ensemble des courbes de niveau non vides forme une partition de l’ensemble de défi-
nition de f .
Remarque I.18. La partition correspond à la relation d’équivalence sur Df définie par :
(x, y) ∼ (x′ , y ′ ) ⇔ f (x, y) = f (x′ , y ′ ).
Définition I.19 (Continuité d’une fonction à deux variables). Une fonction à deux variables f définie sur
un ensemble E est dite continue en a ∈ E si :
∀ε > 0, ∃η > 0, ∀(x, y) ∈ E, ∥(x − y) − a∥ ≤ η ⇒ |f (x, y) − f (a)| ≤ ε.
I. FONCTIONS CONTINUES À DEUX VARIABLES 485
Remarque I.20. Les inégalités qui apparaissent dans l’implication peuvent être remplacées par des inégalités
strictes sans changer la définition. Et on peut ainsi reformuler la définition avec des boules (ouvertes ou
fermées) :
∀ε > 0, ∃η > 0, f (Bo (a, η)) ⊂ Bo (f (a), ε)
où Bo (a, η) = {(x, y) ∈ R2 | ∥(x, y) − a∥ < η} (boule ouverte au sens de R2 ) et Bo (f (a), ε) = {x ∈
R | |x − f (a)| < ε} =]f (a) − ε; f (a) + ε[ (boule ouverte au sens de R).
Définition I.21. Une fonction à deux variable est dite continue si elle est continue en tout point de son
ensemble de définition.
Théorème I.22. Si f : U → R est une fonction à deux variables définie sur U ouvert de R2 , alors f est
continue si, et seulement si, l’image réciproque de tout ouvert (au sens de R) est un ouvert (au sens de
R2 ).
Remarque I.23. Que ce soit pour le théorème ou pour la définition, on retrouve une situation analogue à
celle sur R : l’image réciproque par une application continue d’un voisinage est un voisinage. Le point clé
de la démonstration du théorème est que l’on peut écrire un ouvert (de R comme de R2 ) comme une union
(éventuellement infinie) de boules ouvertes, et qu’une union (finie ou non) d’ouverts est un ouvert.
R2 → R
xy
(
f: si (x, y) ̸= (0, 0)
(x, y) 7→
x + y2
2
0 si (x, y) = (0, 0)
Remarque I.25. L’utilisation du passage en coordonnées polaires est souvent efficace pour étudier la conti-
nuité d’une fonction en (0, 0). Cela permet de se ramener à la recherche d’une limite pour ρ tendant vers
0, de manière indépendante du choix de θ.
Et on peut se ramener à cette situation dans le cas général : si on veut étudier la continuité en a ∈ R2 ,
on pose (x, y) = a + (ρcos(θ), ρsin(θ)).
Le point important est que l’on veut tendre vers a (ou vers (0, 0) si on reprend l’exemple précédent)
suivant toutes les directions. Et même avec des chemins tortueux (ce qui revient à faire varier θ), en
prenant seulement garde au fait que ρ tend vers 0.
Exemples I.26.
486 CHAPITRE 29. FONCTIONS À DEUX VARIABLES
1. Les fonctions constantes sont continues : on peut voir que, dans la définition, tout η convient, peu
importe la valeur de ε.
2
R → R
2. La norme ∥ · ∥ : est une application continue.
x 7→ ∥x∥
Par inégalité triangulaire, on a en effet pour tout x, a ∈ R2 et tout ε > 0 que :
∥x − a∥ ≤ ε ⇒ |∥x∥ − ∥a∥| ≤ ε.
∥a∥ + ε
∥a∥ − ε ε a
3. Les projections :
R2 → R R2 → R
et
(x, y) 7→ x (x, y) 7→ y
sont également continues.
Par exemple, pour la première, on a pour tous x, y, a, b ∈ R :
p p
∥(x, y) − (a, b)∥ = (x − a)2 + (y − b)2 ≥ (x − a)2 = |x − a|.
Et ainsi, pour tout ε > 0 :
∥(x, y) − (a, b)∥ ≤ ε ⇒ |x − a| ≤ ε.
Remarque I.27. Le dernier exemple s’inscrit dans un résultat plus général : toute application linéaire sur
un espace de dimension finie est continue.
Proposition I.28. La somme, le produit, le quotient, la composée et la combinaison linéaire d’applications
continues (à deux variables ou à variables réelles) sont continues dès lors qu’elles sont bien définies.
Démonstration. Se montre comme dans le cas réel.
Pn Pm
Corollaire I.29. Les fonctions polynomiales sur R2 , c’est-à-dire de la forme : (x, y) 7→ i=0 j=0 ai,j xi y j
pour n, m ∈ N et (ai,j ) famille de réels, sont continues sur R2 .
Démonstration. C’est directement une combinaison linéaire de produits itérés des applications (x, y) 7→ x
et (x, y) 7→ y.
Corollaire I.30. Si f, g sont des fonctions continues sur R (ou un sous-ensemble de R), alors les fonctions
(x, y) 7→ f (x) + g(y) et (x, y) 7→ f (x) · g(y) sont continues sur leur ensemble de définition.
Démonstration. Par continuité d’une composée, puis par continuité d’une somme ou d’un produit, en
composant f et g avec les applications (x, y) 7→ x et (x, y) 7→ y pour voir que (x, y) 7→ f (x) et (x, y) 7→ g(y)
sont continues (en tant que fonctions à deux variables).
II. DÉRIVÉES PARTIELLES 487
II Dérivées partielles
II.1 Fonctions partielles et dérivées partielles
Définition II.1 (Fonctions partielles). Si f : U → R pour U ⊂ R2 est une fonction à deux variables, et
(x0 , y0 ) ∈ U , on appelle première fonction partielle (resp. seconde fonction partielle) de f la fonction
x 7→ f (x, y0 ) (resp. la fonction y 7→ f (x0 , y).
Remarque II.2. En pratique, on travaillera avec des fonctions définies sur des ouverts. Si on reprend les
notations, et que l’on note r > 0 tel que Bo ((x0 , y0 ), r) ⊂ U , alors les fonction partielles de f sont définies
sur les intervalles ]x0 − r; x0 + r[ et ]y0 − r, y0 + r[), ce qui permet de faire une étude locale en x0 et en y0
(étude de dérivabilité par exemple). Il suffit en fait que U soit un voisinage de (x0 , y0 ).
Définition II.3 (Dérivées partielles). Avec les mêmes notations, et en supposant U ouvert, on dit que f
admet une dérivée partielle en (x0 , y0 ) suivant la première (resp. la seconde) variable si la première
(resp. la seconde) fonction partielle de f en y0 (resp. en x0 ) est dérivable en x0 (resp. en y0 ).
∂f ∂f
On note alors (x0 , y0 ) et (x0 , y0 ) les nombres dérivés ainsi obtenus, appelés dérivées partielles de f .
∂x ∂y
Remarque II.4. Les dérivées partielles d’une fonction à deux variables s’expriment comme dérivées de
fonctions à variable réelle, et donc comme limite de taux d’accroissement. On a concrètement :
R2 → R
xy
(
f: 2 + y2
si (x, y) ̸= (0, 0)
(x, y) →
7 x
0 si (x, y) = (0, 0)
φ : x 7→ f (x, 0) = 0 et ψ : y 7→ f (0, y) = 0
qui sont constantes, donc dérivables de dérivée nulle. Et ainsi f admet bien des dérivées partielles en 0,
et plus précisément :
∂f ∂f
(0, 0) = φ′ (0) = 0 et (0, 0) = ψ ′ (0) = 0.
∂x ∂y
Proposition II.6. La somme, le produit, le quotient, la composée et la combinaison linéaire d’applica-
tions admettant des dérivées (partielles pour les fonctions à deux variables, classique pour les fonctions à
variables réelles) admettent également des dérivées (au même sens) dès lors qu’elles sont bien définies.
Remarque II.7. Le calcul explicite de ces dérivées (partielles ou non) se fait en reprenant les définitions, et
en passant éventuellement par les fonctions partielles, ce qui ramène le calcul à des dérivées de fonctions à
variables réelles, donc on connaı̂t le comportement vis-à-vis des produits, quotients, combinaisons linéaires,
etc.
488 CHAPITRE 29. FONCTIONS À DEUX VARIABLES
Définition II.8 (Gradient). Si f : U → R, pour U ouvert de R2 , admet des dérivées partielles en (x0 , y0 ) ∈
U , on appelle gradient de f en (x0 , y0 ) le vecteur :
∂f ∂f
∇f (x0 , y0 ) = (x0 , y0 ), (x0 , y0 ) .
∂x ∂y
Remarque II.9. Le principal intérêt du gradient est de pouvoir manipuler simultanément les deux dérivées
partielles d’une fonction. Et la dérivation de combinaisons linéaires ou de produits s’énonce alors facile-
ment. Par exemple, si f, g sont deux fonctions à deux variables admettant des dérivées partielles (donc un
gradient) en (x0 , y0 ), et λ, µ ∈ R, alors :
∇(λf +µg)(x0 , y0 ) = λ∇f (x0 , y0 )+µ∇g(x0 , y0 ) et ∇(f ·g)(x0 , y0 ) = g(x0 , y0 )∇f (x0 , y0 )+f (x0 , y0 )∇g(x0 , y0 ).
Remarque II.11. Les dérivées partielles d’une fonction à deux variables sont également des fonctions à
deux variables : c’est donc dans ce sens qu’on entend la continuité.
Exemples II.13.
1. Si f, g sont deux fonctions (à variable réelle) C 1 sur R , alors les applications :
sont C 1 sur R2 .
On a en effet les dérivées partielles :
∂φ ∂φ ∂ψ ∂ψ
(x, y) = f ′ (x) (x, y) = g ′ (y) et (x, y) = g(y)f ′ (x) (x, y) = f (x)g ′ (y)
∂x ∂y ∂x ∂y
∂f ∂f
(x, y) = a et (x, y) = b
∂x ∂y
qui sont bien continues (en tant que fonctions constantes). Et on a même : ∇f (x, y) = (a, b).
3. Si f : (x, y) 7→ i,j ai,j xi y j est une fonction polynomiale, alors elle admet les dérivées partielles :
P
∂f X ∂f X
(x, y) = ai,j · i · xi−1 y j et (x, y) = ai,j · j · xi y j−1
∂x i≥1,j
∂y j≥1,i
qui sont continues (en tant que fonctions polynomiales), donc les fonctions polynomiales (sur R2 )
sont de classe C 1 .
II. DÉRIVÉES PARTIELLES 489
(x0 + h, y0 + k)
U
(x0 , y0 ) (x0 + h, y0 )
Remarques II.15.
1. Le fait de travailler sur un ouvert U fait que l’on peut légitimement étudier f (x, y) pour (x, y) proche
de (x0 , y0 ), c’est-à-dire pour (h, k) proche de (0, 0).
2. Si on reprend les mêmes notations, la formule de Taylor s’exprime à l’aide du gradient comme :
f ((x0 , y0 ) + (h, k)) = f (x0 , y0 ) + ⟨∇f (x0 , y0 ), (h, k)⟩ + o (∥(h, k)∥)
Remarque II.19. Du fait de la formule de Taylor, le plan tangent correspond à la meilleure approximation
du graphe de f (qui n’est autre que la surface d’équation z = f (x, y)) par un plan. Le terme de plan
“tangent” permet de faire l’analogie avec le cas réel : la dérivée d’une fonction permet d’exprimer sa
tangente, qui est la droite qui approxime le mieux sa courbe.
R2 → R
Exemple II.20. Considérons la fonction : f : , qui est de classe C 1 (en tant que
(x, y) 7→ x2 + y 2
fonction polynomiale). Alors pour tout (x, y) ∈ R2 on a : ∇f (x, y) = (2x, 2y).
Le plan tangent au point (x0 , y0 ) est donc le plan d’équation :
3
(x0 , y0 , z0 )
2
1 −2
−1
0
0 1
−2 −1 0 1 2 2
De même, elle a une seconde dérivée partielle si, et seulement si, elle a une dérivée suivant le vecteur
(0, 1).
Et on a même égalité entre dérivée partielle et dérivée directionnelle correspondante dans ces deux cas,
sous réserve d’existence.
Proposition III.4. Si f est de classe C 1 sur un ouvert U de R2 , alors elle admet des dérivées partielles
suivant tout vecteur en tout point. Plus précisément, la dérivée suivant le vecteur u = (u1 , u2 ) en (x0 , y0 )
est :
∂f ∂f
∂u f (x0 , y0 ) = ⟨∇f (x0 , y0 ), u⟩ = (x0 , y0 )u1 + (x0 , y0 )u2 .
∂x ∂y
Démonstration. Par formule de Taylor.
Remarque III.5. Le terme de dérivée directionnel est un peu trompeur, puisque ce n’est pas seulement
la direction de u qui importe, mais aussi son sens et sa norme. Plus précisément, si u ∈ R2 et λ ∈ R,
avec f qui admet une dérivée directionnelle suivant le vecteur u en (x0 , y0 ), alors elle admet une dérivée
directionnelle suivant le vecteur λu, et on a :
∀t ∈ R, F ′ (t) = ⟨∇f (x(t), y(t)), (x′ (t), y ′ (t))⟩ = −2r2 cos(t)sin(t) + 2r2 cos(t)sin(t) = 0
Corollaire III.9. Si γ : I → U est une courbe paramétrée de classe C 1 , et f : U → R est une fonction à
deux variables de classe C 1 , alors f ◦ γ est de classe C 1 sur I, avec :
∀t ∈ I, (f ◦ γ)′ (t) = ⟨∇f (γ(t)), γ ′ (t)⟩ .
Remarque III.10. Ce n’est qu’une reformulation du résultat précédent, mais cela permet de retrouver
sensiblement la même formule que la dérivée d’une composée (pour les fonctions réelles), à la différence
près que le produit usuel de R a été remplacé par le produit scalaire.
Corollaire III.11. Les gradients sont orthogonaux aux lignes de niveaux.
Démonstration. Considérons f : U → R de classe C 1 , pour U ouvert de R2 , Γλ une ligne de niveau de f ,
et γ : I → U de classe C 1 telle que : ∀t ∈ I, γ(t) ∈ Γλ .
Alors l’application F = f ◦ γ est constante, de valeur λ. Donc sa dérivée est nulle, ce qui donne que :
⟨∇f (γ(t)), γ ′ (t)⟩ = 0, donc ∇f (γ(t)) et γ ′ (t) sont bien orthogonaux pour tout t.
Le premier vecteur est directement le gradient, tandis que le second est tangent à la courbe γ. Ce qui
donne bien le résultat.
Remarque III.12. Plus généralement, les valeurs prises par f grandissent d’autant plus vite sur une courbe
que celle-ci va dans le même sens que le gradient.
Exemple III.13. Reprenons la fonction f : (x, y) 7→ x2 + y 2 et les notations de l’exemple précédent.
Suivant la paramétrisation utilisée, le vecteur tangent à Γr2 en (x0 , y0 ) est le vecteur (−y0 , x0 ), qui est bien
orthogonal au gradient à f en (x0 , y0 ) puisque l’on a : ∇f (x0 , y0 ) = (2x0 , 2y0 ).
(x0 , y0 )
Γr1 , r1 < r2
Γr2
Γr3 , r3 > r2
Corollaire III.14. Soient f, φ, ψ des fonctions à deux variables de classe C 1 , telles que : g : (u, v) 7→
f (φ(u, v), ψ(u, v)) est bien définie. Alors g est de classe C 1 , avec :
∂g ∂f ∂φ ∂f ∂ψ
(u, v) = (φ(u, v), ψ(u, v)) (u, v) + (φ(u, v), ψ(u, v)) (u, v)
∂x ∂x ∂x ∂y ∂x
∂g ∂f ∂φ ∂f ∂ψ
(u, v) = (φ(u, v), ψ(u, v)) (u, v) + (φ(u, v), ψ(u, v)) (u, v)
∂y ∂x ∂y ∂y ∂y
Démonstration. On applique le résultat précédent avec x : t 7→ φ(u + t, v) et ψ : t 7→ ψ(u + t, v) pour
avec la première dérivée partielle, et avec x : t 7→ φ(u, v + t) et ψ : t 7→ ψ(u, v + t) pour la seconde, ce qui
donne bien les expressions des dérivées partielles de g, qui sont bien C 1 comme on reconnaı̂t des sommes,
produits ou composées de fonctions continues.
III. MANIPULATION DE FONCTIONS DE CLASSE C 1 493
Remarques III.15.
∂g
1. Il faut bien prendre garde au fait que la dérivée partielle veut dire que l’on dérive par rapport
∂x
à la première variable de g. Avec les notations de l’énoncé, cela revient à dériver l’expression
∂g
f (φ(u, v), ψ(u, v)) par rapport à u. Et pour éviter les confusions, on pourra parfois écrire au
∂u
∂g
lieu de .
∂x
2. Comme les calculs de dérivées de composées dans le cas réel, l’intérêt est de simplifier un problème
différentiel (d’équation différentiel ou de calcul d’intégrale) par un changement de variable adapté.
∀(r, θ) ∈ R∗+ ×]0; π[, (φ(r, θ), ψ(r, θ)) = (rcos(θ), rsin(θ))
Alors g est de classe C 1 sur R∗+ ×]0; π[ et pour tout (r, θ) ∈ R∗+ ×]0; π[ on a :
∂g ∂f ∂φ ∂f ∂ψ
(r, θ) = (rcos(θ), rsin(θ)) (r, θ) + (rcos(θ), rsin(θ)) (r, θ)
∂r ∂x ∂r ∂y ∂r
∂f ∂f
= (rcos(θ), rsin(θ))cos(θ) + (rcos(θ), rsin(θ))sin(θ)
∂x ∂y
∂g ∂f ∂φ ∂f ∂ψ
(r, θ) = (rcos(θ), rsin(θ)) (r, θ) + (rcos(θ), rsin(θ)) (r, θ)
∂θ ∂x ∂θ ∂y ∂θ
∂f ∂f
= (rcos(θ), rsin(θ)) · (−rsin(θ)) + (rcos(θ), rsin(θ)) · (rcos(θ))
∂x ∂y
Utilisons la fonction g = f ◦ (φ, ψ) pour trouver toutes les fonctions f de classe C 1 de R × R∗+ dans R2
telles que :
∂f ∂f p
∀(x, y) ∈ R × R∗+ , x (x, y) + y (x, y) = x2 + y 2 .
∂x ∂y
Considérons f une fonction de classe C 1 . Alors elle vérifie l’équation précédente si, et seulement si, la
fonction g construite ci-dessus vérifie :
∂g ∂f ∂f p
∀(r, θ) ∈ R∗+ ×]0; π[, r = rcos(θ) (rcos(θ), rsin(θ)) + rsin(θ) (rcos(θ), rsin(θ)) = x2 + y 2
∂r | {z } ∂x | {z } ∂x | {z }
=x =y =r
∀r ∈ R∗+ , g(r, θ) = r + λθ .
Et donc les fonctions g correspondant aux solutions sont exactement les fonctions de la forme :
∗
R+ ×]0; π[ → R
g:
(r, θ) 7→ r + h(θ)
494 CHAPITRE 29. FONCTIONS À DEUX VARIABLES
Remarque III.17. On a ici restreint les ensembles d’étude de sorte que l’application (φ, ψ) réalise une
bijection de R∗+ ×]0; π[ dans R × R∗+ : ceci n’est pas obligatoire, comme pour les changements de variables,
mais permet plus facilement de travailler dans les deux sens (passer de f à g et inversement). Sinon, il
faudrait procéder par analyse–synthèse.
III.3 Extrema
Définition III.18 (Extrema). Si f est définie sur un sous-ensemble A de R2 , à valeurs dans R, et a ∈ A,
on dit que :
1. f possède un maximum (global) en a si :
∀x ∈ A, f (x) ≤ f (a)
Définition III.19 (Point critique). Si f est une fonction de classe C 1 sur un ouvert U de R2 , et a ∈ U , on
dit que f possède un point critique en a si : ∇f (a) = 0, c’est-à-dire si :
∂f ∂f
(a) = (a) = 0.
∂x ∂y
Théorème III.20. Si f est définie sur un ouvert U de R2 et a ∈ U , tels que f possède un extremum en a
et que f est C 1 sur un voisinage de a, alors f admet un point critique en a.
Démonstration. Il suffit d’utiliser le résultat correspondant pour les fonctions à variable réelle, qu’on
applique aux fonctions partielles de f , qui sont bien C 1 sur un voisinage de a et qui possèdent également
un extremum en a.
Remarques III.21.
1. Comme sur R, le fait d’avoir un point critique est une condition nécessaire mais non suffisante pour
avoir un extremum. De plus, la nature de cet éventuel extremum nécessite de faire une étude plus
poussée de f (par développement limités par exemple pour avoir un extremum local, ou par des jeux
de réécriture pour un extremum global). Et du fait de l’équation du plan tangent, un point critique
correspond à un point sur le graphe en lequel le plan tangent horizontal.
III. MANIPULATION DE FONCTIONS DE CLASSE C 1 495
2. Le fait d’être C 1 et de travailler sur un ouvert est fondamental. Ainsi, pour étudier les extrema
d’une fonction qui ne serait pas C 1 partout, et qui ne serait pas définit sur un ouvert, ou étudiera
d’un côté les points en lesquels f n’est pas C 1 , et les points au bord (qui peuvent être des extrema
sans être des points critiques), et dans un second temps les points critiques (qui sont les seuls lieux
possibles d’existence d’extrema).
Exemples III.22.
R2 → R
1. Considérons f : . Alors f est C 1 sur R2 , qui est un ouvert : tous les extrema
(x, y) 7→ x2 + y 2
de f sont des points critiques.
Mais pour (a, b) ∈ R2 , on a :
donc (0, 0) est le seul point critique de f , et donc le seul extremum possible.
Mais f (0, 0) = 0, qui est un minimum global strict car :
∂f ∂f
∀(x, y) ∈ R2 , = 8x − 4y − 6 et = −4x + 2y + 2.
∂x ∂y
et donc f n’admet pas de point critique, comme le dernier système n’a pas de solution.
Donc f ne possède pas d’extremum, peu importe sa nature.
R2 → R
3. Soit f : . Alors f est C 1 sur l’ouvert R2 (en tant que fonction poly-
(x, y) 7→ x2 (1 + y)3 + y 2
nomiale), donc tous ses extrema sont des points critiques. Et on a :
∂f ∂f
∀(x, y) ∈ R2 , = 2(1 + y)3 x et = 3x2 (1 + y)2 + 2y.
∂x ∂y
Pour étudier sa nature en tant qu’extremum éventuel, étudions f (x, y) pour (x, y) ∈ R2 tendant
vers (0, 0). Pour un tel (x, y), on a :
f (x, y) = x2 (1 + 3y + 3y 2 + y 3 ) + y 2
= x2 + y 2 +3x2 y + 3y 2 x2 + x2 y 3 .
2 2 2 2 3
3x y + 3y x + x y
= (x2 + y 2 ) 1 +
x2 + y 2
x2 + y 2
Mais on a aussi par inégalité classique : |xy| ≤ . Et donc par inégalité triangulaire on déduit
2
que : 2
3x y + 3y 2 x2 + x2 y 3 3
≤ |x| + 3 |xy| + 1 |xy 2 | → 0
2
x +y 2 2 2 2 (x,y)→(0,0)
2
3x y + 3y 2 x2 + x2 y 3 1
et donc, pour ε suffisamment petit, on a : ≤ .
x2 + y 2 2
Et finalement, pour un tel ε on a :
x2 + y 2
∀(x, y) ∈ Bo ((0, 0), ε), f (x, y) − f (0, 0) = f (x, y) ≥ ≥0
2
avec égalité si, et seulement si : x = y = 0. On a donc un minimum local strict en (0, 0), et c’est
le seul extremum de f sur R2 .
Ce n’est pas un minimum global, car f n’est pas minorée. On a par exemple pour tout y ∈ R :
f (1, y) = (1 + y)3 + y 2 ∼ y3
y→±∞
et donc :
lim f (1, y) = +∞ et lim f (1, y) = −∞.
y→+∞ y→−∞
Théorème III.23 (des bornes atteintes). Si F est un ensemble fermé et borné de R2 , alors toute fonction
continue sur F admet un maximum et un minimum sur F .
Remarque III.24. L’intérêt est qu’un tel théorème assure l’existence des extrema, et aide donc à la re-
cherche.
Exemple III.25. Étudions la fonction f : (x, y) 7→ x + y sur F = Bf ((0, 0), r) (pour r ∈ R+ fixé). On a
déjà que f est C 1 sur F (et en particulier continue), donc par théorème des bornes atteintes elle atteint
son maximum et son minimum en des points de F .
De tels points, s’ils n’étaient pas au bord de F , serait donc sur l’ensemble U = Bo ((0, 0), r), qui est un
ouvert, et seraient donc aussi des points en lesquels f |U atteint un extremum : ce serait donc des points
critiques. Mais on a directement que, pour tout (x, y) ∈ F : ∇f (x, y) = (1, 1) ̸= 0, donc f n’a pas de points
critique.
Ces points sont donc nécessairement au bord, c’est-à-dire sur l’ensemble Cr = {(x, y) | x2 + y 2 = r2 } =
{(rcos(t), rsin(t)) | t ∈ R}.
Pour trouver ces points, il suffit d’étudier les extrema de la fonction (à variable réelle) :
R → R
φ:
t 7→ f (rcos(t), rsin(t))
qui est une fonction C 1 (comme composée de fonctions C 1 ), et donc ses extrema correspondent à des points
critiques (au sens des fonctions à variable réelle).
On a pour tout t ∈ R :
φ(t) = rcos(t) + rsin(t)
III. MANIPULATION DE FONCTIONS DE CLASSE C 1 497