Mon Cours Sup
Mon Cours Sup
Mon Cours Sup
david Delaunay
26 août 2013
c b n a : Paternité + Pas d’Utilisation Commerciale + Partage dans les mêmes conditions :
Le titulaire des droits autorise l’exploitation de l’œuvre originale à des fins non commerciales, ainsi que
la création d’œuvres dérivées, à condition qu’elles soient distribuées sous une licence identique à celle
qui régit l’œuvre originale.
http://mp.cpgedupuydelome.fr 2 cbna
Première partie
Algèbre
3
Chapitre 1
Eléments de mathématiques
Exemple {a, b, ..., s} désigne l’ensemble constitué des éléments a, b, ..., s et uniquement cela.
Exemple {2k/k ∈ Z} désigne l’ensemble des éléments de la forme 2k avec k décrivant Z, à savoir les
nombres pairs.
Définition
Deux ensembles E et F sont dits égaux s’ils sont constitués des mêmes éléments. On note
alors E = F .
Définition
On appelle ensemble vide l’ensemble constitué d’aucun élément, on le note ∅.
Remarque La notation {} est caduque. La notation {∅} ne désigne par l’ensemble vide mais un
ensemble constitué d’un élément qui est l’ensemble vide.
5
1.1. LES OBJETS
Définition
Etant donnés deux ensembles E et F , on appelle intersection de E et F l’ensemble E ∩ F
formés des éléments communs à E et F .
Définition
Etant donnés deux ensembles E et F , on appelle union de E et F l’ensemble E ∪ F formés
des éléments de l’un et de l’autre ensemble.
1.1.2 Inclusion
E désigne un ensemble.
Définition
Un ensemble F est dit inclus dans E si tous les éléments de F sont aussi éléments de E. On
note alors F ⊂ E.
Définition
On appelle partie (ou sous-ensemble) de E, tout ensemble F dont les éléments sont tous
éléments de E c’est-à-dire tout ensemble inclus dans F .
Définition
On appelle ensemble des parties de E l’ensemble, noté P(E), formé des sous-ensembles de E.
Définition
A partir de deux éléments a et b, on forme un nouvel élément appelé couple (a, b) défini de
sorte que :
(a, b) = (a0 , b0 ) ⇔ a = a0 et b = b0
Définition
On appelle produit cartésien de E par F l’ensemble formé des couples (a, b) avec a dans E et
b dans F . On le note E × F .
http://mp.cpgedupuydelome.fr 6 cbna
CHAPITRE 1. ELÉMENTS DE MATHÉMATIQUES
1.1.3.2 Multiplet
Définition
A partir d’éléments a1 , ..., an (avec n ∈ N? ), on forme le n uplet (a1 , ..., an ) défini de sorte
que :
(a1 , . . . , an ) = (a01 , . . . , a0n ) ⇔ ∀i ∈ {1, . . . , n} , ai = a0i
Définition
On appelle produit cartésien des ensembles E1 , ..., En (avec n ∈ N? ) l’ensemble formé des n
uplets (a1 , ..., an ) avec pour tout i ∈ {1, 2, . . . , n}, ai ∈ Ei .
Yn
On le note E1 × · · · × En ou encore Ei .
i=1
http://mp.cpgedupuydelome.fr 7 cbna
1.1. LES OBJETS
Remarque Pour définir une application f : E → F il suffit de préciser comment à chaque élément x de
E est associé son image f (x) dans F .
C’est(le principe des notations :
E→F
-f : ;
x 7→ ...
- f : E → F définie par f (x) = . . . ;
- f : x 7→ . . . définie sur E et à valeurs dans F .
R → R
Exemple ex est une application.
x 7→
x2 + 1
R→R
(
Exemple x si x > 0 est une application.
x 7→
−x sinon
(
N→Z
Exemple est une application.
n 7→ n2 − n + 1
(
R2 → R
Exemple est une application.
(x, y) 7→ x + y
(
F(R, R) → R
Exemple est une application.
f 7→ f (0)
http://mp.cpgedupuydelome.fr 8 cbna
CHAPITRE 1. ELÉMENTS DE MATHÉMATIQUES
Remarque Lorsque la valeur de vérité d’une assertion P dépend des valeurs prises par un paramètre x
(resp. par plusieurs paramètres x, y, . . . ) on note souvent celle-ci P(x) (resp. P(x, y, . . .) ) pour le
souligner.
On parle parfois de prédicat plutôt que d’assertion.
Exemple P(x) = « x > 0 »est une assertion dépendant d’un paramètre x réel.
Q(x) = « x + y = z »est une assertion dépendant de x, y, z réels.
P(2) et Q(1, 2, 3) sont vraies.
Définition
Deux assertions P et Q ayant mêmes valeurs de vérité sont dites équivalentes et on note P ∼
Q.
Exemple « x > 0 »∼ « −x 6 0 »
Définition
Soit P(x) une assertion dépendant d’un paramètre x élément de E.
On note {x ∈ E tel que P(x)} ou {x ∈ E/P(x)} la partie de E formée des éléments x
qui rendent l’assertion P(x) vraie. On dit que l’ensemble est défini en compréhension par
opposition avec un ensemble dont on liste les éléments qui est dit défini en extension.
Remarque Résoudre une équation consiste à décrire un ensemble défini en compréhension (i.e. défini
par l’équation étudiée) en un ensemble défini par la description de ses éléments.
http://mp.cpgedupuydelome.fr 9 cbna
1.2. NOTIONS DE LOGIQUE
1.2.2 Négation
Soit P une assertion.
Définition
On appelle négation de P, l’assertion notée non(P) définie comme étant vraie lorsque P est
fausse et inversement.
On peut aussi dire que l’assertion non(P) est définie par la table de vérité :
P non(P)
V F
F V
Proposition
non(non(P)) ∼ P.
dém. :
P non(P) non(non(P))
V F V
F V F
P Q P et Q P ou Q
V V V V
V F F V
F V F V
F F F F
Exemple « 0 6 x 6 1 »∼ « x > 0 et x 6 1 »
« x > 0 ou x 6 0 »est une assertion vraie pour tout x réel.
http://mp.cpgedupuydelome.fr 10 cbna
CHAPITRE 1. ELÉMENTS DE MATHÉMATIQUES
Proposition
non(P et Q) ∼ non(P) ou non(Q).
non(P ou Q) ∼ non(P) et non(Q).
dém. :
Ces propriétés s’obtiennent par étude de tables de vérité.
Proposition
P et P ∼ P, P ou P ∼ P.
P et Q ∼ Q et P, P ou Q ∼ Q ou P,
(P et Q) et R ∼ P et (Q et R) (que l’on note alors P et Q et R ),
(P ou Q) ou R ∼ P ou (Q ou R) (que l’on note alors P ou Q ou R ),
P et (Q ou R) ∼ (P et Q) ou (P et R),
P ou (Q et R) ∼ (P ou Q) et (P ou R).
dém. :
Ces propriétés s’obtiennent par étude de tables de vérité.
1.2.4 Implications
Soient P et Q deux assertions.
Définition
On définit l’assertion P ⇒ Q comme étant vraie si Q ne peut pas être fausse quand P est
vraie.
En français l’implication est traduite pas les expressions : « si... alors », « donc », « par
suite »etc.
Plus précisément, la valeur de vérité de l’assertion P ⇒ Q est donnée par :
P Q P⇒Q
V V V
V F F
F V V
F F V
http://mp.cpgedupuydelome.fr 11 cbna
1.2. NOTIONS DE LOGIQUE
Définition
Lorsque P ⇒ Q est vraie on dit que :
- P est une condition suffisante (CS) pour Q ;
- Q est une condition nécessaire (CN) pour P.
Définition
Q ⇒ P est appelée implication réciproque de P ⇒ Q.
Proposition
(P ⇒ Q) ∼ non(P) ou Q.
dém. :
P Q P ⇒ Q non(P) non(P) ou Q
V V V F V
V F F F F
F V V V V
F F V V V
Proposition
P ⇒ Q ∼ non(Q) ⇒ non(P)
dém. :
non(Q) ⇒ non(P) ∼ Q ou non(P) ∼ P ⇒ Q.
Définition
non(Q) ⇒ non(P) est appelée contraposée de l’implication P ⇒ Q.
Proposition
non(P ⇒ Q) ∼ P et non(Q).
dém. :
Par négation de non(P) ou Q.
( !)non(P ⇒ Q) n’a pas la sens de P ⇒ non(Q)
Par passage à la négation le symbole d’implication disparaît.
Exemple x > 0 ⇒ x2 > 1 et x > 0 ⇒ x2 < 1 sont des implications toutes deux fausses.
http://mp.cpgedupuydelome.fr 12 cbna
CHAPITRE 1. ELÉMENTS DE MATHÉMATIQUES
1.2.5 Equivalence
Soient P et Q deux assertions.
Définition
On note P ⇔ Q l’assertion P ⇒ Q et Q ⇒ P.
En français l’équivalence se traduit par les expressions : « si, et seulement si »(ssi), « il faut
et il suffit »,...
La table de vérité de P ⇔ Q est donnée par :
Remarque Lorsque P ⇔ Q est vraie, on peut dire que P et Q ont mêmes valeurs de vérité et donc
P∼Q
Définition
Lorsque P ⇔ Q est vraie, on dit que P et Q sont équivalentes et que P est un condition
nécessaire et suffisante (CNS) pour Q.
Proposition
P ⇔ Q ∼ non(P) ⇔ non(Q).
( !)Ne pas écrire d’équivalences abusives !
Chaque équivalence correspond à deux implications et nécessite donc une double réflexion !
1.2.6 Quantificateurs
Soit P(x) une assertion dépendant d’un élément x ∈ E.
Définition
On définit l’assertion
∀x ∈ E, P(x)
comme étant vraie lorsque P(x) est vraie pour tout x dans E.
Cette assertion se lit : « Quel que soit x dans E on a P(x) »
http://mp.cpgedupuydelome.fr 13 cbna
1.2. NOTIONS DE LOGIQUE
la lettre x à un rôle muet i.e. qu’elle peut être remplacée par n’importe quelle autre lettre.
Définition
On définit l’assertion
∃x ∈ E, P(x)
comme étant vraie lorsque P(x) est vraie pour au moins un x dans E.
Cette assertion se lit : « Il existe x dans E tel que P(x) ».
Définition
On définit l’assertion
∃!x ∈ E, P(x)
comme étant vraie lorsque P(x) est vraie pour un et un seul élément x dans E.
Cette assertion se lit : « Il existe un unique x dans E tel que P(x) ».
http://mp.cpgedupuydelome.fr 14 cbna
CHAPITRE 1. ELÉMENTS DE MATHÉMATIQUES
Proposition
non(∀x ∈ E, P(x)) ∼ ∃x ∈ E, non(P(x)),
non(∃x ∈ E, P(x)) ∼ ∀x ∈ E, non(P(x)).
dém. :
C’est du bon sens !
Convention :
Toute assertion commençant par : ∃x ∈ ∅ est fausse.
Par négation : toute assertion commençant ∀x ∈ ∅ est vraie.
http://mp.cpgedupuydelome.fr 15 cbna
1.3. RAISONNEMENTS
1.3 Raisonnements
Une assertion vraie est appelée énoncé, proposition ou théorème.
La véracité d’une assertion se justifie par une démonstration.
Certaines assertions sont postulées vraies sans démonstration, ce sont les axiomes.
1.3.1 Démonstration d’une assertion
Pour démontrer la véracité d’une assertion P on peut procéder de trois manières :
(1) Montrer que P découle de résultats antérieurs i.e. déterminer un énoncé Q tel que Q ⇒ P soit vraie.
Exemple Montrons
∀x ∈ R, x2 + 1 > 0
Soit x ∈ R.
On sait que x2 > 0 et 1 > 0.
Or
a > 0 et b > 0 ⇒ a + b > 0
donc x2 + 1 > 0.
(2) Opérer par disjonction de cas i.e. déterminer un énoncé Q tel que Q ⇒ P et non(Q) ⇒ P soient
vraies.
n(n + 1)
= k(2k + 1) ∈ N
2
n(n + 1)
= (2k + 1)(k + 1) ∈ N
2
n(n + 1)
Dans les deux cas ∈ N.
2
(3) Raisonner par l’absurde i.e. montrer que non(P) implique un résultat faux.
Exemple Montrons qu’il n’existe pas d’entier naturel supérieur à tout autre.
Par l’absurde : Supposons qu’il existe N ∈ N tel que ∀n ∈ N, n 6 N .
Pour n = N + 1 ∈ N, on a N + 1 6 N donc 1 6 0. Absurde.
http://mp.cpgedupuydelome.fr 16 cbna
CHAPITRE 1. ELÉMENTS DE MATHÉMATIQUES
x2 = y 2 ⇒ |x| = |y|
Supposons x2 = y 2 .
On a x2 − y 2 = (x − y)(x + y) = 0 donc x − y = 0 ou x + y = 0.
Par suite x = y ou x = −y et donc |x| = |y|.
Exemple Montrons
x∈
/ Q⇒1+x∈
/Q
Par contraposée, montrons : 1 + x ∈ Q ⇒ x ∈ Q.
Supposons 1 + x ∈ Q. Puisque x = (1 + x) − 1, on a x ∈ Q.
Exemple Montrons
n(n + 1)
∀n ∈ N? , 1 + 2 + · · · + n =
2
Procédons par récurrence sur n ∈ N? .
1(1 + 1)
Pour n = 1 : 1 = .
2
Supposons la propriété vraie au rang n > 1.
1 + 2 + · · · + (n + 1) = (1 + 2 + · · · + n) + (n + 1)
n(n + 1) (n + 1)(n + 2)
1 + 2 + · · · + (n + 1) = + (n + 1) =
2 2
Récurrence établie.
http://mp.cpgedupuydelome.fr 17 cbna
1.3. RAISONNEMENTS
Exemple Montrons
∀n ∈ N, 2n > n
Procédons par récurrence sur n ∈ N.
Pour n = 0 : 20 = 1 > 0.
Pour n = 1 : 21 = 2 > 1.
Supposons la propriété établie au rang n > 1.
2n+1 = 2 × 2n
car n > 1.
Récurrence établie.
Noter qu’ici la récurrence est amorcée à partir du rang n0 = 1 et l’étude de P(0) peut être considérées
comme à part.
http://mp.cpgedupuydelome.fr 18 cbna
Chapitre 2
Les ensembles ont déjà été brièvement présentés, dans ce chapitre on reprend l’étude de ceux-ci de
manière plus approfondie.
E, F, G, H désignent des ensembles.
2.1 Ensembles
2.1.1 Inclusion
Définition
On dit que E est inclus dans F , et on note E ⊂ F , si tout élément de E est aussi élément de F .
Ainsi
E ⊂ F ⇔ ∀x ∈ E, x ∈ F
Exemple ∅ ⊂ E, E ⊂ E
Remarque
E 6⊂ F ⇔ ∃x ∈ E, x ∈
/F
Proposition
E = F ⇔ E ⊂ F et F ⊂ E
dém. :
Si E = F alors il est immédiat que E est inclus dans F et F inclus dans E.
Inversement, si E ⊂ F et F ⊂ E alors E et F sont formés des mêmes éléments ce qui permet d’affirmer
E = F.
Proposition
E ⊂ F et F ⊂ G ⇒ E ⊂ G,
19
2.1. ENSEMBLES
Définition
On appelle union de A et B l’ensemble noté A ∪ B formé des éléments de E qui appartiennent
à A ou à B. Ainsi
A ∪ B = {x ∈ E/x ∈ A ou x ∈ B}
Définition
On appelle intersection de A et B l’ensemble noté A ∩ B formé des éléments de E qui
appartiennent
à A et à B. Ainsi
A ∩ B = {x ∈ E/x ∈ A et x ∈ B}
A ⊂ A ∪ B, B ⊂ A ∪ B et A ∩ B ⊂ A, A ∩ B ⊂ B
Proposition
A ∪ A = A, A ∩ A = A,
A ∪ E = E, A ∩ E = A,
A ∪ ∅ = A, A ∩ ∅ = ∅,
A ∪ B = B ∪ A, A ∩ B = B ∩ A,
A ∪ (B ∪ C) = (A ∪ B) ∪ C noté A ∪ B ∪ C,
A ∩ (B ∩ C) = (A ∩ B) ∩ C noté A ∩ B ∩ C,
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) et A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C).
http://mp.cpgedupuydelome.fr 20 cbna
CHAPITRE 2. THÉORIE DES ENSEMBLES
dém. :
On établit, en raisonnant par équivalence, qu’un élément de E appartient à la partie du premier membre
si, et seulement si, il appartient à la partie du second membre.
par équivalence.
Proposition
Si A ⊂ C et B ⊂ C alors A ∪ B ⊂ C.
Si C ⊂ A et C ⊂ B alors C ⊂ A ∩ B.
2.1.3.2 Complémentaire
Définition
On appelle complémentaire d’une partie A de E l’ensemble noté CE A formé des éléments de
E qui ne sont pas dans A. Ainsi
CE A = {x ∈ E/x ∈
/ A}
Remarque Lorsqu’il n’y a pas d’ambiguïté sur l’ensemble E à l’intérieur duquel on travaille, il est
fréquent de noter Ā au lieu de CE A.
Exemple CE E = ∅, CE ∅ = E.
Proposition
CE (CE A) = A,
CE (A ∪ B) = CE A ∩ CE B,
CE (A ∩ B) = CE A ∪ CE B,
A ⊂ B ⇔ CE B ⊂ CE A.
dém. :
On établit, en raisonnant par équivalence, qu’un élément de E appartient à la partie du premier membre
si, et seulement si, il appartient à la partie du second membre.
http://mp.cpgedupuydelome.fr 21 cbna
2.1. ENSEMBLES
2.1.3.3 Différence
Définition
On appelle ensemble A privé de B l’ensemble noté A\B (ou A − B ) constitué des éléments
de E qui sont dans A sans être dans B. Ainsi :
A\B = {x ∈ E/x ∈ A et x ∈
/ B}
Proposition
A\B = A ∩ CE (B).
Définition
On appelle différence symétrique de A et B l’ensemble noté A∆B déterminé par A∆B =
(A\B) ∪ (B\A).
Proposition
A∆B = (A ∪ B)\(A ∩ B).
dém. :
Proposition
A∆A = ∅, A∆∅ = A et A∆E = CE A.
A∆B = B∆A et (A∆B)∆C = A∆(B∆C).
dém. :
Les premières propriétés sont immédiates.
La dernière peut s’obtenir par un tableau de vérité comme dans la démonstration précédente.
2.1.4 Familles
I désigne un ensemble.
2.1.4.1 Définition
Définition
On appelle famille d’éléments de E indexée sur I la donnée d’un élément de E pour chaque
indice i ∈ I. Si cet élément de E est noté ai , la famille correspondante est notée (ai )i∈I .
On note E I l’ensemble des familles d’éléments de E indexées sur I.
http://mp.cpgedupuydelome.fr 22 cbna
CHAPITRE 2. THÉORIE DES ENSEMBLES
Remarque Une famille s’interprète comme étant une liste d’éléments indexés par les éléments d’un
ensemble I.
Définition
Soit J une partie de I.
(ai )i∈J est appelée sous famille de (ai )i∈I .
(ai )i∈I est appelée sur famille de (ai )i∈J .
Définition
Lorsque I est un ensemble fini, on dit que la famille est finie.
Lorsque I = {1, ..., n} on note souvent (ai )16i6n au lieu de (ai )i∈I .
Cette famille est alors usuellement confondue avec le n-uplet : (a1 , ..., an ).
2.1.4.3 Suite
Définition
Lorsque I = N, la famille (an )n∈N est appelée suite d’éléments de E.
On note E N l’ensemble de ces suites.
Exemple Posons un = 2n + 1 pour tout n ∈ N. (un )n∈N est une suite d’entiers.
Exemple Posons In = [1/n, n] pour tout n ∈ N? . (In )n>1 est une suite d’intervalles.
Définition
On appelle famille de parties d’un ensemble E, toute famille (Ai )i∈I formée d’éléments de
P(E) i.e. telle que
∀i ∈ I, Ai ⊂ E
http://mp.cpgedupuydelome.fr 23 cbna
2.2. APPLICATIONS
Définition
[ (Ai )i∈I une famille de parties de E. On pose :
Soit
- Ai = {x ∈ E/∃i ∈ I, x ∈ Ai } appelée union de la famille (Ai )i∈I ;
i∈I
\
- Ai = {x ∈ E/∀i ∈ I, x ∈ Ai } appelée intersection de la famille (Ai )i∈I .
i∈I
[ \ 1 1
+?
Exemple [1/n, n] = R et − , = {0}.
n n
n∈N? ?
n∈N
[ \
Remarque Si I = ∅ alors : Ai = ∅ et Ai = E.
i∈I i∈I
Définition
Soit (Ai )i∈I une famille de parties de E. [
On dit que (Ai )i∈I est un recouvrement de E si Ai = E.
i∈I
Définition
On dit que (Ai )i∈I est une partition de E si c’est un recouvrement formé de parties non vides
deux à deux disjointes.
2.2 Applications
2.2.1 Définition
Définition
On appelle graphe de E vers F toute partie Γ de E × F .
E est appelé ensemble de départ et F ensemble d’arrivée du graphe Γ.
Exemple E = {a, b, c, d}, F = {1, 2, 3, 4} et Γ = {(a, 1), (b, 2), (c, 2), (d, 4)}.
Γ = {(a, 1), (b, 2), (c, 2), (d, 4)} est un graphe de E vers F .
Γ0 = {(a, 1), (b, 2), (b, 3), (c, 3)} est un graphe de E vers F .
http://mp.cpgedupuydelome.fr 24 cbna
CHAPITRE 2. THÉORIE DES ENSEMBLES
Définition
On dit qu’un graphe Γ de E vers F est une application f de E vers F si
Pour tout x ∈ E, l’unique y ∈ F tel que (x, y) ∈ Γ est appelé image de x par l’application f ,
on la note f (x).
Pour tout y ∈ F , les x ∈ E, s’il en existe, tels que y = f (x) sont appelés antécédents de y par
l’application f .
On note f : E → F pour signifier que f est une application de E vers F .
On note F(E, F ) l’ensemble des applications de E vers F .
Proposition
Soient f, g : E → F . On a f = g ⇔ ∀x ∈ E, f (x) = g(x).
dém. :
Par égalités des graphes définissant f et g.
Remarque Pour définir une application f : E → F il suffit de préciser comment à chaque élément x de
E est associé son image f (x) dans F .
C’est le principe de la syntaxe (
E→F
f:
x 7→ ...
C’est désormais ainsi que nous définirons et manipulerons les applications.
(
E→E
Exemple IdE : est une application appelée identité de E.
x 7→ x
http://mp.cpgedupuydelome.fr 25 cbna
2.2. APPLICATIONS
(
E→F
Exemple Soit C ∈ F . C̃ : est appelée application constante égale à C.
x 7→ C
Remarque La problématique de bonne définition d’une fonction f : E → F définie par une association
x 7→ f (x) est double :
- au départ : tout élément de E doit posséder une image et une seule ;
- à l’arrivée : cette image doit être dans F .
Exemple L’application
R → R+
(
f: p
x 7→ x2 + x + 1
Remarque Les familles d’éléments de E indexée sur I sont en fait des applications de I vers E. En
effet, une famille (ai )i∈I se comprend comme une application qui à i ∈ I associe ai ∈ E.
En particulier les suites d’éléments de E indexées sur N, correspondent aux fonctions de N vers E.
http://mp.cpgedupuydelome.fr 26 cbna
CHAPITRE 2. THÉORIE DES ENSEMBLES
Symboliquement :
f g
E →F →G
−−→
g◦f
Remarque g ◦ f est bien définie car l’ensemble d’arrivée de f coïncide avec l’ensemble de départ de g.
Exemple Soient ( (
R→R R→R
f: 2
et g :
x 7→ x x 7→ x + 1
(g ◦ f )(x) = x2 + 1 et (f ◦ g)(x) = (x + 1)2 donc g ◦ f 6= f ◦ g.
Proposition
Soient f : E → F, g : F → G et h : G → H.
On a
(h ◦ g) ◦ f = h ◦ (g ◦ f )
Cette application est encore notée h ◦ g ◦ f .
dém. :
Commençons par notons que les composées proposées sont effectivement possibles.
Ensuite, pour tout x ∈ E,
[(h ◦ g) ◦ f ] (x) = (h ◦ g)(f (x)) = h (g(f (x)))
et
[h ◦ (g ◦ f )] (x) = h (g ◦ f (x)) = h (g(f (x)))
Puisque les applications (h ◦ g) ◦ f et h ◦ (g ◦ f ) coïncidents pour chaque x ∈ E, elles sont égales.
Proposition
Soit f : E → F .
On a f ◦ IdE = f et IdF ◦ f = f .
dém. :
Les composées proposées ci-dessus sont effectivement possibles.
On vérifie ensuite l’égalités des applications étudiées en chaque élément de leur ensemble de départ.
http://mp.cpgedupuydelome.fr 27 cbna
2.2. APPLICATIONS
Définition
On dit que f : E → F est injective si f ne prend jamais deux fois la même valeur i.e. :
Exemple L’application (
R→R
f:
x 7→ 2ex + 1
est injective.
Soient x, x0 ∈ R.
Supposons f (x) = f (x0 ).
0 0
On a 2ex + 1 = 2ex + 1 donc ex = ex puis, en composant avec le logarithme népérien, x = x0 .
Ainsi f est injective.
x = x0 ⇒ f (x) = f (x0 )
http://mp.cpgedupuydelome.fr 28 cbna
CHAPITRE 2. THÉORIE DES ENSEMBLES
Exemple L’application (
R→R
f:
x 7→ x2
n’est pas injective.
En effet f (1) = f (−1) alors que 1 6= −1
Proposition
Si f : E → F et g : F → G sont injectives alors g ◦ f l’est aussi.
dém. :
Soient x, x0 ∈ E.
Supposons (g ◦ f )(x) = (g ◦ f )(x0 ).
On a g(f (x)) = g(f (x0 )).
Par l’injectivité de g, on obtient f (x) = f (x0 ).
Par l’injectivité de f , on obtient x = x0 .
Finalement, g ◦ f est injective.
2.2.3.2 Surjection
Définition
Soit f : E → F . On dit que f est surjective si chaque élément de F possède au moins un
antécédent par f i.e. :
∀y ∈ F, ∃x ∈ E, y = f (x)
Exemple L’application (
Z → N?
s:
n 7→ |n| + 1
est surjective.
En effet pour tout m ∈ N? , f (m − 1) = |m − 1| + 1 = m − 1 + 1 = m.
Ainsi chaque m ∈ N? possède au moins un antécédent dans Z.
Exemple L’application (
C→C
f:
z 7→ z 2
est surjective.
http://mp.cpgedupuydelome.fr 29 cbna
2.2. APPLICATIONS
En effet, considérons Z ∈ C.
On peut écrire Z = reiθ avec r > 0 et θ ∈ R.
√ iθ/2
Pour z = re ∈ C, on a f (z) = z 2 = reiθ = Z.
Ainsi, chaque Z ∈ C possède au moins un antécédent dans C.
∀x ∈ E, ∃y ∈ F, y = f (x)
Exemple L’application (
R→R
f:
x 7→ x2
n’est pas surjective. En effet l’élément −1 ∈ R ne possède par d’antécédent par f .
Proposition
Si f : E → F et g : F → G sont surjectives alors g ◦ f l’est aussi.
dém. :
Soit z ∈ G.
Par la surjectivité de g, il existe y ∈ F tel que g(y) = z.
Par la surjectivité de f , il existe x ∈ E tel que f (x) = y.
On a alors (g ◦ f )(x) = g(f (x)) = g(y) = z.
Ainsi chaque élément de G possède au moins un antécédent par g ◦ f , l’application g ◦ f est surjective.
2.2.4 Bijection
2.2.4.1 Définition
Définition
Soit f : E → F . On dit que f est bijective si chaque élément de F possède un unique
antécédent par f dans E i.e. :
∀y ∈ F, ∃!x ∈ E, y = f (x)
Remarque Pour montrer que f : E → F est bijective il suffit d’établir que, pour chaque y ∈ F ,
l’équation y = f (x) possède une unique solution x ∈ E.
http://mp.cpgedupuydelome.fr 30 cbna
CHAPITRE 2. THÉORIE DES ENSEMBLES
Exemple L’application (
R+ → [1, +∞[
f:
x 7→ x2 + 1
est bijective.
En effet, soit x ∈ R+ et y ∈ [1, +∞[ .
p
y = f (x) ⇔ y = x2 + 1 ⇔ x2 = y − 1 ⇔ x = y−1
Proposition
Soit f : E → F . On a équivalence entre :
(i) f est bijective ;
(ii) f est injective et surjective.
dém. :
(i) ⇒ (ii)
Si f est bijective alors f est clairement surjective. Etablissons l’injectivité :
Soient x, x0 ∈ E. Supposons f (x) = f (x0 ).
Pour y = f (x) = f (x0 ) ∈ F , x et x0 sont des antécédents de y.
Or f étant bijective, y ne possède qu’un antécédent, donc x = x0 .
(ii) ⇒ (i)
Supposons f injective et surjective.
Soit y ∈ F .
Comme f est surjective, il existe x ∈ E tel que y = f (x)
Soit de plus x0 ∈ E tel que y = f (x0 ).
On a alors f (x) = f (x0 ), or f est injective, donc x = x0 .
Par suite il existe un unique x ∈ E tel que y = f (x). Ainsi f est bijective.
n 0 1 2 3 4 5
f (n) 0 −1 1 −2 2 −3
http://mp.cpgedupuydelome.fr 31 cbna
2.2. APPLICATIONS
Proposition
Si f : E → F et g : F → G sont bijectives alors g ◦ f l’est aussi.
dém. :
Via injectivité et surjectivité.
Proposition
Soient f : E → F et g : F → G.
Si g ◦ f est injective alors f est injective.
Si g ◦ f est surjective alors g est surjective.
dém. :
Supposons g ◦ f injective.
Soient x, x0 ∈ E. Supposons f (x) = f (x0 ).
On a alors g(f (x)) = g(f (x0 )) i.e. (g ◦ f )(x) = (g ◦ f )(x0 ).
Par l’injectivité de g ◦ f , on obtient x = x0 . Ainsi f est injective.
Supposons maintenant g ◦ f surjective.
Soit z ∈ G. Par la surjectivité de g ◦ f , il existe x ∈ E tel que z = (g ◦ f )(x).
Pour y = f (x) ∈ F , on a g(y) = g(f (x)) = (g ◦ f )(x) = z.
Ainsi chaque z ∈ G possède au moins un antécédent y ∈ F pour l’application g et on peut affirmer que
g est surjective.
Théorème
Soit f : E → F . On a équivalence entre :
(i) f est bijective ;
(ii) il existe une application g : F → E telle que g ◦ f = IdE et f ◦ g = IdF .
De plus, si tel est le cas, l’application g ci-dessus est unique.
On l’appelle application réciproque de f et on la note f −1 .
http://mp.cpgedupuydelome.fr 32 cbna
CHAPITRE 2. THÉORIE DES ENSEMBLES
dém. :
Les compositions proposées dans le (ii) sont possibles.
(ii) ⇒ (i) Supposons (ii)
L’application g ◦ f = IdE est injective donc f est injective.
L’application f ◦ g = IdF est surjective donc f est surjective.
Ainsi f est bijective.
(i) ⇒ (ii)
Supposons f bijective. On a
∀y ∈ F, ∃!x ∈ E, y = f (x)
Posons alors g(y) = x, ce qui définit une application g : F → E.
∀x ∈ E, g(f (x)) = x
Corollaire
Si f : E → F est bijective alors on peut introduire f −1 : F → E et on a : f −1 ◦ f = IdE et
f ◦ f −1 = IdF .
Corollaire
Soit f : E → F . Si on détermine g : F → E telle que g ◦ f = IdE et f ◦ g = IdF alors on
peut conclure : f bijective et f −1 = g.
Exemple Soit (
N → N?
s:
n 7→ n + 1
http://mp.cpgedupuydelome.fr 33 cbna
2.2. APPLICATIONS
Attention : Il faut observer deux composées égales à l’identité avant de conclure à la bijectivité.
√
Exemple Soient f : R → R+ et g : R+ → R définies par f (x) = x2 et g(x) = x.
On a g ◦ f = IdR+ alors que ni f , ni g, ne sont bijectives !
Proposition
Si f : E → F est bijective alors f −1 est bijective et
(f −1 )−1 = f
dém. :
Supposons f bijective. On peut introduire f −1 : F → E.
Comme f ◦ f −1 = IdF et f −1 ◦ f = IdE , par le deuxième corollaire appliqué à f −1 (en prenant g = f )
on peut conclure f −1 bijective et (f −1 )−1 = f .
Proposition
Si f : E → F et g : F → G sont bijectives alors g ◦ f aussi
(g ◦ f )−1 = f −1 ◦ g −1
dém. :
On sait déjà que g ◦ f est bijective.
Puisque (g ◦ f )−1 ◦ (g ◦ f ) = IdE on a, en composant avec f −1 , (g ◦ f )−1 ◦ g = f −1 puis, en composant
avec g −1 , (g ◦ f )−1 = f −1 ◦ g −1 .
2.2.4.3 Permutation
Définition
On appelle permutation de E toute application bijective de E dans lui-même.
On note S(E) l’ensemble des permutations de E.
Proposition
∀f, g ∈ S(E), f ◦ g ∈ S(E) et g ◦ f ∈ S(E).
∀f ∈ S(E), f −1 ∈ S(E).
Définition
On appelle involution de E toute application f : E → E telle que f ◦ f = IdE .
Proposition
Soit f : E → E. On a équivalence entre :
(i) f est une involution ;
(ii) f est bijective et f −1 = f .
http://mp.cpgedupuydelome.fr 34 cbna
CHAPITRE 2. THÉORIE DES ENSEMBLES
Exemple L’application (
C→C
f:
z 7→ z̄
est une involution.
Exemple L’application (
P(E) → P(E)
f:
X 7→ CE X
est une involution.
Définition
On appelle image directe de A ∈ P(E) par f : E → F l’ensemble noté f (A) formé des
valeurs prises par f sur A.
Ainsi
f (A) = {f (x) avec x ∈ A} = {f (x)/x ∈ A}
Exemple Soit f : R → R définie par f (x) = x2 . f ([−1, 2]) = [0, 4], f (R) = R+ .
Remarque f (A) peut aussi se voir comme étant formé des y ∈ F qui possèdent au moins un
antécédent dans A. Ainsi :
y ∈ f (A) ⇔ ∃x ∈ A, y = f (x)
Cette équivalence est fondamentale : elle caractérise l’appartenance à la partie f (A).
f (A ∩ B) ⊂ f (A) ∩ f (B)
Soit y ∈ f (A ∩ B).
Il existe x ∈ A ∩ B tel que y = f (x).
Puisque x ∈ A, y = f (x) ∈ f (A). De même y ∈ f (B) et donc y ∈ f (A) ∩ f (B).
http://mp.cpgedupuydelome.fr 35 cbna
2.2. APPLICATIONS
Définition
Soit f : E → F .
On appelle image de f l’ensemble noté Imf constitué des valeurs prises par f sur E.
Ainsi
Imf = f (E) = {f (x)/x ∈ E}
Proposition
f : E → F est surjective si, et seulement si, Imf = F .
dém. :
Les éléments de Imf sont ceux de F possédant au moins un antécédent par f . . .
Définition
On appelle image réciproque de B ∈ P(F ) par f : E → F l’ensemble noté f −1 (B) formé
des antécédents des éléments de B.
Ainsi
f −1 (B) = {x ∈ E/f (x) ∈ B}
Exemple Considérons (
R→R
f:
x 7→ x2
f −1 ([0, 1]) = [−1, 1], f −1 (R+ ) = R,...
http://mp.cpgedupuydelome.fr 36 cbna
CHAPITRE 2. THÉORIE DES ENSEMBLES
Définition
Soient f : E → F , A ⊂ E et B ⊂ F vérifiant
∀x ∈ A, f (x) ∈ B
Remarque La condition
∀x ∈ A, f (x) ∈ B
(i.e. f (A) ⊂ B ) assure la bonne définition de l’application g.
http://mp.cpgedupuydelome.fr 37 cbna
2.3. LES ENSEMBLES FINIS
Exemple La restriction de la fonction sinus au départ de [−π/2, π/2] et à valeurs dans [−1, 1] est
bijective.
Remarque Soient f : E → F et A ⊂ E.
L’application restreinte (
A→F
x 7→ f (x)
est appelée restriction de f à A (au départ) et est notée fA .
Soient f : E → F et B ⊂ F telle que Imf ⊂ B.
L’application restreinte (
E→B
x 7→ f (x)
est appelée restriction de f à l’arrivée dans B.
Généralement on la note encore f .
Exemple La restriction d’une application injective à l’arrivée dans Imf est bijective.
Proposition
E ≈ E,
E ≈ F ⇒ F ≈ E,
E ≈ F et F ≈ G ⇒ E ≈ G.
dém. :
Puisque IdE est une bijection de E vers E, E ≈ E.
Puisque l’application réciproque d’une bijection de E vers F est une bijection de F vers E,
E≈F ⇒F ≈E
http://mp.cpgedupuydelome.fr 38 cbna
CHAPITRE 2. THÉORIE DES ENSEMBLES
Puisque la composée d’une bijection de E vers F par une bijection de F vers G est un bijection de E
vers G,
E ≈ F et F ≈ G ⇒ E ≈ G
Exemple {a, b, c} et {1, 2, 3} sont équipotents via la bijection f définie par f (a) = 1, f (b) = 2 et
f (c) = 3.
Définition
Un ensemble est dit dénombrable s’il est équipotent à N.
Théorème
Soient n, p ∈ N.
S’il existe une injection de Np dans Nn alors p 6 n.
S’il existe une surjection de Np sur Nn alors p > n.
S’il existe une bijection de Np vers Nn alors p = n.
dém. :
La propriété relative à l’existence de bijection de Np vers Nn découle immédiatement des deux précédentes,
il ne reste qu’à établir celles-ci. . .
Par récurrence sur p ∈ N, montrons que pour tout n ∈ N, s’il existe une injection de Np dans Nn
alors p 6 n.
http://mp.cpgedupuydelome.fr 39 cbna
2.3. LES ENSEMBLES FINIS
Exemple CardNn = n,
CardN = +∞,
Card {0, 1, ..., n} = n + 1,
Pour a 6 b ∈ Z, Card [[a, b]] = b − a + 1.
Exemple Card∅ = 0,
Card {a} = 1 et
1 si a = b
Card {a, b} = .
2 sinon
http://mp.cpgedupuydelome.fr 40 cbna
CHAPITRE 2. THÉORIE DES ENSEMBLES
E = {x1 , ..., xn }
dém. :
Posons n = CardA et p = CardB.
Si n = 0 ou p = 0 : ok
Sinon écrivons A = {x1 , ..., xn } avec des xi deux à deux distincts et B = {y1 , ..., yp } avec des yj deux
à deux distincts.
Comme A et B sont supposés disjoints, les xi sont distincts des yj .
Considérons alors ϕ : Nn+p → A ∪ B définie par :
Il est immédiate d’observer que ϕ est une bijection de Nn+p vers A ∪ B ce qui permet de conclure.
Corollaire
Soit (Ai )16i6n une famille finie d’ensemble deux à deux disjoints.
n
[
Si tous les Ai sont des ensembles finis alors Ai l’est aussi et
i=1
n
[ n
X
Card Ai = CardAi
i=1 i=1
Théorème
Toute partie d’un ensemble fini est elle-même finie.
dém. :
Par récurrence sur n ∈ N, montrons que toute partie d’un ensemble à n éléments est finie.
Pour n = 0 : ok
Supposons la propriété établie au rang n > 0.
Soit E un ensemble fini a n + 1 éléments.
http://mp.cpgedupuydelome.fr 41 cbna
2.3. LES ENSEMBLES FINIS
On a Card E 0 = n.
Soit A une partie de E.
Si xn+1 ∈ / A alors A est une partie de E 0 et elle donc finie par hypothèse de récurrence.
Si xn+1 ∈ A. Posons A0 = A\ {xn+1 }. A0 est une partie de E 0 , donc par hypothèse de récurrence A0 est
finie et puisque A = A0 ∪ {xn+1 }, A l’est aussi car réunion de deux ensembles finis disjoints.
Récurrence établie
Corollaire
Soit A une partie d’un ensemble fini E.
Puisque CardCE A > 0, on obtient CardA 6 CardE avec égalité si, et seulement si, CardCE A = 0 i.e.
CE A = ∅ ce qui correspond au cas A = E.
Remarque Il est fréquent d’établir l’égalité de deux ensembles pas une inclusion et une égalité de
cardinaux (finis).
Théorème
Soient A et B deux ensembles.
Si A et B sont finis alors A ∪ B l’est aussi et
dém. :
On peut écrire A ∪ B = A ∪ (B\A) avec les ensembles A et B\A finis et disjoints.
On en déduit que A ∪ B est un ensemble fini et
On peut aussi écrire B = (B\A) ∪ (A ∩ B) avec les ensembles B\A et A ∩ B finis et disjoints.
On en déduit
CardB = Card(B\A) + Card(A ∩ B)
http://mp.cpgedupuydelome.fr 42 cbna
CHAPITRE 2. THÉORIE DES ENSEMBLES
Corollaire
Soit (Ai )i∈I une famille finie d’ensembles.
n
[
Si tous les Ai sont des ensembles finis est fini alors Ai l’est aussi et
i=1
n
[ n
X
Card Ai 6 CardAi
i=1 i=1
Théorème
Soient E et F deux ensembles finis.
S’il existe une injection de E dans F alors CardE 6 CardF .
S’il existe une surjection de E sur F alors CardE > CardF .
S’il existe une bijection de E vers F alors CardE = CardF .
dém. :
Posons p = CardE et n = CardF .
Il existe ϕ : Np → E et ψ : Nn → F bijectives.
S’il existe une injection f de E vers F alors (ψ −1 ◦ f ◦ ϕ) : Np → Nn est injective et donc p 6 n.
S’il existe une surjection f de E vers F alors (ψ −1 ◦ f ◦ ϕ) : Np → Nn est surjective et donc p > n.
S’il existe une bijection f de E vers F alors (ψ −1 ◦ f ◦ ϕ) : Np → Nn est bijective et donc p = n.
Proposition
Soient E et F deux ensembles et f : E → F .
Si A est une partie finie de E alors f (A) est une partie finie de F et
CardE = CardF
http://mp.cpgedupuydelome.fr 43 cbna
2.4. DÉNOMBREMENT
2.4 Dénombrement
Théorème
Soient E un ensemble, F un ensemble fini et ϕ : E → F .
S’il existe p ∈ N tel que chaque y ∈ F possède exactement p antécédents par ϕ alors
l’ensemble E est fini et
CardE = p.CardF
dém. :
Si F = ∅ alors il n’y a qu’une seule application à valeurs dans F , c’est l’application vide qui est au départ
de E = ∅. La propriété est vraie.
Si F 6= ∅, posons n = Card F .
On peut écrire F = {y1 , ..., yn } avec les yi deux à deux distincts.
Posons, pour tout 1 6 i 6 n, Ai = ϕ−1 ({yi }).
Par hypothèse, chaque partie Ai est finie et CardAi = p.
n
[
Puisque les parties Ai sont deux à deux disjointes et que Ai = E, on peut affirmer que E est finie et
i=1
n
X
CardE = CardAi = np
i=1
http://mp.cpgedupuydelome.fr 44 cbna
CHAPITRE 2. THÉORIE DES ENSEMBLES
Théorème
Si E et F sont deux ensembles finis alors E × F l’est aussi et
dém. :
Considérons ϕ : E × F → F définie par ϕ(x, y) = y.
Tout élément y de F possède exactement CardE antécédents par ϕ et le principe de bergers appliqué à ϕ
permet de conclure.
Corollaire
Soient E1 , ..., En une liste d’ensembles finis.
n
Y
Ei = E1 × ... × En
i=1
est fini et
n
Y n
Y
Card Ei = CardEi
i=1 i=1
dém. :
n+1
Y n
Y
Par récurrence, en observant que Ei n’est pas très différent de Ei × En+1 . . .
i=1 i=1
Exemple Si E est un ensemble fini et n ∈ N? alors E n est fini et CardE n = (CardE)n .
2.4.3 Dénombrement
Pour dénombrer le nombre d’objets construits par une démarche :
- on multiple lorsque passe d’une étape à l’étape suivante dans la construction ;
- on somme lorsqu’il y a une alternative strice dans la construction.
2
Exemple Combien y a-t-il de couples (x, y) ∈ {−2, −1, 0, 1, 2} tels que xy > 0 :
Couples solutions avec x = 0 :
5 choix de y et autant de possibilités.
Couples solusions avec x > 0 :
2 choix de x et 3 choix de y, soit 6 possibilités.
Couples solutions avec x < 0 :
2 choix de x et 3 choix de y, soit 6 possibilités.
Au total : 5 + 6 + 6 = 17 possibilités.
http://mp.cpgedupuydelome.fr 45 cbna
2.4. DÉNOMBREMENT
dém. :
Si E = ∅ alors il n’y a qu’une seule application au départ de E, l’application vide.
Or (CardF )0 = 1 donc la relation proposée est exacte.
Si E 6= ∅ alors, en posant n = CardE, on peut écrire E = {x1 , . . . , xn } avec les xi deux à deux distincts.
Considérons l’application ϕ : F(E, F ) → F n définie par ϕ(f ) = (f (x1 ), . . . , f (xn )).
On vérifie aisément que l’application ϕ est bijective et on en déduit que F(E, F ) est fini et
Remarque Démonstration plus simple :
Pour construire une application f : E → F avec E = {x1 , . . . , xn } (et les x1 , . . . , xn deux à deux
distincts) :
- on choisit f (x1 ) dans F : CardF possibilités ;
- on choisit f (x2 ) dans F : CardF possibilités ;
...
- on choisit f (xn ) dans F : CardF possibilités.
Au total, il y a (CardF )n possibilités et autant d’applications de E vers F .
CardP(E) = 2CardE
dém. :
Soit E un ensemble fini à n éléments.
http://mp.cpgedupuydelome.fr 46 cbna
CHAPITRE 2. THÉORIE DES ENSEMBLES
2.4.6 Permutation
Théorème
Il y a exactement n! bijections entre deux ensembles finis à n éléments.
dém. :
Par récurrence sur n ∈ N.
Pour n = 0 : 0! = 1
Il n’existe qu’une application de ∅ vers ∅, c’est l’application vide, qui est bijective.
Supposons la propriété établie au rang n > 0.
Soit E et F deux ensembles n + 1 éléments.
Notons Bij(E, F ) l’ensemble des bijections de E vers F .
Soit a ∈ E et ϕ : Bij(E, F ) → F définie par ϕ(f ) = f (a).
Tout b ∈ F , les antécédents de b par ϕ correspondent aux applications bijectives de E\ {a} vers F \ {b}.
Par hypothèse de récurrence, il y en a n!.
Par le principe des bergers,
Card(Bij(E, F )) = (n + 1)!
Récurrence établie.
Remarque Démonstration plus simple :
Pour construire une permutation de E = {x1 , . . . , xn } avec x1 , . . . , xn deux à deux distincts vers F à n
éléments :
- on choisit f (x1 ) dans F : n possibilités ;
- on choisit f (x2 ) dans F \ {f (x1 )} : n − 1 possibilités ;
...
- on choisit f (xn ) dans F \ {f (x1 ), . . . , f (xn−1 )} : 1 possibilité.
Au final, il y a n! possibilités de construction et autant de bijection de E vers F .
Corollaire
Si E est un ensemble fini alors S(E) est fini et CardS(E) = (CardE)!.
http://mp.cpgedupuydelome.fr 47 cbna
2.4. DÉNOMBREMENT
Définition
Soient n ∈ N et p ∈ Z. On appelle coefficient combinatoire p parmi n le nombre
! n!
n
si 0 6 p 6 n
= p!(n − p)!
p 0 sinon
! ! ! ! !
n n n n(n − 1) n n(n − 1)(n − 2) n
Exemple = 1, = n, = , = ,..., = 1.
0 1 2 2 3 3×2 n
Proposition
! !
n n
∀n ∈ N, ∀p ∈ Z, = .
p n−p
dém. :
Les cas p < 0 ou p > n sont immédiats.
Pour 0 6 p 6 n,
! !
n n! n! n
= = =
n−p (n − p)!(n − (n − p))! (n − p)!p! p
Théorème ! ! !
n n n+1
∀n ∈ N, ∀p ∈ Z, + = .
p p+1 p+1
dém. :
Cas 0 6 p 6 n − 1
! !
n n n! n!
+ + =
p p+1 p!(n − p)! (p + 1)!(n − p − 1)
!
n!(p + 1 + n − p) (n + 1)! n+1
= = =
(p + 1)!(n − p)! (p + 1)!(n − p)! p+1
Cas p = n
! ! !
n n n+1
+ =1+0=1=
n n+1 n+1
Cas p = −1
! ! !
n n n+1
+ =0+1=1=
−1 0 0
http://mp.cpgedupuydelome.fr 48 cbna
CHAPITRE 2. THÉORIE DES ENSEMBLES
Remarque On peut facilement calculer les premiers coefficients combinatoires grâce au triangle de
Pascal :
n\p 0 1 2 3 4
0 1 0 0 0 0
1 1 1 0 0 0
2 1 2 1 0 0
3 1 3 3 1 0
4 1 4 6 4 1
où l’on visualise : ! !
n n
+
p p+1
|| !
n+1
p+1
On a ! ! ! ! !
n
X p+k p p+1 p+2 p+n
= + + + ··· +
k=0
k 0 1 2 n
Or ! ! ! ! !
p p+1 p+1 p+1 p+2
+ = + =
0 1 0 1 1
puis ! ! !
p+2 p+2 p+3
+ = ,. . .
1 2 2
et enfin ! ! !
p+n p+n p+n+1
+ =
n−1 n n
Proposition
! !
? n n−1
∀n ∈ N , ∀p ∈ Z, p =n .
p p−1
http://mp.cpgedupuydelome.fr 49 cbna
2.4. DÉNOMBREMENT
dém. :
Cas 1 6 p 6 n
! !
n n! (n − 1)! n−1
p =p =n =n
p p!(n − p)! (p − 1)!(n − p)! p−1
Cas p = 0
! !
n n−1
0 =0=n×0=n
0 −1
Remarque On retient
! !
n n n−1
=
p p p−1
Définition
Soit E un ensemble et p ∈ N.
On appelle combinaison de p éléments de E toute partie de E à p éléments.
Théorème
Soit E un ensemble fini! à n ∈ N éléments et p ∈ Z.
n
Il y a exactement combinaisons possibles de p éléments de E.
p
!
n
Autrement dit : il y a exactement parties à p éléments dans un ensemble à n éléments.
p
dém. :
Par récurrence sur n ∈ N.
Pour n = 0 : l’ensemble vide
! ne possède!qu’une partie qui est l’ensemble vide.
0 0
Ceci est cohérent avec = 1 et = 0 pour p 6= 0.
0 p
Supposons la propriété établie au rang n > 0.
Soit E un ensemble fini à n + 1 éléments et p ∈ {0, 1, . . . , n + 1}. !
n
Si p < 0 ou p > n, il n’existe pas de parties de E à p éléments et = 0.
p
!
n
Si p = 0, il n’existe qu’une partie de E à 0 élément (c’est l’ensemble vide) et = 1.
0
http://mp.cpgedupuydelome.fr 50 cbna
CHAPITRE 2. THÉORIE DES ENSEMBLES
Sinon, considérons
! a ∈ E fixé. !
n n
Il y a parties à p éléments de E ne contenant pas a et parties contenant a donc il y a
p p−1
! ! !
n n n+1
+ =
p p−1 p
Cette propriété peut être jusitifié par la bijectivité du passage au complémentaire qui échange les parties
à p éléments avec celles à n − p éléments.
Proposition
n
!
X n
∀n ∈ N, = 2n .
p=0
p
dém. :
Si CardE = n alors
CardP(E) = 2n
!
n
Or toute partie de E est constituée d’un nombre p d’éléments avec 0 6 p 6 n et il existe parties
p
de E à p éléments.
Par suite !
n
X n
= CardP(E) = 2n
p=0
p
n
!
?
X n
Exemple Pour n ∈ N , calculons p .
p=0
p
n
! n
! n
! n−1
!
X n X n X n−1 X n−1
p = p = n =n = n2n−1
p=0
p p=1
p p=1
p−1 q=0
q
Théorème !
n
X n
∀a, b ∈ C, ∀n ∈ N, (a + b)n = an−k bk .
k=0
k
http://mp.cpgedupuydelome.fr 51 cbna
2.4. DÉNOMBREMENT
dém. :
Par récurrence sur n ∈ N.
Pour n = 0, la propriété est immédiate sachant que ∀a ∈ C, a0 = 1 (même pour a = 0. . . )
Supposons la propriété établie au rang n > 0.
(a + b)n+1 = (a + b)n (a + b)
http://mp.cpgedupuydelome.fr 52 cbna
CHAPITRE 2. THÉORIE DES ENSEMBLES
Pour x = 1, on obtient !
n
X n
= 2n
k=0
k
Pour x = −1, on obtient !
n
n si n ∈ N?
X 0
(−1)k = 0n =
k 1 si n = 0
k=0
Pour x = 2, !
n
X n
2k = (1 + 2)n = 3n
k=0
k
En dérivant la relation initiale !
n
n−1
X n
n(1 + x) = k xk−1
k=1
k
Pour x = 1, on obtient ! !
n n
X n X n
k = k = n2n−1
k=0
k k=1
k
En dérivant !
n
X n
nx(1 + x)n−1 = k xk
k=1
k
puis en évaluant en x = 1, on obtient
n
!
X
2 n
k = n(n + 1)2n−2
k=0
k
Exploitons la relation !
n
n
X n
(1 + x) = xk :
k=0
k
n p+q
- le coefficient de x dans (1 + x) est !
p+q
n
- le coefficient de xn dans le développement de (1 + x)p (1 + x)q est
n
! !
X p q
k=0
k n−k
Par identification des coefficients d’une fonction polynomiale, on obtient la relation proposée.
http://mp.cpgedupuydelome.fr 53 cbna
2.4. DÉNOMBREMENT
http://mp.cpgedupuydelome.fr 54 cbna
Chapitre 3
Ensemble ordonné
E désigne un ensemble.
3.1.1 Définition
Définition
On appelle relation binaire R sur E toute propriété vraie pour certains couples (x, y)
d’éléments de E et fausse pour les autres.
Lorsqu’un couple (x, y) vérifie la relation R, on écrit xRy. Sinon, on écrit xRy en barrant
le R.
Exemple Sur E = R, la relation inférieur ou égal est une relation binaire notée 6.
2
xRy ⇔ sin xy = yex+y
55
3.1. RELATION D’ORDRE
Définition
Soit R une relation binaire sur E.
On dit que R est réflexive si
∀x ∈ E, xRx
On dit que R est symétrique si
Exemple Sur E = R,
xRy ⇔ sin x = sin y
définit une relation réflexive, symétrique et transitive.
Définition
Une relation binaire à la fois réflexive, symétrique et transitive est appelée une relation
d’équivalence.
Exemple Sur E = R,
xRy ⇔ sin x = sin y
définit une relation d’équivalence.
Définition
On appelle relation d’ordre sur un ensemble E, toute relation binaire à la fois réflexive,
antisymétrique et transitive.
A défaut d’autres notations, une relation d’ordre est usuellement notée 4 à défaut d’autres
notations.
http://mp.cpgedupuydelome.fr 56 cbna
CHAPITRE 3. ENSEMBLE ORDONNÉ
Exemple On dit que m ∈ N? divise n ∈ N? , et note m | n, s’il existe k ∈ N tel que n = mk.
| est une relation d’ordre sur N? .
Définition
Soit (E, 4) un ensemble ordonné.
On appelle ordre inverse associé à 4, la relation < définie par :
x<y⇔y4x
Définition
Soit (E, 4 ) un ensemble ordonné.
On appelle ordre strict associé à 4 la relation ≺ définie par :
x ≺ y ⇔ x 4 y et x 6= y.
http://mp.cpgedupuydelome.fr 57 cbna
3.1. RELATION D’ORDRE
Définition
Soit (E, 4 ) un ensemble ordonné.
Deux éléments x et y de E sont dits comparables si x 4 y ou y 4 x.
Exemple Dans (R, 6), tous les réels sont deux à deux comparables.
Définition
Soit (E, 4 ) un ensemble ordonné.
On dit que l’ordre 4 est total si tous les éléments de E sont deux à deux comparables. On dit
alors que (E, 4) est un ensemble totalement ordonné.
Sinon, on parle d’ordre partiel et d’ensemble partiellement ordonné.
Exemple Si E contient au moins deux éléments distincts a et b alors (P(E), ⊂) est un ensemble qui
n’est que partiellement ordonné ; en effet {a} et {b} ne sont pas comparables.
(x, y) 4 (x0 , y 0 ) ⇔ x 6 x0 et y 6 y 0
http://mp.cpgedupuydelome.fr 58 cbna
CHAPITRE 3. ENSEMBLE ORDONNÉ
Remarque Plus généralement, si (E, 4) et (F, 4) sont deux ensembles ordonnés, les deux démarches
qui précèdent permettent de définir des relations d’ordre sur le produit cartésien E × F . Pour l’ordre
produit, on obtient a priori un ordre partiel, pour l’ordre lexicographique, on obtient un ordre total si les
relations d’ordre sur E et F sont totales.
On peut aussi généraliser ce qui précède à un produit cartésien de plusieurs ensembles ordonnés.
http://mp.cpgedupuydelome.fr 59 cbna
3.2. RELATION D’ORDRE ET SOUS ENSEMBLES
Définition
La partie A est dite majorée (resp. minorée) si elle possède un majorant (resp. minorant). Une
partie est dite bornée si elle est majorée et minorée.
Exemple Dans (P(E), ⊂), toute partie est majorée par E et minorée par ∅.
Proposition
Si A admet un plus grand élément (resp. plus petit élément) celui-ci est unique.
On le note
max(A) (respectivement min(A) )
dém. :
Soient M, M 0 deux plus grands éléments de A.
On peut écrire M 4 M 0 car M 0 majore A et M ∈ A mais aussi par symétrie M 0 4 M .
Par l’antisymétrie de la relation 4, on obtient M = M 0 .
http://mp.cpgedupuydelome.fr 60 cbna
CHAPITRE 3. ENSEMBLE ORDONNÉ
Proposition
Soit E ⊂ N.
Si 0 ∈ E et si l’on a la propriété ∀p ∈ N, p ∈ E ⇒ p + 1 ∈ E
alors E = N.
dém. :
Soit m ∈ N.
Pour montrer que m ∈ E considérons
A = {n ∈ N/n ∈ E et n 6 m}
http://mp.cpgedupuydelome.fr 61 cbna
3.2. RELATION D’ORDRE ET SOUS ENSEMBLES
Théorème
Soient n0 ∈ N et P(n) une assertion dépendant d’un entier n > n0 .
Si
1) P(n0 ) et P(n0 + 1) sont vraies et
2) ∀n > n0 , ( (P(n) et P(n + 1) vraies) ⇒ P(n + 2) vraie
alors
∀n > n0 , P(n) est vraie.
dém. :
On applique le principe de récurrence à l’assertion Q(n) = « P(n) et P(n + 1) vraies »
Montrons que ∀n ∈ N, un = n.
On procède par récurrence double. . .
Pour n = 0 et n = 1 : la propriété un = n est vraie.
Supposons un = n et un+1 = n + 1 pour un rang n > 0.
Par définition de la suite (un ), on a
Récurrence établie.
Remarque La récurrence double peut évidemment être généraliser aux récurrences triples,
quadruples,. . . On parle ici de récurrence multiple. Pour que celles-ci s’enchaînent correctement, il
conviendra de vérifier une initialisation suffisante.
Théorème
Soient n0 ∈ N et P(n) une assertion dépendant d’un entier n > n0 .
Si
1) P(n0 ) est vraie et
2) ∀n > n0 ; (P(n0 ), . . . , P(n) vraies) ⇒ P(n + 1) vraie.
alors ∀n > n0 , P(n) est vraie.
dém. :
On applique la récurrence simple à l’assertion Q(n) = « ∀n0 6 k 6 n, P(k) vraie ».
∀n ∈ N, un+1 = u0 + u1 + ... + un
Montrer que
∀n ∈ N? , un = 2n−1 u0
Procédons par récurrence forte sur n ∈ N? . . .
http://mp.cpgedupuydelome.fr 62 cbna
CHAPITRE 3. ENSEMBLE ORDONNÉ
1 − 2n
un+1 = u0 + u0 = u0 + (2n − 1)u0 = 2n u0
1−2
Récurrence établie.
Théorème
Soient n0 , n1 ∈ N tels que n0 6 n1 et P(n) une assertion dépendant d’un entier n0 6 n 6 n1 .
Si
1) P(n0 ) est vraie et
2) ∀n0 6 n < n1 on a P(n) vraie ⇒ P(n + 1) vraie
alors ∀n0 6 n 6 n1 , P(n) est vraie.
dém. :
On applique la récurrence simple à Q(n) = « P(n) vraie ou n > n1 ».
Remarque Dans le cadre de la récurrence finie, on peut aussi envisager des récurrences descendantes.
Attention : sup A et inf A, lorsqu’ils existent, ne sont pas a priori des éléments de A.
Cependant :
http://mp.cpgedupuydelome.fr 63 cbna
3.2. RELATION D’ORDRE ET SOUS ENSEMBLES
Proposition
Si A admet un plus grand élément alors A admet une borne supérieure et sup A = max A.
Si A admet un plus petit élément alors A admet une borne inférieure et inf A = min A.
dém. :
Supposons : A admet un plus grand élément M .
M est un majorant de A et pour tout majorant M 0 de A, on a M 4 M 0 puisque M ∈ A.
Par suite M est le plus petit des majorants de A, c’est sa borne supérieure.
Exemple Soit
1 1 1
A= /n ∈ N? = 1, , , ...
n 2 3
Déterminons sup A et inf A.
La partie A admet un plus grand élément donc sup A = max A = 1.
La partie A est une partie de R non vide et minorée par 0.
On en déduit que inf A existe et inf A > 0.
De plus, puisque inf A minore A , on a la propriété :
http://mp.cpgedupuydelome.fr 64 cbna
CHAPITRE 3. ENSEMBLE ORDONNÉ
Puisque les parties A et B sont des parties de R non vides, minorées et majorées, on est assuré de
l’existence des bornes proposées.
Pour tout x ∈ A, on a x ∈ B car A ⊂ B. Or la partie B est majorée par sup B donc x 6 sup B. Ainsi
sup B est un majorant de la partie A. Or par définition sup A est le plus petit des majorants de A donc
sup A 6 sup B.
Par un raisonnement symétrique, on obtient aussi inf B 6 inf A.
Enfin, en considérant un élément a ∈ A, on peut affirmer inf A 6 a et a 6 sup A donc inf A 6 sup A.
Définition
Si A est une partie de R non vide et non majorée, on pose sup A = +∞.
Si A est une partie de R non vide et non minorée, on pose inf A = −∞.
Si A = ∅, on pose sup A = −∞ et inf A = +∞.
Exemple Si I est un intervalle non vide, ses extrémités dans R̄ correspondent à inf I et sup I.
Théorème
Soit A une partie non vide de R.
Il existe une suite (un ) ∈ AN telle que un → sup A ∈ R̄.
Il existe une suite (vn ) ∈ AN telle que vn → inf A ∈ R̄.
dém. :
Supposons sup A = +∞.
Pour tout n ∈ N, n n’est pas majorant de A donc il existe a ∈ A tel que a > n.
Posons un = a. En faisant varier n, ce qui précède définit une suite (un ) ∈ AN qui par comparaison tend
vers +∞ puisque un > n pour tout n ∈ N.
Supposons M = sup A ∈ R.
Pour tout n ∈ N, M −1/(n + 1) n’est pas majorant de A donc il existe a ∈ A tel que M −1/(n + 1) 6 a,
de plus a 6 M . Posons un = a.
En faisant varier n, ce qui précède définit une suite (un ) ∈ AN qui par le théorème des gendarmes tend
vers M .
∀a ∈ A, ∀b ∈ B, a 6 b
http://mp.cpgedupuydelome.fr 65 cbna
3.3. FONCTIONS ET RELATION D’ORDRE
f 4 g ⇔ ∀x ∈ E, f (x) 4 g(x)
Exemple Soient f, g : E → R.
f 6 g ⇔ ∀x ∈ E, f (x) 6 g(x)
Proposition
4 est une relation d’ordre sur F(E, F ).
dém. :
Pour tout x ∈ E, f (x) 4 f (x) donc f 4 f .
Supposons f 4 g et g 4 f . Pour tout x ∈ E, f (x) 4 g(x) et g(x) 4 f (x) donc f (x) = g(x). Par
suite f = g.
Supposons f 4 g et g 4 h. Pour tout x ∈ E, f (x) 4 g(x) et g(x) 4 h(x) donc f (x) 4 h(x). Par
suite f 4 h.
Puisque réflexive, antisymétrique et transitive la relations 4 sur F(E, F ) est une relation d’ordre.
Remarque Si E et F contiennent tous deux au moins deux éléments, on peut montrer que l’ordre n’est
que partiel.
http://mp.cpgedupuydelome.fr 66 cbna
CHAPITRE 3. ENSEMBLE ORDONNÉ
Exemple La fonction f : x 7→ [−x, x] est une application croissante de (R+ , 6) vers (P(R), ⊂)
Proposition
Soient f : E → F et g : F → G.
Si f et g ont même monotonie alors g ◦ f est croissante.
Si f et g sont de monotonies contraires alors g ◦ f est décroissante.
dém. :
C’est immédiat !
Exemple f : R → R définie par f (x) = ln(e−x + 1) est strictement décroissante par composition de
monotonie.
Remarque Par la définition qui précède, une suite (un ) ∈ E N est dite croissante si
∀n, m ∈ E, n 6 m ⇒ un 4 um
Plus efficacement, la monotonie de (un ) s’étudie en comparant un et un+1 grâce au résultat suivant :
Proposition
Soit (un )n∈N une suite d’éléments de E.
La suite (un ) est croissante (resp. décroissante) si, et seulement si,
La suite (un ) est strictement croissante (resp. décroissante) si, et seulement si,
dém. :
(⇒) ok
(⇐) Supposons ∀n ∈ N, un+1 < un .
Par récurrence sur n ∈ N, on montre que pour tout 0 6 m 6 n, on a um 4 un .
Remarque Pour étudier la monotonie d’une suite réelle (un ), on peut regarder le signe un+1 − un .
http://mp.cpgedupuydelome.fr 67 cbna
3.3. FONCTIONS ET RELATION D’ORDRE
n
X
Exemple La suite (un ) de terme général un = 1/k est croissante.
k=1
En effet
1
un+1 − un = >0
n+1
Remarque Pour étudier la monotonie d’une suite (un ) de réels strictement positifs, on peut comparer le
rapport un+1 /un à 1.
http://mp.cpgedupuydelome.fr 68 cbna
CHAPITRE 3. ENSEMBLE ORDONNÉ
∀x ∈ E, f (x) 4 f (a)
f (a) apparaît alors comme étant le plus grand élément de Imf , on l’appelle valeur au maximum
de f et on la note max f ou max f (x).
x∈E
On dit que f admet un minimum en a ∈ E si
f (a) apparaît alors comme étant le plus petit élément de Imf , on l’appelle valeurs au minimum
de f et on la note min f ou min f (x).
x∈E
On appelle extremum, un minimum ou un maximum d’une fonction.
Proposition
Si une fonction réelle présente un maximum (resp. un minimum) alors la valeur en celui-ci est
aussi borne supérieure (resp. inférieure) de cette fonction.
1 1
Exemple sup = 1 et inf? = 0.
n∈N? n n∈N n
Remarque Il est aisé de déterminer les éventuels extrema et les bornes supérieure et inférieure d’une
fonction réelle d’une variable réelle lorsqu’on connaît sont tableau de variation.
http://mp.cpgedupuydelome.fr 69 cbna
3.3. FONCTIONS ET RELATION D’ORDRE
x −∞ −1/2 +∞
f 0 (x) + 0 −
f (x) 0 % 4/3 & 0
http://mp.cpgedupuydelome.fr 70 cbna
Chapitre 4
Structures algébriques
On connaît plusieurs additions (sur les nombres, les vecteurs, les suites, les fonctions,. . . ), ces additions
se ressemblent beaucoup bien qu’opérant sur des objets très différents. . . Dans ce chapitre nous allons voir
en quoi certaines opérations ont des propriétés commune et plus généralement on va isoler les propriétés
calculatoires des opérations sans s’intéresser à la nature des objets qu’elles manipulent ; c’est ce qui rend
ce chapitre assez abstrait. . .
4.1 Loi de composition interne
E désigne un ensemble.
4.1.1 Définition
Définition
On appelle loi de composition interne (l.c.i.) ou opération sur E toute application de E × E
vers E. Lorsque l’on convient de noter ? cette loi de composition interne, on note x ? y l’image
du couple (x, y) par l’application précédente.
L’élément x ? y est appelé composé de x par y via ?.
Les lois de composition interne sont généralement notées ?, >, ⊥, +, ×, ◦, ...
Exemple L’union et l’intersection sont des lois de composition interne sur P(E).
Exemple La composition des applications est une loi de composition interne sur F(E, E).
Définition
On appelle magma tout couple (E, ?) formé d’un ensemble E et d’une loi de composition
interne ? sur E.
Exemple (C, +), (C, ×), (E E , ◦), (P(E), ∪), (P(E), ∩) sont des magmas usuels.
71
4.1. LOI DE COMPOSITION INTERNE
∀x, y ∈ A, x ? y ∈ A
Exemple S(E) est une partie stable de (F(E, E), ◦) car la composée de deux permutations est une
permutation.
Définition
Soit A une partie stable d’un magma (E, ?). L’application restreinte
(
A×A→A
(x, y) 7→ x ? y
définit une loi de composition interne sur A appelée loi de composition interne induite par ?
sur A.
On la note ?A , ou plus couramment ?, et on peut ainsi donner un sens au magma (A, ?).
Exemple (N, +), (N, ×), (Z, +), (Z, ×), (Q, +), (Q, ×), (R, +), (R, ×) et (S(E), ◦) sont de nouveaux
magmas usuels.
Définition
Soit ? une loi de composition interne sur E. On dit que deux éléments a et b de E commutent
pour la loi ? si
a?b=b?a
Exemple Dans (C, +) et dans (C, ×) tous les éléments commutent deux à deux.
http://mp.cpgedupuydelome.fr 72 cbna
CHAPITRE 4. STRUCTURES ALGÉBRIQUES
Exemple Dans (F(E, E), ◦) ce n’est plus le cas mais néanmoins on peut dire que tout élément de
F(E, E) commute avec IdE .
Définition
Une loi de composition interne ? sur E est dite commutative si tous les éléments de E
commutent deux à deux.
Le magma (E, ?) est alors dit commutatif.
Exemple (C, +), (C, ×), (P(E), ∪), (P(E), ∩) sont des magmas commutatifs.
Proposition
Si A est une partie stable d’un magma commutatif (E, ? ) alors (A, ? ) est aussi commutatif.
dém. :
Si on a la propriété
∀a, b ∈ E, a ? b = b ? a
on a a fortiori la suivante
∀a, b ∈ A, a ? b = b ? a
car A ⊂ E.
4.1.3.2 Associativité
Remarque Si ? est une loi de composition interne sur E, considérer l’élément a ? b ? c est ambigu car
l’opération ? n’engage a priori que deux éléments. Ainsi a ? b ? c ne peut être compris qu’avec un
parenthèsage (a ? b) ? c ou a ? (b ? c) spécifiant comment est organisée l’opération.
Définition
Une loi de composition interne ? sur E est dite associative si
∀a, b, c ∈ E, (a ? b) ? c = a ? (b ? c)
Exemple (C, +), (C, ×), (F(E, E), ◦), (P(E), ∪), (P(E), ∩) sont des magmas associatifs.
http://mp.cpgedupuydelome.fr 73 cbna
4.1. LOI DE COMPOSITION INTERNE
Exemple Le produit vectoriel définit une loi de composition interne ni commutative, ni associative sur
l’ensemble des vecteurs de l’espace.
Proposition
Si A est une partie stable d’un magma associatif (E, ?) alors (A, ?) est aussi associatif.
dém. :
Si on a la propriété
∀a, b, c ∈ E, (a ? b) ? c = a ? (b ? c)
on a a fortiori celle-ci
∀a, b, c ∈ A, (a ? b) ? c = a ? (b ? c)
puisque A ⊂ E.
donc p p
x ? (y ? z) = (x2 + y 2 ) + z 2 = x2 + y 2 ? z = (x ? y) ? z
La loi ? et associative.
Les parties R+ et [1, +∞[ sont des exemples de parties stables de (R, ? ).
Définition
On appelle élément régulier de (E, ?) tout élément x de E vérifiant
et
a ? x = b ? x ⇒ a = b [régularité à droite]
http://mp.cpgedupuydelome.fr 74 cbna
CHAPITRE 4. STRUCTURES ALGÉBRIQUES
Définition
On appelle élément neutre de (E, ?) tout élément e de E vérifiant
∀x ∈ E, e ? x = x et x ? e = x
Proposition
Si (E, ? ) possède un élément neutre celui-ci est unique.
dém. :
Soient e, e0 deux éléments neutres pour ?.
On a e ? e0 = e car e0 est neutre à droite et e ? e0 = e0 car e est neutre à gauche.
On en déduit que e = e0 .
Définition
On appelle monoïde tout magma (E, ?) associatif et possédant un élément neutre.
Si de plus la loi ? est commutative, le monoïde (E, ?) est dit commutatif.
http://mp.cpgedupuydelome.fr 75 cbna
4.1. LOI DE COMPOSITION INTERNE
Proposition
Si x est symétrisable alors l’élément y ∈ E vérifiant x ? y = y ? x = e est unique.
dém. :
Soient y et y 0 solutions.
On a
y = y ? e = y ? (x ? y 0 ) = (y ? x) ? y 0 = e ? y 0 = y 0
Définition
Si x est symétrisable, l’unique élément y de E tel que x ? y = y ? x = e est appelé symétrique
de x et on le note
sym(x)
Exemple Dans (C, ×), tout x non nul est symétrisable et sym(x) = 1/x.
En revanche 0 n’est pas symétrisable.
Proposition
Si x est symétrisable alors sym(x) l’est aussi et
sym(sym(x)) = x
dém. :
Si x est symétrisable on a x ? sym(x) = sym(x) ? x = e donc sym(x) est symétrisable et sym(sym(x)) =
x.
Proposition
Si x et y sont symétrisables alors x ? y l’est aussi et
http://mp.cpgedupuydelome.fr 76 cbna
CHAPITRE 4. STRUCTURES ALGÉBRIQUES
dém. :
Posons z = sym(y) ? sym(x).
On a
(x ? y) ? z = x ? y ? sym(y) ? sym(x) = x ? sym(x) = e
et de même z ? (x ? y) = e.
Attention : Il faut être attentif à l’inversion des termes lorsque la loi ? n’est pas commutative !
Remarque L’ensemble des éléments symétrisables est une partie stable d’un monoïde.
Proposition
Si x est un élément symétrisable de (E, ?) alors x est régulier.
dém. :
Soient a, b ∈ E. Supposons x ? a = x ? b.
En composant à gauche avec le symétrique de x, on obtient
sym(x) ? x ? a = sym(x) ? x ? b
et donc
e?a=e?b
i.e. a = b. Ainsi x est régulier à gauche et de même on obtient x régulier à droite.
x?n = x ? x ? . . . ? x ( n termes)
Proposition
∀p, q ∈ N, x?p ? x?q = x?(p+q) et (x?p )?q = x?(pq) .
dém. :
Il suffit de dénombrer le nombre de terme x composé dans chacun des membres.
Attention : En général (x ? y)?p 6= x?p ? y ?p .
En effet : (x ? y)?p = (x ? y) ? (x ? y) ? . . . ? (x ? y)
et x?p ? y ?p = (x ? x ? . . . ? x) ? (y ? y ? . . . ? y).
http://mp.cpgedupuydelome.fr 77 cbna
4.1. LOI DE COMPOSITION INTERNE
Exemple On peut définit une loi ? sur R2 par produit des structures (R, +) et (R, ×)
La loi ? est alors définie par
(x, y) ? (x0 , y 0 ) = (x + x0 , yy 0 )
Proposition
Si (E, >) et (F, ⊥) sont des monoïdes (resp. des monoïdes commutatifs) de neutre e et f alors
(E × F, ?) est un monoïde (resp. un monoïde commutatif) d’élément neutre ε = (e, f ).
De plus, un élément (x, y) de E × F est symétrisable si, et seulement si, x et y le sont et alors
dém. :
Par définition de la loi ? sur E × F , on a
http://mp.cpgedupuydelome.fr 78 cbna
CHAPITRE 4. STRUCTURES ALGÉBRIQUES
Exemple Pour la loi ? définie sur R2 dans l’exemple ci-dessus, on obtient que (R2 , ?) est un monoïde
commutatif de neutre (0, 1) et dont les éléments symétrisables sont les (x, y) avec y 6= 0, de symétrique
(−x, 1/y).
Exemple On définit une addition sur R2 par structure produit de la façon suivante :
(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 )
Exemple On définit une multiplication sur R3 par structure produit de la façon suivante :
(x, y, z) + (x0 , y 0 , z 0 ) = (x + x0 , y + y 0 , z + z 0 )
Proposition
Si (E, ? ) est un monoïde (resp. un monoïde commutatif) d’élément neutre e alors (E n , ?) est
un monoïde (resp. un monoïde commutatif) d’élément neutre ε = (e, . . . , e).
De plus, un élément x = (x1 , . . . , xn ) est symétrisable si, et seulement si, chaque xi l’est, et
alors
sym(x) = (sym(x1 ), . . . , sym(xn ))
http://mp.cpgedupuydelome.fr 79 cbna
4.1. LOI DE COMPOSITION INTERNE
dém. :
Par définition de la loi ? sur E n , on a
(x1 , . . . , xn )?(y1 , . . . , yn ) = (x1 ?y1 , . . . , xn ?yn ) = (y1 ?x1 , . . . , yn ?xn ) = (y1 , . . . , yn )?(x1 , . . . , xn )
Exemple (Rn , +) et (Cn , +) sont des monoïdes commutatif de neutres (0, . . . , 0).
Exemple Pour X = D ⊂ R et (E, ?) = (R, +) ou (R, ×), ce qui précède définit l’addition et la
multiplication sur les fonctions réelles.
http://mp.cpgedupuydelome.fr 80 cbna
CHAPITRE 4. STRUCTURES ALGÉBRIQUES
Exemple Pour X = N et (E, ?) = (R, +) ou (R, ×), ce qui précède définit l’addition et la
multiplication des suites réelles.
Proposition
Si (E, ?) est un monoïde (resp. un monoïde commutatif) d’élément neutre e alors (F(X, E), ?)
est un monoïde (resp. un monoïde commutatif) d’élément neutre ε : x 7→ e.
De plus, un élément f ∈ F(X, E) est symétrisable si, et seulement si, f (x) l’est pour chaque
x ∈ X et alors
(symf )(x) = sym(f (x))
dém. :
Pour tout x ∈ X,
et ainsi (f ? g) ? h = f ? (g ? h).
La loi ? est donc associative sur F(X, E).
Pour tout x ∈ X,
Ainsi f ? ε = ε ? f = f est donc ε est neutre pour la loi ? sur F(X, E).
Ainsi (F(X, E), ? ) est un monoïde.
Si la loi ? est commutative sur E, pour tout x ∈ X,
et donc f ? g = g ? f .
Ainsi la loi ? est commutative sur F(X, E).
Enfin, si f est un élément symétrisable de F(X, E) et si g désigne son symétrique alors pour tout x ∈ X,
donne f (x) ? g(x) = g(x) ? f (x) = e et donc f (x) est symétrisable dans E et g(x) est son symétrique.
Inversement, si f est un élément de F(X, E) tel que pour chaque x ∈ X, f (x) est symétrisable alors en
introduisant g : x 7→ sym(f (x)) on vérifie aisément f ? g = g ? f = ε ce qui donne f symétrisable.
Exemple (F(D, R), +), (F(D, R), ×), (RN , +) et (RN , ×) sont des monoïdes commutatifs.
http://mp.cpgedupuydelome.fr 81 cbna
4.1. LOI DE COMPOSITION INTERNE
Attention : La notation additive n’est exploitée que pour les monoïdes commutatifs.
En revanche, la notation multiplicative ne sous entend pas la commutativité du produit : plus tard, on
aura l’occasion dans le cadre matriciel de manipuler un produit non commutatif.
Lorsqu’on adopte la notation additive ou multiplicative d’un monoïde, on adopte les conventions de
notations du tableau ci-dessous :
Notation par défaut Notation additive Notation multiplicative
? + × ou .
e 0 1
x?y x+y xy ou x.y
sym(x) −x x−1
n n
n X Y
? xi xi xi
i=1
i=1 i=1
x?n n.x xn
(−1).x = −x
∀n ∈ N? , xn = x.x...x ( n termes) et x0 = 1
x?−1 = x−1
http://mp.cpgedupuydelome.fr 82 cbna
CHAPITRE 4. STRUCTURES ALGÉBRIQUES
(xy)−1 = y −1 x−1
Remarque En notation par défaut, il est très fréquent, si le contexte le permet, de noter xn au lieu de
x ? n . En particulier le symétrique de x se retrouve noté x−1 et l’on a la formule
(x ? y)−1 = y −1 ? x−1
4.2 Groupes
4.2.1 Définition
Définition
On appelle groupe tout magma (G, ?) tel que
1) ? est associative ;
2) (G, ?) possède un élément neutre e ;
3) tout élément de (G, ?) est symétrisable.
Si de plus ? est commutative, le groupe (G, ?) est dit commutatif ou plus couramment abélien.
Exemple (C, +) est un groupe abélien de neutre 0. En effet l’addition est commutative, associative, 0
en est élément neutre et tout élément est symétrisable dans (C, +).
De même (R, +), (Q, +) et (Z, +) sont des groupes abéliens.
En revanche (N, +) n’en est pas un, les naturels non nuls ne sont pas symétrisables dans (N, +).
Proposition
Si (G, >) et (G0 , ⊥) sont des groupes de neutres e et e0 alors G × G0 muni de la loi produit ?
est un groupe de neutre (e, e0 ).
http://mp.cpgedupuydelome.fr 83 cbna
4.2. GROUPES
dém. :
Grâce aux propriétés démontrées sur la loi produit sur G × G0 .
Proposition
Si (G, ?) est un groupe de neutre e alors (Gn , ?) est un groupe de neutre (e, . . . , e).
dém. :
Grâce aux propriétés démontrées sur la loi produit sur Gn .
Exemple (Rn , +) et (Cn , +) sont des groupes abéliens de neutre (0, . . . , 0).
Proposition
Si (G, ?) est un groupe de neutre e alors (F(X, G), ?) est un groupe de neutre x 7→ e.
dém. :
Grâce aux propriétés démontrées sur la loi produit sur F(X, G).
Exemple (F(D, R), +) et (RN , +) sont des groupes abéliens de neutres la fonction nulle 0̃ : x 7→ 0 et
la suite nulle (0)n∈N .
Exemple L’addition définit une loi de composition interne sur l’ensemble P des vecteurs du plan.
(P, +) est alors un groupe abélien de neutre le vecteur nul ~o.
On a la même propriété en considérant les vecteurs de l’espace.
a ? b = a + b − ab
et de même
(a ? b) ? c) = a + b + c − (ab + bc + ac) + abc
donc la loi ? est associative.
http://mp.cpgedupuydelome.fr 84 cbna
CHAPITRE 4. STRUCTURES ALGÉBRIQUES
4.2.2 Sous-groupe
4.2.2.1 Définition
Soit (G, ?) un groupe d’élément neutre e.
Définition
On appelle sous-groupe de (G, ? ) toute partie H de G vérifiant :
1) e ∈ H ;
2) ∀x ∈ H, sym(x) ∈ H [stabilité par passage au symétrique] ;
3) ∀x, y ∈ H, x ? y ∈ H [stabilité par composition].
Théorème
Si H est un sous-groupe de (G, ?) alors (H, ?) est un groupe.
Si de plus si le groupe (G, ?) est abélien alors (H, ?) l’est aussi.
dém. :
H est stable pour la loi ?, cela permet de donner un sens à (H, ?) en considérant la loi obtenue par
restriction de la loi sur G.
? est associative sur G donc aussi sur H.
e est élément neutre de (G, ?) et e ∈ H donc e est aussi neutre de (H, ?).
Enfin, pour tout x ∈ H, comme sym(x) ∈ H et puisque x ? sym(x) = sym(x) ? x = e, on peut dire que
x est un élément symétrisable de (H, ?).
Proposition
Soit H une partie de G.
On a équivalence entre :
(i) H est un sous-groupe de (G, ?) ;
(ii) H 6= ∅ et ∀x, y ∈ H, x ? sym(y) ∈ H.
http://mp.cpgedupuydelome.fr 85 cbna
4.2. GROUPES
dém. :
(i) ⇒ (ii) immédiat
(ii) ⇒ (i) Supposons H 6= ∅ et ∀x, y ∈ H, x ? sym(y) ∈ H.
Puisque H 6= ∅, on peut introduire un élément x dans H et on a alors e = x ? sym(x) ∈ H.
Puisque e ∈ H, pour tout x ∈ H, sym(x) = e ? sym(x) ∈ H. Enfin, pour tout x, y ∈ H, x ? y =
x ? sym(sym(y)) ∈ H car sym(y) ∈ H.
Proposition
Soient H1 , H2 deux sous-groupes de (G, ?).
H1 ∩ H2 est un sous-groupe de (G, ?).
dém. :
H1 ∩ H2 ⊂ G.
e ∈ H1 ∩ H2 car e ∈ H1 et e ∈ H2 puisque H1 et H2 sont des sous-groupes.
Pour x, y ∈ H1 ∩ H2 , x ? y −1 ∈ H1 ∩ H2 car x ? y −1 ∈ H1 puisque H1 est un sous-groupe et de même
x ? y −1 ∈ H2 .
http://mp.cpgedupuydelome.fr 86 cbna
CHAPITRE 4. STRUCTURES ALGÉBRIQUES
× 1 j j2
1 1 j j2
j j j2 1
j2 j2 1 j
Pour n = 4, U4 = {1, i, −1, −i}.
× 1 i −1 −i
1 1 i −1 −i
i i −1 −i 1
−1 −1 −i 1 i
−i −i 1 i −1
http://mp.cpgedupuydelome.fr 87 cbna
4.2. GROUPES
dém. :
−1
H0 ⊂ S(P), IdP = HO,1 et pour λ, µ 6= 0, HO,λ ◦ (HO,µ ) = HO,λ/µ avec λ/µ 6= 0 donc HO,λ ◦
−1
(HO,µ ) ∈ HO .
Proposition
Pour O ∈ P, RO = {RotO,θ /θ ∈ R} est un sous-groupe de (S(P), ◦).
dém. :
−1
RO ⊂ S(P), IdP = RotO,0 et pour θ, θ0 ∈ R, RotO,θ ◦ (RotO,θ0 ) = RotO,θ−θ0 ∈ RO .
On appelle isométrie du plan toute permutation f ∈ S(P) telle que ∀A, B ∈ P, d(f (A), f (B)) =
d(AB)
Proposition
L’ensemble I des isométries du plan est un sous-groupe de (S(P), ◦).
dém. :
I ⊂ S(P), IdP est évidemment une isométrie et pour f, g ∈ I, on a pour tout A, B ∈ P, d((f ◦
g −1 )(A), (f ◦ g −1 )(B)) = d((f ◦ g −1 )(g(A)), (f ◦ g −1 )(g(B))) car g est une isométrie et ainsi d((f ◦
g −1 )(A), (f ◦ g −1 )(B)) = d(f (A), f (B) = d(A, B) car f est une isométrie.
Ainsi f ◦ g −1 est une isométrie.
4.2.3 Morphisme de groupes
Soit (G, ?), (G0 , >) et (G00 , ⊥) trois groupes d’éléments neutres e, e0 et e00 .
4.2.3.1 Définition
Définition
On appelle morphisme du groupe (G, ?) vers (G0 , >) toute application ϕ : G → G0 vérifiant :
Exemple L’application constante f : G → G définie par f (x) = e est un endomorphisme de (G, ?).
http://mp.cpgedupuydelome.fr 88 cbna
CHAPITRE 4. STRUCTURES ALGÉBRIQUES
Proposition
Soit a un élément d’un groupe (G, ?).
L’application ϕ : Z → G définie par ϕ(n) = a?n est un morphisme de groupes.
En effet ϕ(n + p) = a?(n+p) = a?n ? a?p = ϕ(n) ? ϕ(p).
4.2.3.2 Propriétés
Proposition
Pour f : G → G0 un morphisme de groupes, on a
f (e) = e0
∀x ∈ G, ∀p ∈ Z, f (x?p ) = (f (x))>p
dém. :
D’une part f (e ? e) = f (e) et d’autre part f (e ? e) = f (e) > f (e) donc
f (e) > f (e) = f (e) = f (e) > e0
d’où f (e) = e0 .
On a
f (x)>f (sym(x)) = f (x ? sym(x)) = f (e) = e0
En composant cette relation à droite avec sym(f (x)), on obtient f (sym(x)) = sym(f (x)).
Par récurrence sur n ∈ N? , on montre facilement
n n
f ( ? xi ) = > f (xi )
i=1 i=1
?0 0 >0
Pour p = 0, f (x ) = f (e) = e = (f (x)) .
p p
Pour p ∈ N , f (x ) = f ( ? x) = > f (x) = f (x)>p .
? ?p
i=1 i=1
Pour p ∈ Z?− , on peut écrire p = −n avec n ∈ N? et on a
f (x?p ) = f (sym(x?n )) = sym (f (x?n )) = sym f (x)>n = f (x)>p .
Proposition
Si f : G → G0 et g : G0 → G00 sont deux morphismes de groupes alors g ◦ f : G → G00 est
aussi un morphisme de groupes.
dém. :
Pour x, y ∈ G,
(g ◦ f )(x ? y) = g (f (x ? y)) = g (f (x)>f (y)) = g(f (x))⊥g(f (y)) = (g ◦ f )(x)⊥(g ◦ f )(y)
Remarque On peut en particulier souligner que la composée de deux endomorphismes de groupe (resp.
isomorphismes, automorphismes) en est un.
http://mp.cpgedupuydelome.fr 89 cbna
4.2. GROUPES
Proposition
Si f : G → G0 est un isomorphisme de groupes alors f −1 : G0 → G l’est aussi.
dém. :
Pour tout x0 , y 0 ∈ G0 , il existe x, y ∈ G tel que f (x) = x0 et f (y) = y 0 .
On a alors
Ainsi f −1 est un morphisme de groupes et il est de plus bien connu que f −1 est bijective.
Proposition
Soit f : G → G0 un morphisme de groupes.
Si H est un sous-groupe de (G, ?) alors f (H) est un sous-groupe de (G0 , >).
Si H 0 est un sous-groupe de (G0 , >) alors f −1 (H) est un sous-groupe de (G, ?).
dém. :
Soit H un sous-groupe de (G, ?).
f (H) = {f (x)/x ∈ H} est une partie de G0 .
D’une part e0 ∈ f (H) car e0 = f (e) avec e ∈ H.
D’autre part, pour x0 , y 0 ∈ f (H), on peut écrire x0 = f (x) et y 0 = f (y) avec x, y ∈ H et x0 >y 0−1 =
f (x ? y −1 ) ∈ f (H) car x ? y −1 ∈ H.
Ainsi f (H) est un sous-groupe de (G0 , >).
Soit H 0 un sous-groupe de (G0 , >).
f −1 (H 0 ) = {x ∈ G/f (x) ∈ H 0 } est une partie de G.
D’une part e ∈ f −1 (H 0 ) car f (e) = e0 ∈ H 0 .
D’autre part, pour x, y ∈ f −1 (H 0 ), on a f (x ? y −1 ) = f (x)>f (y)−1 ∈ H 0 car f (x), f (x0 ) ∈ H 0 .
Ainsi f −1 (H 0 ) est un sous-groupe de (G, ? ).
Définition
Soit f : G → G0 un morphisme de groupes.
On appelle image de f , l’ensemble Imf = f (G). C’est un sous-groupe de (G0 , >).
On appelle noyau de f , l’ensemble ker f = f −1 ({e0 }). C’est un sous-groupe de (G, ?).
http://mp.cpgedupuydelome.fr 90 cbna
CHAPITRE 4. STRUCTURES ALGÉBRIQUES
Théorème
Soit f : G → G0 un morphisme de groupes.
f est surjective si, et seulement si, Imf = G0 ,
f est injective si, et seulement si, ker f = {e}.
dém. :
La première propriété immédiate par définition de la surjectivité.
Pour la deuxième propriété, étudions les deux implications.
Supposons f injective.
Puisque f (e) = e0 et puisque e0 ne peut avoir d’autres antécédents que e à cause de l’injectivité de f , on
peut affirmer ker f = {e}.
Inversement, supposons ker f = {e}.
Soient x, y ∈ G. Si f (x) = f (y) alors f (x)>f (y)−1 = e0 et donc f (x ? y −1 ) = e0 . Ainsi x ? y −1 ∈
ker f = {e} et donc x ? y −1 = e ce qui entraîne x = y.
Ainsi f est injective.
dém. :
t~u ◦ t~v = t~u+~v .
Proposition
Pour O ∈ P, l’application λ 7→ HO,λ est un morphisme de (R? , ×) vers (S(P), ◦) d’image
HO et de noyau {1}.
dém. :
HO,λ ◦ HO,µ = HO,λµ .
Proposition
Pour O ∈ P, l’application θ 7→ RotO,θ est un morphisme de (R, +) vers (S(P), ◦) d’image
RO et de noyau 2πZ.
dém. :
RotO,θ ◦ RotO,θ0 = RotO,θ+θ0 .
4.3 Etude du groupe symétrique
4.3.1 Permutation de Nn = {1, 2, ..., n}
Définition
Pour n ∈ N? , on note Sn l’ensemble des permutations de Nn .
(Sn , ◦) est un groupe d’élément neutre IdNn = Id appelé groupe symétrique d’ordre n.
http://mp.cpgedupuydelome.fr 91 cbna
4.3. ETUDE DU GROUPE SYMÉTRIQUE
Définition
Pour σ ∈ Sn , on note
1 2 ... n
σ=
σ(1) σ(2) ... σ(n)
pour visualiser l’action de σ.
Proposition
Pour n > 3 le groupe (Sn , ◦) n’est pas commutatif.
dém. :
Soient
1 2 3 4 ... n 0 1 2 3 4 ... n
σ= et σ =
2 1 3 4 ... n 3 2 1 4 ... n
éléments de Sn .
(σ ◦ σ 0 )(1) = 3 et (σ 0 ◦ σ)(1) = 2 donc σ ◦ σ 0 6= σ 0 ◦ σ.
Ainsi le groupe (Sn , ◦) n’est pas commutatif.
4.3.2 Cycles
Soient p ∈ N tel que 2 6 p 6 n et a1 , ..., ap une liste de p éléments deux à deux distincts de Nn .
Soit c : Nn → Nn définie par :
et
∀x ∈ Nn \ {a1 , ..., ap } , c(x) = x
L’application c est une permutation de Nn .
http://mp.cpgedupuydelome.fr 92 cbna
CHAPITRE 4. STRUCTURES ALGÉBRIQUES
Définition
La permutation c est appelée cycle de longueur p (ou p-cycle).
Ce cycle est noté
c = a1 a2 ... ap
L’ensemble S = {a1 , ..., ap } est appelé support du cycle c.
Exemple Dans (S6 , ◦), pour c = 2 4 3 5 , on a
1 2 3 4 5 6
c=
1 4 5 3 2 6
alors c−1 =
Remarque Si c = a1 a2 ... ap ap ... a2 a1 .
Définition
Les cycles de longueur 2 sont appelés
transpositions.
Une transposition τ = i j a pour effet d’échanger i et j.
Remarque i j = j i donc toute transposition peut être visualisée sous la forme i j
avec 1 6 i < j 6 n.
Proposition
Si c est un cycle de longueur p alors cp = Id et c−1 = cp−1 .
dém. :
Soit c = a1 a2 ... ap un p cycle (avec des a1 , ..., ap deux à deux distincts).
c0 (a1 ) = a1 , c(a1 ) = a2 , c2 (a1 ) = a3 , ..., cp−1 (a1 ) = ap donc pour tout 1 6 k 6 p − 1, ck (a1 ) = ak+1
et par suite cp (a1 ) = c(ap ) = a1 .
Pour 2 6 k 6 p, cp (ak ) = cp (ck−1 (a1 )) = cp+k−1 (a1 ) = ck−1 (cp (a1 )) = ck−1 (a1 ) = ak
Enfin pour x ∈ Nn \ {a1 , ..., ap } , c(x) = x donc cp (x) = x.
Finalement cp = Id.
Pour n > 4, il existe dans Sn des éléments qui ne sont pas des cycles.
http://mp.cpgedupuydelome.fr 93 cbna
4.3. ETUDE DU GROUPE SYMÉTRIQUE
Proposition
Tout cycle de longueur p peut se décomposer en un produit de p − 1 transpositions.
dém. :
p = 2 : ok p = 3 : a1 a2 a3 =
a1 a2 ◦ a2 a3 p = 4: a1 a2 a3 a4 =
a1 a2 ◦ a2 a3 ◦ a3 a4
et plus généralement :
a1 a2 ... ap = a1 a2 ◦ a2 a3 ◦ ... ◦ ap−1 a4
Théorème
Toute permutation de Nn peut se décomposer en un produit d’au plus n − 1 transpositions.
dém. :
Démontrons la propriété par récurrence sur n ∈ N? .
Pour n = 1 : ok
Supposons la propriété établie au rang n > 1.
Soit σ ∈ Sn+1 et posons k = σ(n + 1).
Si k = n + 1 alors σNn ∈ Sn et peut s’écrire comme produit d’au plus n − 1 transpositions éléments de
Sn . Cette décomposition permet aussi d’écrire σ comme produit de n − 1 6 n transpositions éléments
de Sn+1 .
Si k 6= n + 1 alors considérons σ 0 = ( k + 1 n + 1 ) ◦ σ. On a σ 0 (n + 1) = n + 1 et comme
ci-dessus, σ 0 peut s’écrire comme produit d’au plus n − 1 transpositions éléments de Sn+1 . Puisque
σ = ( k + 1 n + 1 ) ◦ σ 0 , σ s’écrit comme produit d’au plus n transpositions éléments de Sn+1 .
Proposition
Toute permutation
de Nn peut se décomposer en un produit de transpositions de la forme
1 k avec 2 6 k 6 n.
dém. :
Il suffit de savoir décomposer une transposition i j pour conclure.
Si i = 1 ou j = 1 : ok
Sinon i j = 1 i ◦ 1 j ◦ 1 i .
4.3.4 Signature d’une permutation
Définition
Soient σ ∈ Sn et un couple (i, j) avec 1 6 i < j 6 n.
On dit σ réalise une inversion sur le couple (i, j) si σ(i) > σ(j).
On note I(σ) le nombre de couples (i, j) (avec 1 6 i < j 6 n ) sur lesquels σ réalise une
inversion.
Exemple I(Id) = 0.
http://mp.cpgedupuydelome.fr 94 cbna
CHAPITRE 4. STRUCTURES ALGÉBRIQUES
Pour déterminer I(σ) on compte, pour chaque terme de la seconde ligne, le nombre de termes qui le
suivent et qui lui sont inférieurs.
Ici I(σ) = 2 + 2 + 4 + 2 + 1 + 0 + 1 + 0 = 12.
Définition
On appelle signature d’une permutation σ de Sn le réel ε(σ) = (−1)I(σ) .
Exemple ε(Id) = 1.
Proposition
La signature d’une transposition vaut −1.
dém. :
Soit τ = i j avec 1 6 i < j 6 n une transposition.
1 2 ... i ... j ... n
τ=
1 2 ... j ... i ... n
I(τ ) = 0 + · · · + 0 + (j − i) + 1 + · · · + 1 + 0 + · · · + 0 = 2(j − i) − 1
1 i−1 i i+1 j−1 j n
http://mp.cpgedupuydelome.fr 95 cbna
4.3. ETUDE DU GROUPE SYMÉTRIQUE
Proposition
La signature d’un p-cycle est (−1)p−1 .
dém. :
Car un p-cycle s’écrit comme produit de p − 1 transpositions, chacune de signature −1.
Définition
Une permutation de signature 1 est dite paire.
Une permutation de signature −1 est dite impaire.
On note An l’ensemble des permutations paires de Sn .
Remarque Une permutation paire (resp. impaire) se décompose en un nombre pair (resp. impair) de
transpositions.
Proposition
An est un sous-groupe de (Sn , ◦).
dém. :
C’est le noyau du morphisme signature, c’est donc un sous-groupe.
Définition
(An , ◦) est appelé groupe alterné d’ordre n.
Proposition
Pour n > 2,
CardAn = n!/2
http://mp.cpgedupuydelome.fr 96 cbna
CHAPITRE 4. STRUCTURES ALGÉBRIQUES
dém. :
Sn est la réunion disjointe des parties An et Sn \An .
Or ces dernières sont en bijection via l’application σ 7→ τ ◦ σ où τ désigne une certaine transposition.
On en déduit CardAn = CardSn \An puis CardSn = 2CardAn .
Lemme
Pour tout σ ∈ Sn et tout i ∈ {1, 2, ..., n} il existe p ∈ N? tel que :
i, σ(i), ..., σ p−1 (i) soient deux à deux distincts et σ p (i) = i.
dém. :
L’application ϕ : N → {1, 2, ..., n} définie par ϕ(k) = σ k (i) ne peut-être injective car N est un ensemble
infini.
Par suite, il existe k 6= ` ∈ N tels que σ k (i) = σ ` (i) et on peut, quitte à échanger, supposer k < `.
On a alors σ `−k (i) = σ −k ◦ σ ` (i) = i avec ` − k ∈ N? .
Considérons maintenant l’ensemble A = {q ∈ N? /σ q (i) = i}.
D’après l’étude précédente on peut affirmer que A est une partie non vide de N? et elle possède donc un
plus petit élément p.
Pour celui-ci on a σ p (i) = i. De plus les éléments i, σ(i), ..., σ p−1 (i) sont nécessairement deux à deux
distincts.
En effet s’il existait 0 6 k < ` 6 p − 1 tels que σ k (i) = σ ` (i) alors on aurait σ `−k (i) = i avec
0 < ` − k < p ce qui contredit la minimalité de p.
Théorème
Toute permutation σ de Sn (avec n > 2 ) se décompose en un produit de cycles de supports
disjoints.
De plus cette décomposition est unique à l’ordre près des facteurs.
dém. :
Existence :
Procédons par récurrence sur n > 2.
Pour n = 2, les permutations éléments de S2 sont Id et (1, 2) ce qui permet de conclure.
Supposons l’existence établie au rang n > 2.
Soit σ ∈ Sn+1 .
Cas σ(n + 1) = n + 1
Considérons la restriction σ 0 de σ au départ de {1, 2, ..., n}.
Cette restriction σ 0 réalise une permutation de {1, 2, ..., n} car σ est une permutation de {1, 2, ..., n + 1}
qui laisse n + 1 fixe. En appliquant l’hypothèse de récurrence à σ 0 on peut décomposer cette dernière en
produit de cycles de Sn . Cette décomposition de σ 0 dans Sn se prolonge en une décomposition de σ en
cycles de Sn+1 ce qui résout le problème posé.
Cas σ(n + 1) 6= n + 1.
Considérons p ∈ N? tel que les éléments n + 1, σ(n + 1), ..., σ p−1 (n + 1) soient deux à deux distincts et
σ p (n + 1) = n + 1. Formons le cycle c = (n + 1, σ(n + 1), ..., σ p−1 (n + 1)).
Par construction, la permutation c−1 ◦ σ laisse invariants les éléments n + 1, σ(n + 1), ..., σ p−1 (n + 1).
Comme n + 1 est invariant, on peut, par l’étude précédente, décomposer c−1 ◦ σ en c1 ◦ c2 ◦ ... ◦ cr produit
de
cycles de supports disjoints. les supports de c1 , c2 , ..., cr sont disjoints de
De plus
n + 1, σ(n + 1), . . . , σ p−1 (n + 1) car ces éléments sont invariants par c−1 ◦ σ. Par suite l’écriture
http://mp.cpgedupuydelome.fr 97 cbna
4.4. ANNEAUX
et
(b>c) ? a = (b ? a)>(c ? a) [distributivité à droite]
Définition
On appelle anneau tout triplet (A, >, ?) formé d’un ensemble A et de deux lois de composition
internes > et ? tels que :
1) (A, >) est un groupe abélien ;
2) (A, ?) est un monoïde ;
3) ? est distributive sur >.
Si de plus ? est commutative, l’anneau (A, >, ?) est dit commutatif.
http://mp.cpgedupuydelome.fr 98 cbna
CHAPITRE 4. STRUCTURES ALGÉBRIQUES
Exemple (Z, +, ×), (Q, +, ×), (R, +, ×) et (C, +, ×) sont des anneaux commutatifs.
Proposition
Si (A, +, ×) est un anneau et n ∈ N? alors (An , +, ×) est un anneau de neutres 0An =
(0A , . . . , 0A ) et 1An = (1A , . . . , 1A ).
dém. :
On sait déjà que (An , +) est un groupe abélien de neutre 0An = (0A , . . . , 0A ) et (An , ×) un monoïde
de neutre 1An = (1A , . . . , 1A ). Il ne reste qu’à vérifier la propriété de distributivité ce qui est assez
immédiat.
Proposition
Si (A, +, ×) est un anneau et X un ensemble alors (F(X, A), +, ×) est un anneau de neutres
la fonction nulle constante égale à 0A et la fonction constante égale à 1A .
dém. :
On sait déjà que (F(X, A), +) est un groupe abélien de neutre 0̃ : x 7→ 0A et (F(X, A), ×) un monoïde
de neutre 1̃ : x 7→ 1A . Il ne reste qu’à vérifier la propriété de distributivité ce qui est assez immédiat.
4.4.2 Sous-anneau
Définition
On appelle sous-anneau d’un anneau (A, +, ×) toute partie B incluse dans A telle que :
1) 1A ∈ B ;
2) ∀x, y ∈ B, x − y ∈ B ;
3) ∀x, y ∈ B, xy ∈ B.
http://mp.cpgedupuydelome.fr 99 cbna
4.4. ANNEAUX
Théorème
Si B est un sous-anneau de (A, +, ×) alors (B, +, ×) est un anneau.
Si de plus (A, +, ×) est commutatif alors (B, +, ×) l’est aussi.
dém. :
Par 1) et 2) on obtient que (B, +) est un groupe abélien.
Par 3) B est stable pour × et on peut donc donner un sens à (B, ×).
× est associative sur A donc elle l’est aussi sur B.
1A est neutre pour × et 1A ∈ B donc (B, ×) possède un neutre.
× est distributive sur + sur A donc aussi sur B.
Finalement (B, +, ×) est un anneau.
Exemple Considérons
h√ i n √ o
Z 2 = a + b 2/a, b ∈ Z
h√ i
et montrons que (Z 2 , +, ×) est un anneau commutatif.
h√ i
Montrons que Z 2 un sous-anneau de l’anneau commutatif (R, +, ×).
h√ i
On a évidemment Z 2 ⊂ R.
√ h√ i
1 = 1 + 0. 2 ∈ Z 2 .
h√ i √ √
Pour x, y ∈ Z 2 , on peut écrire x = a + b 2 et y = c + d 2 avec a, b, c, d ∈ Z.
On a
√ h√ i
x − y = (a − c) + (b − d) 2 ∈ Z 2
car a − c, b − d ∈ Z
et
√ h√ i
xy = (ac + 2bd) + (ad + bc) 2 ∈ Z 2
h√ i h√ i
Ainsi Z 2 est un sous-anneau de (R, +, ×) et donc (Z 2 , +, ×) est un anneau commutatif.
Proposition
∀a, b ∈ A, (−a)b = −(ab) = a(−b).
dém. :
(−a)b + ab = (−a + a)b = 0.b = 0.
En ajoutant l’opposé de ab de part et d’autre, on obtient (−a)b = −(ab).
De même, on obtient a(−b) = −(ab).
Proposition
∀a1 , . . . , an ∈ A, ∀b ∈ B, (a1 + · · · + an )b = a1 b + · · · + an b,
∀a ∈ A, ∀b1 , . . . , bn ∈ A, a(b1 + · · · + bn ) = ab1 + · · · + abn .
dém. :
Par récurrence sur n ∈ N? . . .
Proposition
∀a, b ∈ A, ∀p ∈ Z, (p.a)b = p.(ab) = a(p.b).
dém. :
Rappelons que p.a désigne l’itéré additif d’ordre p de l’élément a.
Pour p = 0 : c’est immédiat.
Pour p ∈ N? , (p.a)b = (a + · · · + a)b = ab + · · · + ab = p.(ab).
Pour p ∈ Z?− , on peut écrire p = −n avec n ∈ N? et (p.a)b = (−n.a)b = −(n.a)b = −n.(ab) =
p.(ab).
De même, on obtient a(p.b) = p.(ab).
Proposition
∀a, b ∈ A, (a + b)2 = a2 + ab + ba + b2
et (a + b)3 = a3 + a2 b + aba + ba2 + ab2 + bab + ba2 + b3 .
dém. :
Il suffit de développer les produits. . .
Théorème
Soient a, b ∈ A tels que a et b commutent.
n
!
X n
∀n ∈ N, (a + b)n = an−k bk
k=0
k
dém. :
Par récurrence sur n ∈ N.
Pour n = 0, la propriété est immédiate sachant que ∀a ∈ A, a0 = 1A (même pour a = 0A )
Supposons la propriété établie au rang n > 0.
(a + b)n+1 = (a + b)n (a + b)
Théorème
Soient a, b ∈ A tels que a et b commutent.
n−1
X
∀n ∈ N? , an − bn = (a − b) an−1−k bk = (a − b)(an−1 + an−2 b + ... + abn−2 + bn−1 )
k=0
dém. :
En développant
n−1
X n−1
X n−1
X
(a − b) an−1−k bk = an−k bk − an−1−k bk+1
k=0 k=0 k=0
On en déduit
n−1
X n−1
X n
X
(a − b) an−1−k bk = an−k bk − an−k bk
k=0 k=0 k=1
Proposition
Si x est inversible alors x−1 est inversible et (x−1 )−1 = x.
dém. :
C’est une propriété déjà connu en terme d’éléments symétrisables.
Proposition
Si x et y sont inversibles alors xy est inversible et (xy)−1 = y −1 x−1 .
dém. :
C’est une propriété déjà connue en terme d’éléments symétrisables.
Attention : On a a = 0A ou b = 0A ⇒ ab = 0A .
En revanche la réciproque n’est pas vraie dans tous les anneaux.
Exemple Dans (R2 , +, ×), pour a = (1, 0) et b = (0, 1), on a ab = 0R2 alors que a, b 6= 0R2 .
Définition
On appelle diviseurs de zéro dans l’anneau (A, +, ×) tous éléments a, b ∈ A vérifiant ab = 0A
avec a, b 6= 0A . On dit ici que a est un diviseur de zéro à gauche et b in diviseur de zéro à
droite.
Remarque Par cette définition, on ne considère pas que 0A soit un diviseur de zéro.
Exemple Dans (R2 , +, ×) les diviseurs de zéros sont les (x, 0) et (0, x) avec x 6= 0.
Proposition
Un diviseur de zéro est non régulier pour ×.
dém. :
Si a est diviseur de zéro à gauche alors il existe b ∈ A\ {0A } tel que ab = 0A .
On a alors ab = a0A et b 6= 0A donc a n’est pas régulier à gauche...
Proposition
Les éléments inversibles de A ne sont pas diviseurs de zéro.
dém. :
Tout élément inversible est régulier.
Exemple (Z, +, ×), (Q, +, ×), (R, +, ×) et (C, +, ×) n’ont pas de diviseurs de zéro.
Proposition
Si (A, +, ×) ne possède pas de diviseurs de zéro alors
∀a, b ∈ A, ab = 0A ⇒ a = 0A ou b = 0A [implication d’intégrité]
Exemple Dans un anneau (A, +, ×) sans diviseurs de zéro, l’équation x2 = 1A possède uniquement
deux solutions 1A et −1A .
En effet
x2 = 1A ⇔ (x − 1A )(x + 1A ) = 0A ⇔ x = 1A ou x = −1A
Dans (R2 , +, ×) l’équation x2 = 1R2 possède quatre solutions :
Proposition
Dans un anneau (A, +, ×) sans diviseurs de zéro tout élément non nul est régulier.
dém. :
Soient a 6= 0A et b, c ∈ A.
Si ab = ac alors ab − ac = 0A puis a(b − c) = 0A .
Par l’implication d’intégrité, sachant a 6= 0A , on obtient b = c.
Ainsi a est régulier à gauche. De même on obtient la régularité à droite.
Définition
Un élément a ∈ A est dit idempotent si a2 = a.
Définition
Un élément a ∈ A est dit nilpotent s’il existe n ∈ N? tel que an = 0A .
4.5 Corps
4.5.1 Définition
Définition
On appelle corps tout anneau commutatif (K, +, ×) non réduit à {0K } dont tous les éléments,
sauf 0K , sont inversibles.
Proposition
Un corps n’a pas de diviseurs de zéro.
dém. :
Un corps ne possède pas de diviseurs de zéro car tout élément non nul y est inversible donc régulier.
4.5.2 Sous-corps
Soit (K, +, ×) un corps.
Définition
On appelle sous-corps d’un (K, +, ×) toute partie L de K telle que :
1) L est un sous-anneau de (K, +, ×) ;
2) ∀x ∈ L\ {0K } , x−1 ∈ L.
Théorème
Si L est un sous-corps de (K, +, ×) alors (L, +, ×) est un corps.
dém. :
Puisque L est un sous-anneau de l’anneau commutatif (K, +, ×), on peut affirmer que (L, +, ×) est un
anneau commutatif. Puisque 1K ∈ L, on peut affirmer que l’anneau (L, +, ×) n’est pas réduit à 0. Enfin
puisque l’inverse d’un élément non nul de L est élément de L, on peut affirmer que tout élément non nul
de l’anneau L est inversible dans celui-ci.
Exemple Considérons Q [i] = {a + ib/a, b ∈ Q}. Montrons que (Q [i] , +, ×) est un corps.
Pour cela montrons que Q [i] est un sous-corps du corps (C, +, ×).
On a évidemment Q [i] ⊂ C.
1 = 1 + i × 0 ∈ Q [i].
Pour x, y ∈ Q [i], on peut écrire x = a + ib et y = c + id avec a, b, c, d ∈ Q.
On a alors
x − y = (a − c) + i(b − d) ∈ Q [i]
et
xy = (ab − dc) + i(ad + bc) ∈ Q [i]
Enfin, si x 6= 0,
1 a − ib a b
x−1 = = = 2 −i 2 ∈ Q [i]
a + ib (a + ib)(a − ib) a + b2 a + b2
a b
car ,− 2 ∈ Q.
a2 + b2 a + b2
Arithmétique dans Z
5.1 Divisibilité
5.1.1 Divisibilité dans Z
Définition
Soient a, b ∈ Z. On dit que a divise b s’il existe k ∈ Z tel que b = ak.
On note alors a | b et on dit que a est un diviseur de b et que b est un multiple de a.
Exemple ∀a ∈ Z, a | 0 et 0 | a ⇒ a = 0.
Proposition
∀a, b ∈ Z, a | b ⇒ (−a) | b, a | (−b) et (−a) | (−b).
dém. :
Si a divise b alors il existe k ∈ Z tel que b = ak et alors b = (−a) × (−k), −b = a × (−k) et
−b = −a × k.
Remarque Par la deuxième propriété, on voit que le signe des entiers n’influe pas dans la relation de
divisibilité. Cela permet de se ramener systématiquement au cadre des entiers naturels.
Proposition
∀a, b ∈ Z avec b 6= 0. a | b ⇒ |a| 6 |b|.
dém. :
Si a | b alors il existe k ∈ Z tel que b = ak
Puisque b 6= 0 on a k 6= 0 et donc |k| > 1 d’où |b| = |ak| > |a|.
109
5.1. DIVISIBILITÉ
Définition
Pour a ∈ Z, on note Div(a) l’ensemble des diviseurs de a et Mul(a) l’ensemble des multiples
de a. Ainsi
Div(a) = {k ∈ Z/k | a} et Mul(a) = {ak/k ∈ Z} = aZ
Remarque Pour a 6= 0, Div(a) ⊂ [[− |a| , |a|]] et donc Div(a) est un ensemble fini.
Exemple Div(6) = {−6, −3, −2, −1, 1, 2, 3, 6}, Div(1) = {1, −1} et Div(0) = Z.
Proposition
∀a, b, c, d ∈ Z.
a | b et b | c ⇒ a | c, a | b et b | a ⇒ |a| = |b|,
a | b et a | c ⇒ a | (b + c), a | b et c | d ⇒ ac | bd,
a | b ⇒ ∀p ∈ N, ap | bp .
d | a et d | (a2 + a + 1) ⇒ d = 1
Puisque d divise a, d divise aussi a2 + a = a(a + 1) donc d divise encore 1 = (a2 + a + 1) − (a2 + a).
Or le seul naturel divisant 1 est 1 donc d = 1.
S = {3, 4, 6, 1, 0, −2}
xy + 1 = 3x + y ⇔ (x − 1)(y − 3) = 2
Théorème
Pour tout a ∈ Z et b ∈ N? il existe un unique couple (q, r) vérifiant
a = bq + r et 0 6 r < b
Proposition
Soit a ∈ Z et b ∈ N? , on a équivalence entre :
(i) b | a ;
(ii) le reste de la division euclidienne de a par b est nul.
dém. :
(i) ⇒ (ii) : Si b | a alors il existe k ∈ Z tel que a = bk
On peut alors écrire a = bq + r avec 0 6 r < b en prenant q = k et r = 0.
(ii) ⇒ (i) : Si (ii) alors la division euclidienne de a par b s’écrit a = bq + 0 d’où b | a.
Définition
Soient a, b ∈ Z. On dit que a est congru à b modulo n si n divise b − a. On note alors
a=b [n]
Ainsi
a=b [n] ⇔ ∃k ∈ Z, a = b + k.n
Remarque n | a ⇔ a = 0 [n]
Proposition
Pour tout a ∈ Z, il existe un unique r ∈ {0, 1, . . . , n − 1} tel que a = r [n].
De plus r correspond au reste de la division euclidienne de a par n.
dém. :
Existence : Réaliser la division euclidienne de a par n.
Unicité : Si r, r0 sont deux solutions alors r = r0 [n] donc il existe k ∈ Z tel que r = r0 + kn.
Par suite r − r0 = kn, or −n < r − r0 < n, donc k = 0 puis r = r0 .
Proposition
∀a, b, c ∈ Z
a = b [n] ⇔ b = a [n]
a = b [n] et b = c [n] ⇒ a = c [n].
dém. :
a = b [n] ⇔ b = a [n] car n | (b − a) ⇔ n | (a − b).
et a = b [n] et b = c [n] ⇒ a = c [n] car n | (b − a) et n | (c − b) ⇒ n | (c − a)
Proposition
Soient a, a0 , b, b0 ∈ Z, tels que a = a0 [n] et b = b0 [n].
On a a + b = a0 + b0 [n], ab = a0 b0 [n], −a = −a0 [n] et ∀p ∈ N, ap = a0p [n].
Exemple Montrons
∀n ∈ N, 5 | 22n+1 + 32n+1
On a
22n+1 + 32n+1 = 2.4n + 3.4n = 0.4n = 0 [5]
Exemple Montrons
∀n ∈ N, 9 | (4n − 1 + 6n)
(1ère méthode) On peut procéder par récurrence.
La propriété est vrai pour n = 0 car 9 | 0.
Supposons la propriété vraie au rang n > 0.
et finalement 9 | 4n+1 − 1 + 6n .
Récurrence établie
(2ème méthide) On peut factoriser
4n − 1 = (4 − 1)(1 + 4 + · · · + 4n−1 )
On a alors
4n − 1 + 6n = 3 1 + 4 + · · · + 4n−1 + 2n
Or
1 + 4 + · · · + 4n−1 + 2n = n + 2n = 0
[3]
donc
3 | 1 + 4 + · · · + 4n−1 + 2n
puis
9 | (4n − 1 + 6n)
Exemple En exploitant l’écriture décimal d’un nombre, on peut énoncer les critères de divisibilités
suivants :
- un nombre est divisible par 9 si, et seulement si, la somme de ses chiffres l’est ;
- un nombre est divisible par 3 si, et seulement si, la somme de ses chiffres l’est ;
- un nombre est divisible par 10 si, et seulement si, son dernier chiffre est un 0 ;
- un nombre est divisible par 5 si, et seulement si, son dernier chiffre est un 0 ou un 5 ;
- un nombre est divisible par 2 si, et seulement si, son dernier chiffre est divisible par 2 ;
- un nombre est divisible par 4 si, et seulement si, ses deux derniers chiffres donne un nombre divisible
par 4 ;
- un nombre est divisible par 11 si, et seulement si, la somme alternée de ses chiffre est divisible par 11.
Par exemple 6567 est divisible par 11 car 6 − 5 + 6 − 7 = 0 divisible par 11.
et enfin
x53 = x32 .x16 .x4 .x
Ainsi x53 est déterminé en 8 multiplications.
Mettons en place l’algorithme sous-jacent.
Pour décomposer n en somme de puissance de 2 :
- à la main : on recherche la plus grand puissance de 2 inférieure àn, on la retire de n et on recommence
avec le nombre obtenu ;
- avec l’ordinateur : on procède à l’envers :
si n est pair on écrit n = 2m,
sinon on écrit n = 1 + 2m.
Dans les deux cas, on décompose m.
Algorithme :
Argument : n.
Tant que n 6= 0 faire :
Si n pair alors n ← n/2, afficher(0)
Sinon n ← (n − 1)/2, afficher(1)
Fin Si
Fin Tant que.
Fin.
n 53 26 13 6 3 1
Affichage 1 0 1 0 1 1
Arguments : x, n.
p←1
Tant que n 6= 0 faire :
Si n est pair alors n ← n/2
Sinon n ← (n − 1)/2, p ← p × x
Fin Si.
x ← x × x.
Fin Tant que.
Afficher p.
Fin.
n 53 26 13 6 3 1 0
p 1 α α α.α4 α.α4 α.α4 .α16 α.α4 .α16 .α32
x α α2 α4 α8 α16 α32 α64
ln n
Remarque En général il faut au plus 2E multiplications.
ln 2
Proposition
Soient a, b ∈ Z tels que (a, b) 6= (0, 0) l’ensemble Div(a, b) possède un plus grand élément.
dém. :
Div(a, b) ⊂ Z et Div(a, b) 6= ∅ car 1 ∈ Div(a, b).
∀d ∈ Div(a, b) on a d | a et d | b.
Si a 6= 0 alors |d| 6 |a|. Si b 6= 0 alors |d| 6 |b|.
Dans les deux cas Div(a, b) est une partie majorée de N, elle possède donc un plus grand élément.
Définition
Soient a, b ∈ Z tels que (a, b) 6= (0, 0). Le plus grand élément de Div(a, b) est appelé pgcd de
a et b. On le note pgcd(a, b) ou encore a ∧ b.
Définition
On pose pgcd(0, 0) = 0.
Proposition
∀a, b ∈ Z : pgcd(a, b) ∈ N, pgcd(a, b) = pgcd(b, a) et pgcd(a, b) = pgcd(|a| , |b|).
dém. :
Les diviseurs communs à considérer sont les mêmes.
Proposition
∀a, b ∈ Z, a | b ⇒ pgcd(a, b) = |a|.
dém. :
Pour a = 0 : a | b ⇒ b = 0 ⇒ pgcd(a, b) = |a|.
Pour a 6= 0 : Si a | b alors Div(a) ⊂ Div(b) et Div(a, b) = Div(a) de plus grand élément |a|.
pgcd(a, b) = pgcd(b, r)
dém. :
Cas a = b = 0 : ok
Cas (a, b) 6= (0, 0) : il suffit d’observer par opérations sur la divisibilité que Div(a, b) = Div(b, r).
Remarque Si r = 0 alors pgcd(a, b) = pgcd(b, 0) = b.
Si r 6= 0 alors pgcd(a, b) = pgcd(b, r) = pgcd(r, s) avec s le reste de la division euclidienne de b
par r. . .
C’est le principe exploité par l’algorithme suivant :
Etape 2 :
Si a2 = 0 alors δ = pgcd(a1 , 0) = a1 .
Si a2 6= 0 alors on pose a3 le reste de la division euclidienne de a1 par a2 .
On a δ = pgcd(a2 , a3 ) et a3 < a2 .
et ainsi de suite...
Ce processus s’arrête nécessairement car : a0 > a1 > a2 > a3 > ... > 0.
Ainsi il existe m ∈ N tel que am+1 = 0 et alors δ = pgcd(am , am+1 ) = pgcd(am , 0) = am .
Finalement le pgcd cherché est le dernier reste non nul.
Exemple Pour a = 24 et b = 9 :
24 = 9 × 2 + 6, 9 = 6 × 1 + 3 et 6 = 3 × 2 + 0. Le pgcd de 24 et 9 vaut 3
Remarque D’un point de vue informatique, l’algorithme d’Euclide peut être rédigé ainsi :
Arguments : a et b.
x ← max(|a| , |b|), y ← min(|a| , |b|).
Tant que y 6= 0 faire :
r ← reste de la division euclidienne de x par y,
x ← y et y ← r
Fin tant que
Afficher x.
Fin.
pgcd(a, b) = au + bv
et
a0 = q1 a1 + a2 , . . . , am−2 = qm−1 am−1 + am et am−1 = qm am + 0
On peut écrire a0 = au0 + bv0 avec u0 , v0 ∈ Z
On peut écrire a1 = au1 + bv1 avec u1 , v1 ∈ Z.
a2 = a0 − a1 q1 = a(u0 − q1 u1 ) + b(v0 − v1 q1 )
Proposition
∀a, b ∈ Z, ∀λ ∈ N, pgcd(λa, λb) = λpgcd(a, b).
dém. :
Posons δ = pgcd(a, b) et d = pgcd(λa, λb).
δ | a et δ | b donc λδ | d.
δ = au + bv, λδ = λau + λbv et donc d | λδ.
5.2.5 PPCM de deux entiers
Définition
Soient a, b ∈ Z. Tout m ∈ Z tel que a | m et b | m est appelé multiple commun à a et b.
L’ensemble des multiples communs à a et b est noté Mul(a, b). Ainsi
Exemple 0, ab ∈ Mul(a, b)
Exemple Les multiples communs à 6 et 8 sont Mul(6, 8) = {0, 24, 48, . . . , −24, −48, . . .} = Mul(24)
Proposition
Soient a, b ∈ Z? , l’ensemble Mul(a, b) ∩ N? possède un plus petit élément.
dém. :
Puisque |ab| ∈ Mul(a, b) ∩ N? , l’ensemble Mul(a, b) ∩ N? est une partie non vide de N, elle admet donc
un plus petit élément.
Définition
Soient a, b ∈ Z tels que a 6= 0 et b 6= 0, le plus petit élément de Mul(a, b) ∩ N? est appelé
ppcm de a et b. On le note ppcm(a, b) ou a ∨ b.
Définition
Si a = 0 ou b = 0, on pose ppcm(a, b) = 0.
Proposition
∀a, b ∈ Z, ppcm(a, b) ∈ N, ppcm(a, b) = ppcm(b, a) et ppcm(a, b) = ppcm(|a| , |b|).
dém. :
Les multiples communs à considérer sont les mêmes. . .
Proposition
∀a, b ∈ Z, a | b ⇒ ppcm(a, b) = |b|
dém. :
Si b = 0 alors ppcm(a, b) = ppcm(a, 0) = 0 = |b|.
Si b 6= 0 alors si a | b on a Mul(b) ⊂ Mul(a) et Mul(a, b) = Mul(b) Mul(a, b) ∩ N? = Mul(b) ∩ N? de
plus petit élément |b|.
Théorème
∀a, b ∈ Z, ∀m ∈ Z, a | m et b | m ⇔ ppcm(a, b) | m.
dém. :
(⇐) : Immédiat par transitivité de la relation de divisibilité (⇒) : Si a = 0 ou b = 0 : ok.
Sinon, posons δ = pgcd(ppcm(a, b), m).
a | m et a | ppcm(a, b) donc a | δ. De même b | δ donc ppcm(a, b) 6 δ.
Or δ | ppcm(a, b) 6= 0 donc δ = ppcm(a, b) puis ppcm(a, b) = δ | m.
Corollaire
Mul(a, b) = Mul(ppcm(a, b)).
Proposition
∀a, b ∈ Z, ∀λ ∈ N, ppcm(λa, λb) = λppcm(a, b).
dém. :
Cas λ = 0 : ok
Cas λ 6= 0 :
Posons m = ppcm(λa, λb) et µ = ppcm(a, b).
a | µ et b | µ donc λa | λµ et λb | λµ puis m | λµ.
Puisque λa | m on a λ | m et donc on peut écrire m = λm0 .
λa | λm0 et λ 6= 0 donne a | m0 . De même b | m0 d’où µ | m0 puis λµ | m.
Théorème
∀a, b ∈ Z, pgcd(a, b)ppcm(a, b) = |ab|.
dém. :
Si a = 0 ou b = 0 alors ppcm(a, b) = 0 et la relation proposée est vraie.
Supposons désormais a, b 6= 0.
Posons δ = pgcd(a, b) et µ = ppcm(a, b).
Puisque δ divise a et b, on peut écrire a = δa0 et b = δb0 avec a0 , b0 ∈ Z. Considérons alors l’entier
m = δa0 b0 = ab0 = a0 b. Les entiers a et b divisent m donc µ divise m puis δµ divise δm = ab.
Inversement, puisque ab est multiple de µ, on peut écrire ab = µn. Or µ est un multiple de a donc on
peut écrire µ = ac. La relation ab = acn donne alors b = cn et donc n divise b. De façon analogue, on
obtient n divise a et donc n divise δ. On en déduit que ab = µn divise µδ.
Puisque ab et µδ se divisent mutuellement, on a |ab| = δµ.
Rq :Ce résultat permet de calculer ppcm(a, b) puisqu’on sait déjà calculer pgcd(a, b)
5.3 Nombres premiers entre eux
5.3.1 Définition
Définition
Soient a, b ∈ Z. On dit que a et b sont premiers entre eux s’ils n’ont pas d’autres diviseurs
communs que 1 et −1.
Proposition
Soient a, b ∈ Z. On a équivalence entre :
(i) a et b sont premiers entre eux ;
(ii) pgcd(a, b) = 1 ;
(iii) ppcm(a, b) = |ab|.
dém. :
(i) ⇔ (ii) car Div(a, b) = Div(pgcd(a, b))
(ii) ⇔ (iii) car pgcd(a, b)ppcm(a, b) = |ab|
Remarque Si a ∧ b = 1 alors
Exemple 1 ∧ a = 1.
Attention : a ne divise pas b et b ne divise pas a n’entraîne pas que a et b sont premiers entre eux.
Proposition
Soient a, b, a0 , b0 ∈ Z.
Si a0 | a, b0 | b et a ∧ b = 1 alors a0 ∧ b0 = 1.
dém. :
On introduit δ = pgcd(a0 , b0 ).
Par transitivité de la divisibilité, on obtient δ | a, δ | b donc δ | pgcd(a, b) = 1.
Proposition
Soient a, b, c ∈ Z.
a ∧ b = 1 et a ∧ c = 1 ⇒ a ∧ bc = 1
dém. :
Supposons a premier avec b et c.
Il existe des entiers u, v, w, t tel que au + bv = 1 et aw + ct = 1.
En faisant le produit de ces deux relations, on obtient a(auw + bvw + cut) + bc(wt) = 1.
Par le théorème de Bézout, on peut conclure a ∧ (bc) = 1.
Exemple On a
∀n ∈ Z, n ∧ (n2 − 1) = 1
En effet n ∧ (n − 1) = 1 et n ∧ (n + 1) = 1.
Proposition
Si a ∧ b1 = . . . = a ∧ bn = 1 alors a ∧ (b1 . . . bn ) = 1.
Si a ∧ b = 1 alors
∀n, m ∈ N, an ∧ bm = 1
dém. :
Il suffit de raisonner par récurrence.
Théorème
Soient a, b, c ∈ Z.
a | bc et a ∧ b = 1 ⇒ a | c
dém. :
Puisque a et b sont premiers entre eux, on peut écrire au + bv = 1.
On a alors c = acu + bcv et puisque a | bc, on obtient a | c.
Exemple 4 | 3n ⇒ 4 | n car 4 ∧ 3 = 1.
En revanche 6 | 8n n’entraîne pas que 6 | n..
On sait ! !
n n n−1
=
p p p−1
donc ! !
n n−1
p =n
p p−1
puis !
n
n|p
p
Or p ∧ n = 1 donc, par le théorème de Gauss,
!
n
n|
p
Exemple Soient a, b, c ∈ Z tels que a ∧ b = 1. Montrons que pgcd(a, bc) = pgcd(a, c).
Posons d = pgcd(a, bc) et δ = pgcd(a, c).
Puisque δ | a et δ | bc, on a δ | d.
Inversement d | a et d | bc.
Puisque a ∧ b = 1, on a d ∧ b = 1 car d divise a.
Sachant d | bc, par le théorème de Gauss, on obtient d | c, puis finalement d | δ.
Par double divisibilité d = δ.
Théorème
Soient a, b, c ∈ Z.
a | c, b | c et a ∧ b = 1 ⇒ ab | c
dém. :
a | c = bk et a ∧ b = 1 donc a | k ce qui permet d’écrire k = a` puis c = ab`.
Exemple 4 | n et 3 | n ⇒ 12 | n car 4 ∧ 3 = 1.
En revanche 4 | n et 6 | n n’entraînent pas que 24 | n.
Proposition
Si a1 | b, . . . , an | b et a1 , . . . , an deux à deux premiers entre eux alors a1 . . . an | b.
dém. :
Par récurrence sur n ∈ N? .
Pour n = 1 : ok.
Supposons la propriété établie au rang n > 1.
Soient a1 , . . . , an , an+1 deux à deux premiers entre eux tels que a1 | b, . . . , an | b, an+1 | b.
Par l’hypothèse de récurrence : a1 ...an | b.
De plus an+1 | b et a1 . . . an ∧ an+1 = 1 donc a1 ...an an+1 | b.
Récurrence établie.
5.3.4 Applications
5.3.4.1 Factorisation du pgcd
Théorème
Soient a, b ∈ Z, en notant δ = pgcd(a, b) on peut écrire :
a = δa0 et b = δb0 avec a0 , b0 ∈ Z tels que pgcd(a0 , b0 ) = 1.
dém. :
Si (a, b) = (0, 0) : ok
Si (a, b) 6= (0, 0) alors δ 6= 0.
Les couples (x0 , y 0 ) solutions de x0 y 0 = 12 sont (1, 12), (2, 6), (3, 4), ...
Parmi ceux-ci, (2, 6) et (6, 2) sont à exclure car x0 ∧ y 0 = 1.
Finalement
(x, y) ∈ {(10, 120), (30, 40), (40, 30), (120, 10)}
Vérification : ok
Théorème
∀r ∈ Q, ∃!(p, q) ∈ Z × N? , r = p/q et p ∧ q = 1
Ce rapport p/q est appelé représentant irréductible du nombre rationnel r.
dém. :
Existence : Soit r ∈ Q, il existe (a, b) ∈ Z × N? tel que r = a/b.
Posons δ = pgcd(a, b). On peut écrire a = δp et b = δq avec p ∧ q = 1.
On a alors
a δp p
r= = =
b δq q
de la forme voulue.
Unicité : Soient (p, q) et (p0 , q 0 ) deux couples solutions.
p/q = p0 /q 0 donne pq 0 = p0 q.
Puisque q 0 | p0 q et q 0 ∧ p0 = 1 on a q 0 | q.
De même q | q 0 donc q = q 0 puis p = p0 .
√ √
Exemple ∀n ∈ N, n ∈ Q ⇔ n ∈ N.
Ainsi la racine carrée d’un entier est soit entière, soit irrationnelle.
( ⇐ ) ok √
( ⇒ ) Si n = p/q alors q 2 n = p2 et donc q 2 | p2 = p2 × 1.
Or q 2 ∧ p2 = 1 donc q 2 | 1 puis q 2 = 1.
√
Remarque Ainsi 2 ∈ / Q car il n’existe pas de m ∈ N tel que 2 = m2 .
= m√ ⇒√1 <√m2√< 4√puis 1 < m < 2 ce qui est impossible avec m ∈ N.
En effet 2 √ 2
De même 3, 5, 6, 7, 8, 10 ∈ / Q.
Définition
On appelle facteur premier d’un entier n tout p ∈ P tel que p | n.
Proposition
Tout n > 2 possède au moins un facteur premier.
dém. :
Par récurrence forte sur n > 2.
Pour n = 2 : ok
Supposons la propriété établie jusqu’au rang n > 2.
Si n + 1 est premier, le résultat est établie au rang n + 1.
Si n + 1 est composé alors n + 1 est divisible par un certain d tel que 2 6 d 6 n.
Par hypothèse de récurrence forte, d est divisible par un nombre premier et donc n + 1 est divisible par
ce même nombre premier.
Récurrence établie.
√
Remarque Si n est composé alors il possède un facteur premier p 6 n.
Proposition
P est infini.
dém. :
Par l’absurde, supposons que P soit un ensemble fini.
En notant N sont cardinal, on peut indexer les éléments de P pour écrire : P = {p1 , . . . , pN }.
Considérons alors n = p1 . . . pN + 1 > 2.
Par la proposition précédente, n est divisible par un certain nombre premier p.
Puisque p ∈ P, il existe i ∈ {1, . . . , N } tel que pi | n. Or pi | p1 . . . pN donc pi | n − p1 . . . pN = 1.
C’est absurde.
Proposition
√
Soit n > 2, si n est composé alors n possède un diviseur d avec 2 < d 6 n.
dém. :
Si n = ab alors, quitte à permuter, on peut supposer a 6 b et alors a est un diviseur de n vérifiant
a2 6 ab 6 n.
√
Remarque Si n est composé alors il possède un facteur premier p 6 n.
Le crible d’Eratosthène permet de déterminer les premiers nombres premiers par élimination des nombres
composés. On figure dans un tableau, les entiers allant par exemple de 1 à 100.
- on élimine 1 qui est à part ;
- 2 est un nombre premier et on élimine tous les multiples de 2 qui sont, de fait, des nombres composés ;
- le premier entier restant, ici 3, est alors un nombre premier et on élimine tous ses multiples ;
- le premier entier restant, maintenant 5, est un nombre premier, on élimine tous ses multiples ;
- le premier entier restant, désormais 7, est un nombre
√ premier, on élimine tous ses multiples ;
- enfin puisque l’entier qui suit est 11 > 10 = 100, on est assuré que tous les entiers restant sont
premiers ! √
En effet les entiers composé inférieur à 100 possède un facteur premier inférieur à 100 et on donc été
éliminés.
Théorème
Soient a, b ∈ Z et p un nombre premier.
Si p | ab alors p | a ou p | b.
dém. :
Supposons p | ab.
Si p | a : ok
Sinon p ∧ a = 1 or p | ab donc p | b en vertu du théorème de Gauss.
Exemple 2 | ab ⇒ 2 | a ou 2 | b.
Corollaire
Soient a1 , . . . , an ∈ Z et p un nombre premier.
Si p | a1 . . . an alors il existe 1 6 i 6 n tel que p | ai .
dém. :
Par récurrence sur n ∈ N? .
n = pα 1 α2 αN
1 p2 . . . pN
Définition
Cette écriture est appelée décomposition primaire de l’entier n > 2.
Les p1 , . . . , pN correspondent aux facteurs premiers de n.
Exemple 12 = 22 × 3, 50 = 2 × 52 , 84 = 22 × 3 × 7.
20 × 30 , 21 × 30 , 22 × 30 , 20 × 31 , 21 × 31 et 22 × 31
dém. :
Les nombres considérés sont bien diviseurs de n.
Inversement, soit d un diviseur positif de n.
Puisque n 6= 0 on a d 6= 0.
Si d = 1 alors on peut écrire d = pβ1 1 pβ2 2 . . . pβNN avec ∀1 6 i 6 N, βi = 0.
Si d > 2 alors soit p un facteur premier de d. Puisque p | d on a p | n donc p est un facteur premier de n.
Ainsi il existe 1 6 i 6 n tel que p = pi .
Puisque tous les facteurs premiers de d sont aussi facteurs premiers de n, la décomposition primaire de d
permet d’écrire d = pβ1 1 pβ2 2 . . . pβNN avec ∀1 6 i 6 N, βi ∈ N.
De plus ∀1 6 i 6 N, pβi i | d donc pβi i | n = pα 1 α2 αN βi αi
1 p2 . . . pN puis pi | pi d’où βi 6 αi .
Finalement d est bien de la forme voulue.
Théorème
Avec les décompositions ci-dessus :
N N
min(αi ,βi ) max(αi ,βi )
Y Y
pgcd(a, b) = pi et ppcm(a, b) = pi
i=1 i=1
dém. :
N
min(αi ,βi )
Y
Soit δ = pgcd(a, b) et d = pi .
i=1
Puisque d | a et d | b, on a d | δ.
N
Y
Inversement, comme δ | a et δ | b on peut écrire : δ = pγi i avec ∀1 6 i 6 n, 0 6 γi 6 αi , βi
i=1
Ainsi γi 6 min(αi , βi ) pour tout i ∈ {1, . . . , N } et donc δ | d.
Par double divisibilité δ = d
Pour obtenir la formule relative au ppcm, on exploite les propriétés pgcd(a, b)ppcm(a, b) = ab et min(α, β)+
max(α, β) = α + β.
Espaces vectoriels
K désigne le corps R ou C.
6.1 Structure d’espace vectoriel
6.1.1 Loi de composition externe
Définition
On appelle loi de composition externe (ou produit extérieur) opérant de K sur un ensemble E
toute application : (
K×E →E
(λ, ~x) 7→ λ.~x
Une loi de composition externe est usuellement notée par un point.
Les éléments de K sont appelés scalaires.
Les éléments de E sont appelés vecteurs et seront, dans un premier temps, notés surmontés
d’une flèche.
Exemple Le produit extérieur réel sur la direction du plan ou de l’espace géométrique est une loi de
composition externe qui à λ ∈ R et ~x vecteur associe le vecteur λ.~x.
Définition
Soit E un ensemble muni d’un produit extérieur (.) de K sur E.
Une partie A de E est dite stable pour ce produit extérieur si
∀λ ∈ K, ∀~x ∈ A, λ.~x ∈ A
Exemple ∅ et E sont des parties stables pour n’importe quel produit extérieur sur E.
131
6.1. STRUCTURE D’ESPACE VECTORIEL
Exemple Sur la direction du plan ou de l’espace géométrique, l’ensemble A formé des vecteurs
colinéaires à un vecteur ~u donné est une partie stable pour le produit extérieur sur E précédemment
introduit.
Définition
Soient E un ensemble, + une loi de composition interne sur E et . une loi de composition
externe opérant de K sur E.
On dit que le triplet (E, +, .), ou plus brièvement E, est un K-espace vectoriel si :
(1) (E, +) est un groupe abélien ;
(2) ∀λ, µ ∈ K, ∀~u, ~v ∈ E :
(a) (λ + µ).~u = λ.~u + µ.~u ;
(b) λ.(~u + ~v ) = λ.~u + λ.~v ;
(c) λ.(µ.~u) = (λµ).~u ;
(d) 1.~u = ~u.
L’élément neutre de (E, +) est alors appelé vecteur nul, on le note ~0.
Attention : On ne peut pas multiplier deux vecteurs, ni diviser par un vecteur car les lois
correspondantes ne sont pas a priori définie.
Plus généralement, pour visualiser géométriquement un espace vectoriel, on choisira un élément central
correspondant au vecteur nul et on représente tous les vecteurs en prenant le vecteur nul pour origine ; on
peut alors visualiser les opérations dans l’espace vectoriel à l’instar des figures précédentes.
On définit ainsi un produit extérieur de K sur Kn et une loi de composition interne additive sur Kn .
Théorème
(Kn , +, .) est un K-espace vectoriel de vecteur nul ~0 = (0, . . . , 0).
dém. :
(K, +) est un groupe abélien de neutre 0 donc (Kn , +) est aussi un groupe abélien de neutre (0, . . . , 0)
car l’addition sur Kn est la loi produit définie à partir de l’addition sur K.
Pour λ, µ ∈ K et ~x = (x1 , . . . , xn ), ~y = (y1 , . . . , yn ) ∈ Kn ,
On définit ainsi un produit extérieur de K sur E × F et une loi de composition interne additive sur E × F .
Théorème
E × F est un K-espace vectoriel de vecteur nul ~0E×F = ~0E , ~0F .
dém. :
L’addition sur E ×F correspond à la loi produit obtenue à partir des additions sur E et F . Puisque (E, +)
et (F, +) sont desgroupesabéliens de neutres ~0E et ~0F , on peut affirmer que (E × F, +) est un groupe
abélien de neutre ~0E , ~0F .
Pour λ, µ ∈ K et (~x, ~y ), (~x0 , ~y 0 ) ∈ E × F ,
(λ + µ).(~x, ~y ) = ((λ + µ).~x, (λ + µ).~y ) = (λ.~x + µ.~x, λ.~y + µ.~y ) = λ.(~x, ~y ) + µ.(~x, ~y )
λ. ((~x, ~y ) + (~x0 , ~y 0 )) = (λ.(~x + ~x0 ), λ.(~y + ~y 0 )) = (λ.~x + λ.~x0 , λ.~y + λ.~y 0 ) = λ.(~x, ~y ) + λ.(~x0 , ~y 0 )
λ. (µ.(~x, ~y )) = λ. (µ.~x, µ.~y ) = (λ.(µ.~x), λ.(µ.~y )) = ((λµ).~x, (λµ).~y ) = (λµ).(~x, ~y ) et 1.(~x, ~y ) = (1.~x, 1.~y ) = (~x, ~y )
Finalement (E × F, +, .) est bien un K-espace vectoriel.
6.1.4.3 structure sur F(X, K)
Soient X un ensemble et E = F(X, K). Pour λ ∈ K et f, g : X → K, on définit λ.f : X → K et
f + g : X → K par :
On définit ainsi un produit extérieur de K sur F(X, K) et une loi de composition interne additive sur
F(X, K).
Théorème
(F(X, K), +, .) est un K-espace vectoriel dont le vecteur nul est la fonction nulle.
dém. :
(K, +) est un groupe abélien de neutre 0 donc (F(X, K), +) est aussi un groupe abélien de neutre la
fonction nulle car l’addition sur F(X, K) est la loi produit définie à partir de l’addition sur K.
Soient λ, µ ∈ K et f, g ∈ F(X, K).
Pour tout x ∈ X,
[(λ + µ).f ] (x) = (λ + µ)f (x) = λf (x) + µg(x) = (λ.f )(x) + (µ.g)(x) = [λf + µg] (x)
[λ.(f + g)] (x) = λ(f +g)(x) = λ (f (x) + g(x)) = λf (x)+λg(x) = (λ.f )(x)+(λ.g)(x) = [λ.f + λ.g] (x)
[λ.(µ.f )] (x) = λ(µ.f )(x) = λ(µf (x)) = (λµ)f (x) = [(λµ).f ] (x) et (1.f )(x) = 1 × f (x) = f (x)
Ainsi (λ + µ).f = λ.f + µ.f , λ.(f + g) = λ.f + λ.g, λ.(µ.f ) = (λµ).f et 1.f = f .
Finalement (F(X, K), +, .) est bien un K-espace vectoriel.
Exemple Pour X = D ⊂ R, les ensembles F(D, R) et F(D, C) des fonctions réelles ou complexes
d’une variable réelle définies sur D sont des R et C-espaces vectoriels
Pour X = N, les ensembles RN et CN des suites réelles et complexes sont des R et C-espaces vectoriels.
Théorème
(F(X, F ), +, .) est un K-espace vectoriel de vecteur nul égal à la fonction constante égale
à ~oF .
dém. :
Il suffit de reprendre la démonstration qui précède avec ici des fonctions à valeurs dans l’espace vectoriel
F ce qui au final ne change pas grand-chose.
6.1.4.5 Les espaces complexes sont aussi réels
Soit E un C-espace vectoriel. La loi de composition externe opérant de C sur E définit aussi par restriction,
une loi de composition externe opérant de R sur E. Les propriétés calculatoires étant conservées, on peut
affirmer que E est alors aussi un R-espace vectoriel.
Exemple Cn est un R-espace vectoriel.
F(X, C) et CN sont des R-espaces vectoriels.
Exemple Il est fréquent de percevoir C comme un R-espace vectoriel. Dans ce cas les vecteurs sont les
nombres complexes, les scalaires sont les nombres réels et la loi de composition externe est le produit
usuel.
dém. :
Par récurrence sur n ∈ N? en exploitant λ.~u + µ.~u = (λ + µ).~u.
Proposition
∀λ ∈ K, ∀~u1 , . . . , ~un , !
Xn Xn
(λ.~ui ) = λ. ~ui
i=1 i=1
dém. :
Par récurrence sur n ∈ N? en exploitant λ.~u + λ.~v = λ.(~u + ~v ).
Proposition
∀λ ∈ K, ∀~u ∈ E,
0.~u = ~0 et λ.~0 = ~0
dém. :
0.~u = (0 + 0).~u = 0.~u + 0.~u et en ajoutant l’opposé du vecteur 0.~u de part et d’autre, obtient ~0 = 0.~u.
λ.~0 = λ.(~0 + ~0) = λ.~0 + λ.~0 et en ajoutant l’opposé du vecteur λ.~0 de part et d’autre, obtient ~0 = λ.~0.
Proposition
∀~u ∈ E,
(−1).~u = −~u
dém. :
~u + (−1).~u = 1.~u + (−1).~u = (1 + (−1)).~u = 0.~u = ~0.
Proposition
∀λ ∈ K, ∀~u ∈ E,
λ.~u = ~0 ⇒ λ = 0 ou ~u = ~0
dém. :
Supposons λ.~u = ~0 et λ 6= 0.
Dans le corps K, le scalaire λ est inversible et l’on peut donc introduire son inverse λ−1 . En multipliant
par celui-ci, λ−1 .(λ.~u) = (λ−1 λ).~u = 1.~u = ~u or λ−1 .(λ~u) = λ−1 .~0 = ~0 donc ~u = ~0.
n o
Exemple Soient ~u ∈ E\ ~0 et λ, µ ∈ K. Montrons λ.~u = µ.~u ⇒ λ = µ.
Supposons λ.~u = µ.~u.
On a λ.~u − µ.~u = ~0 puis λ.~u + (−µ).~u = ~0 et enfin (λ − µ).~u = ~0.
Puisque ~u 6= ~0, on obtient λ − µ = 0 i.e. λ = µ.
avec λ1 , . . . , λn ∈ K.
Exemple Les vecteurs combinaisons linéaires d’un vecteur ~u sont ceux de la forme λ.~u avec λ ∈ K.
Exemple Les vecteurs combinaisons linéaires de deux vecteurs ~u et ~v sont ceux de la forme λ.~u + µ.~v
avec λ, µ ∈ K.
puis
λ = a + 2
µ = −2
a = −5
On en déduit a = −5.
Inversement, pour a = −5, on a w
~ a = λ.~u + µ.~v avec λ = −3 et µ = −2.
Théorème
Si F est un sous-espace vectoriel de (E, +, .) alors (F, +, .) est un K-espace vectoriel.
dém. :
Comme F est stable pour + et ., on peut munir F des lois induites.
Par les propriétés 1), 2) et 3) avec λ = −1, on peut affirmer que F est un sous-groupe de (E, +) et donc
(F, +) est un groupe abélien.
De plus les propriétés calculatoires engageant le produit extérieure étant vraies sur E, elle le sont aussi
sur F .
Proposition
Une partie F de E est un sous-espace vectoriel si, et seulement si,
1) ~0 ∈ F ;
2) ∀~x, ~y ∈ F, ∀λ, µ ∈ K, λ.~x + µ.~y ∈ F [stabilité par combinaison linéaire].
dém. :
Si F est un sous-espace vectoriel alors F est un sous-groupe de (E, +) et donc ~0 ∈ F .
De plus, F étant stable par addition et par produit extérieur, il l’est par combinaison linéaire.
Inversement, si F contient le vecteur nul et est stable par combinaison linéaire, il est évidemment non
vide et stable par addition et produit extérieur.
Proposition
Si ~e1 , . . . , ~en sont des vecteurs d’un sous-espace vectoriel F alors tout vecteur combinaison
linéaire des vecteurs ~e1 , . . . , ~en est encore élément de F .
dém. :
Par récurrence sur n ∈ N? .
Pour n = 1.
Un vecteur combinaison linéaire de ~e1 ∈ F s’écrit sous la forme λ.~e1 et est donc élément de F par
stabilité par produit extérieur.
Supposons la propriété établie au rang n > 1.
Soit ~x un vecteur combinaison linéaire de vecteurs ~e1 , . . . , ~en , ~en+1 ∈ F .
On peut écrire
~x = λ1 .~e1 + · · · + λn .~en + λn+1 .~en+1
Par hypothèse de récurrence λ1 .~e1 + · · · + λn .~en ∈ F .
De plus λn+1 .~en+1 ∈ F et par stabilité de F par addition
Récurrence établie.
6.2.2 Exemples
Exemple Géométriquement, les sous-espaces vectoriels non triviaux se visualisent comme étant
des droites ou des plans passant tous par le vecteur ~0.
Proposition
Si F et G sont des sous-espaces vectoriels de E alors F ∩ G est un sous-espace vectoriel de E.
dém. :
F ∩ G est une partie de E.
~0 ∈ F et ~0 ∈ G donc ~0 ∈ F ∩ G.
Soient λ, µ ∈ K et ~x, ~y ∈ F ∩ G.
λ.~x + µ.~y ∈ F car F est un sous-espace vectoriel et ~x, ~y ∈ F .
Aussi λ.~x + µ.~y ∈ G par des arguments semblables.
Par suite λ.~x + µ.~y ∈ F ∩ G.
Exemple
Proposition
Une intersection (finie ou infinie) de sous-espaces vectoriels d’un espace E est un sous-espace
vectoriel de E.
dém. : \
Soient (Fi )i∈I une famille de sous-espaces vectoriels de E et F = Fi .
i∈I
F est une partie de E.
Pour tout i ∈ I, ~0 ∈ Fi car Fi est un sous-espace vectoriel donc ~0 ∈ F .
Soient λ, µ ∈ K et ~x, ~y ∈ F .
Pour tout i ∈ I, λ.~x + µ.~y ∈ Fi car Fi est un sous-espace vectoriel de E et ~x, ~y ∈ Fi .
Par suite λ.~x + µ.~y ∈ F .
Définition
On appelle somme de deux sous-espaces vectoriels F et G de E l’ensemble
n o
F + G = ~a + ~b/~a ∈ F, ~b ∈ G
Proposition
La somme F + G de deux sous-espaces vectoriels F et G de E est un sous-espace vectoriel
de E.
De plus, F + G contient F et G et est inclus dans tout sous-espace vectoriel contenant F et G.
dém. :
F + G est une partie de E.
~0 = ~0 + ~0 avec ~0 ∈ F et ~0 ∈ G donc ~0 ∈ F + G.
Soient λ, µ ∈ K et ~x, ~y ∈ F + G.
On peut écrire ~x = ~a + ~b et ~y = ~c + d~ avec ~a, ~c ∈ F et ~b, d~ ∈ G
On a alors λ.~x + µ.~y = (λ.~a + µ.~c) + (λ.~b + µ.d) ~ avec λ.~a + µ.~c ∈ F et (λ.~b + µ.d)
~ ∈ G.
Ainsi λ.~x + µ.~y ∈ F + G.
De plus, F ⊂ F + G car pour tout ~x ∈ F , on peut écrire ~x = ~x + ~0 avec ~0 ∈ G.
De même G ⊂ F + G.
Enfin, si un sous-espace vectoriel H de E contient F et G alors pour tout ~a ∈ F et tout ~b ∈ G, on a
~a + ~b ∈ H car ~a, ~b ∈ H et donc F + G ⊂ H.
Remarque F + G se comprend comme étant le plus petit sous-espace vectoriel contenant à la fois F
et G.
Théorème
Si F et G sont deux sous-espaces vectoriels supplémentaires de E alors
dém. :
Soit ~x ∈ E.
Existence : Puisque E = F + G tout vecteur de E peut se voir comme la somme d’un vecteur de F et
d’un vecteur de G dont il existe ~a ∈ F et ~b ∈ G tel que ~x = ~a + ~b.
Unicité : Supposons ~x = ~a + ~b = ~c + d~ avec ~a, ~c ∈ F et ~b, d~ ∈ G.
On a ~a − ~c = d~ − ~b or ~a − ~c ∈ F et d~ − ~c ∈ G n
caroF et G sont des sous-espaces vectoriels.
Par suite ~a − ~c = d − b ∈ F ∩ G, or F ∩ G = ~0 donc ~a = ~c et ~b = d.
~ ~ ~
n o
Exemple E et ~0 sont des sous-espaces vectoriels supplémentaires de E.
Exemple Soient
∀~x ∈ Rn , ∃(a, b) ∈ H × D, ~x = ~a + ~b
Pour justifier l’existence des vecteurs ~a et ~b, on va exhiber ceux-ci en procédant à un raisonnement par
analyse/synthèse.
Analyse :
Soit ~x = (x1 , . . . , xn ) ∈ Rn .
Supposons ~x = ~a + ~b avec ~a = (a1 , . . . , an ) ∈ H et ~b = (α, . . . , α) ∈ D.
Déterminons ~a et ~b en fonction de ~x.
Exemple Soient
P = {f : R → R/f paire} et I = {f : R → R/f impaire}
Montrons que P et I sont des sous-espaces vectoriels supplémentaires de l’espace E = F(R, R).
On montre facilement que P et I sont des sous-espaces vectoriels de E.
Etudions P ∩ I.
Soit f ∈ P ∩ I.
Pour tout x ∈ R, on a f (−x) = f (x) car f ∈ P et f (−x) = −f (x) car f ∈ I.
pour tout x ∈ R, on obtient f = 0̃.
Par suite f (x) = 0 et puisque ceci vaut
Ainsi P ∩ I ⊂ 0̃ puis P ∩ I = 0̃ .
Montrons P + I = E.
Analyse :
Soit f ∈ E telle que f = g + h avec g ∈ P et h ∈ I. Déterminons g et h en fonction de f .
Pour tout x ∈ R, on a f (x) = g(x) + h(x) et f (−x) = g(−x) + h(−x) = g(x) − h(x).
Ainsi on a le système (
f (x) = g(x) + h(x)
f (x) = g(x) − h(x)
On en déduit
1 1
g(x) = (f (x) + f (−x)) et h(x) = (f (x) − f (−x))
2 2
ce qui déterminer g et h.
Synthèse :
Soient f ∈ E et g, h ∈ E les fonctions définies par
1 1
g(x) = (f (x) + f (−x)) et h(x) = (f (x) − f (−x))
2 2
On vérifie aisément f (x) = g(x) + h(x), g(−x) = g(x) et h(−x) = −h(x) pour tout x ∈ R.
Ainsi f = g + h avec g ∈ P et h ∈ I.
On a donc établi E ⊂ F + G puis E = F + G.
Finalement P et I sont des sous-espaces vectoriels supplémentaires de E.
Remarque En conséquence, toute fonction f : R → R s’écrit de manière unique comme somme d’une
fonction paire et d’une fonction impaire appelées les parties paire et impaire de f .
Par exemple, la fonction x 7→ ex se décompose en la somme de sa partie paire, qui est la fonction
x 7→ chx, et de sa partie impaire, x 7→ shx.
Puisque qu’une intersection de sous-espaces vectoriels est un sous-espace vectoriel, l’ensemble VectA est
un sous-espace vectoriel de E. De plus, puisque VectA est une intersection de parties contenant toutes A,
VectA contient aussi A. Enfin, si F est un sous-espace vectoriel de E contenant A alors F ∈ S et donc
VectA ⊂ F car VectA est l’intersection de toutes les sous-espaces vectoriels éléments de S.
n o
Exemple Vect∅ = ~0 car l’espace nul est le plus petit sous-espace vectoriel de E.
VectE = E car VectE est un sous-espace vectoriel contenant E.
Puisque ~u ∈ A ⊂ VectA et puisque VectA est un sous-espace vectoriel, on a λ.~u ∈ VectA pour tout
λ ∈ K. Ainsi K.~u ⊂ VectA.
Inversement, on vérifie aisément que K.~u est un sous-espace vectoriel de E et puisque ~u est élément de
K.~u, on a A ⊂ K.~u puis VectA ⊂ K.~u.
Par double inclusion, on obtient
Vect {~u} = K.~u
Exemple Soient A = {~u, ~v }. Par double inclusion, on montre comme ci-dessus que
Proposition
Si A et B sont deux parties de E alors
A ⊂ B ⇒ VectA ⊂ VectB
dém. :
Supposons A ⊂ B.
On a alors A ⊂ VectB or VectB est un sous-espace vectoriel donc VectA ⊂ VectB
Proposition
Si A et B sont deux parties de E alors
dém. :
A ⊂ VectA donc A ⊂ VectA + VectB. De même, B ⊂ VectA + VectB donc A ∪ B ⊂ VectA + VectB.
Or VectA + VectB est un sous-espace vectoriel donc Vect(A ∪ B) ⊂ VectA + VectB.
Inversement A ⊂ A ∪ B donc VectA ⊂ Vect(A ∪ B). Aussi VectB ⊂ Vect(A ∪ B). Or Vect(A ∪ B) est
un sous-espace vectoriel donc VectA + VectB ⊂ Vect(A ∪ B).
Proposition
Si F est un sous-espace vectoriel de E alors VectF = F .
dém. :
F ⊂ VectF et puisque F est un sous-espace vectoriel contenant F , on a aussi VectF ⊂ F .
Proposition
Soit f : E → F . On a équivalence entre :
(i) f est une application linéaire ;
(ii) ∀λ, µ ∈ K, ∀~x, ~y ∈ E, f (λ.~x + µ.~y ) = λ.f (~x) + µ.f (~y ).
dém. :
(i) ⇒ (ii) Supposons (i)
Soient λ, µ ∈ K et ~x, ~y ∈ E.
Par 1) f (λ.~x + µ.~y ) = f (λ.~x) + f (µ.~y )
puis par 2) f (λ.~x) + f (µ.~y ) = λ.f (~x) + µ.f (~y )
et ainsi f (λ.~x + µ.~y ) = λ.f (~x) + µ.f (~y ).
(ii) ⇒ (i) car (ii) entraîne 1) en prenant λ = µ = 1 et (ii) entraîne 2) en prenant µ = 0.
Exemple Soit f : E → F définie par f : ~x 7→ ~0F .
f est une application linéaire.
En effet, pour tout λ, µ ∈ K et ~x, ~y ∈ F , f (λ.~x + µ.~y ) = ~0F = λ.f (~x) + µ.f (~y ).
L’application f est appelée application linéaire nulle.
Exemple Montrons que f : R2 → R3 définie par f (x, y) = (x + y, x − y, 2y) est une application
linéaire.
Soient λ, µ ∈ K et ~a, ~b ∈ R2 , ~a = (x, y), ~b = (x0 , y 0 ).
f (λ.~a + µ.~b) = f (λx + µx0 , λy + µy 0 )
donc f (λ.~a + µ.~b) = (λx + µx0 + λy + µy 0 , λx + µx0 − λy − µy 0 , 2λy + 2µy 0 )
puis f (λ.~a + µ.~b) = λ(x + y, x − y, 2y) + µ(x0 + y 0 , x0 − y 0 , 2y 0 ) = λf (~a) + µf (~b)
Remarque En cas d’ambiguïtés, il peut être nécessaire de préciser le corps de base des espaces
vectoriels E et F entre lesquels opère l’application, on parle alors d’application K-linéaire et on note
LK (E, F ) l’ensemble de ces applications.
Proposition
Si f : E → F est linéaire alors f (~0E ) = ~0F .
dém. :
f (~0E ) = f (~0E + ~0E ) = f (~0E ) + f (~0E ).
En ajoutant −f (~0E ) de part et d’autre, on obtient ~0F = f (~0E ).
Proposition
Si f : E → F est une application linéaire et si ~e1 , . . . , ~en sont des vecteurs de E alors
Ainsi, l’image d’un combinaison linéaire est la combinaison linéaire des images.
dém. :
Par récurrence sur n ∈ N? .
Pour n = 1, la propriété est immédiate par définition de la linéarité.
Supposons la propriété vraie au rang n > 1.
Soient ~e1 , . . . , ~en , ~en+1 des vecteurs de E et λ1 , . . . , λn , λn+1 ∈ K.
Par image d’une somme
Récurrence établie.
Proposition
Si f : E → F et g : F → G sont linéaires alors g ◦ f : E → F est aussi linéaire.
dém. :
Soient λ, µ ∈ K et ~x, ~y ∈ E.
Par linéarité de f
(g ◦ f )(λ.~x + µ.~y ) = g (λ.f (~x) + µ.f (~y ))
Par linéarité de g
(g ◦ f )(λ.~x + µ.~y ) = λ.g (f (~x)) + µ.g (f (~y ))
et donc
(g ◦ f )(λ.~x + µ.~y ) = λ.(g ◦ f )(~x) + µ.(g ◦ f )(~y )
Définition
On appelle forme linéaire sur un K-espace vectoriel E, toute application linéaire de E vers K.
On note E ? , au lieu de L(E, K), l’ensemble des formes linéaires sur E.
E ? est appelé dual de E.
f : (x1 , . . . , xn ) 7→ a1 x1 + · · · + an xn
L’application I est une forme linéaire sur C([a, b] , C) car c’est une application à valeurs dans C et c’est
une application linéaire car
Z b Z b Z b
I(λ.f + µ.g) = λf (t) + µg(t) dt = λ f (t) dt + µ g(t) dt = λI(f ) + µI(g)
a a a
6.3.2.2 Endomorphisme
Définition
On appelle endomorphisme de E, toute application linéaire de E dans lui-même.
On note L(E), au lieu de , L(E, E) l’ensemble des endomorphismes de E.
On vérifie aisément que f est une application linéaire et puisque celle-ci est définie de R2 vers R2 , c’est
un endomorphisme de R2 .
Proposition
Si f et g sont des endomorphismes E alors la composée g ◦ f aussi.
dém. :
La composée de deux applications de E vers E est une application de E vers E et la composée de deux
applications linéaires est linéaire.
6.3.2.3 Isomorphisme
Définition
On appelle isomorphisme d’un K-espace vectoriel E vers un K-espace vectoriel F toute
application linéaire bijective de E vers F .
Proposition
Si f : E → F et g : F → G sont des isomorphismes alors la composée g ◦ f : E → G est un
isomorphisme.
dém. :
La composée d’une bijection de E vers F et d’une bijection de F vers G est une bijection de E vers G et
la composée de deux applications linéaires est une application linéaire.
Proposition
Si f : E → F est un isomorphisme alors son application réciproque f −1 : F → E est un
isomorphisme.
dém. :
L’application réciproque d’une bijection de E vers F est une bijection de F vers E.
Pour conclure il suffit alors de justifier que l’application f −1 est linéaire.
Soient λ, µ ∈ K et ~y , ~y 0 ∈ F .
Posons les éléments ~x, ~x0 ∈ E déterminés par ~x = f −1 (~y ) et ~x0 = f −1 (~y 0 ) de sorte que f (~x) = ~y et
f (~x0 ) = ~y 0 .
Par linéarité de f ,
f (λ.~x + µ.~x0 ) = λ.f (~x) + µ.f (~x0 ) = λ.~y + µ.~y 0
Par bijectivité de f ,
λ.~x + µ.~x0 = f −1 (λ.~y + µ.y~0 )
et ainsi
λ.f −1 (~y ) + µ.f −1 (~y 0 ) = f −1 (λ.~y + µ.~y 0 )
Finalement f −1 est linéaire.
Définition
Deux K-espace vectoriels sont dits isomorphes s’il existe un isomorphisme entre ceux-ci.
6.3.2.4 Automorphisme
Définition
On appelle automorphisme de E, toute permutation linéaire de E i.e. toute bijection linéaire
de E vers E. On note GL(E) l’ensemble des automorphismes de E.
Proposition
Si f et g sont des automorphismes de E alors la composée f ◦ g est un automorphisme de E.
dém. :
La composée de deux permutations de E est une permutation de E et la composée de deux applications
linéaires est linéaire.
Proposition
Si f est un automorphisme de E alors son application réciproque f −1 est un automorphisme
de E.
dém. :
L’application f −1 est un permutation de E et est linéaire car isomorphisme réciproque de f .
Remarque L’ensemble GL(E) apparaît donc comme un sous-groupe du groupe (S(E), ◦) des
permutations de E.
Définition
(GL(E), ◦) est appelé groupe linéaire de E.
Théorème
Soit f : E → F une application linéaire.
Si V est une sous-espace vectoriel de E alors f (V ) est un sous-espace vectoriel de F .
Si W est un sous-espace vectoriel de F alors f −1 (W ) est un sous-espace vectoriel de E.
dém. :
Soit V un sous-espace vectoriel de E.
f (V ) ⊂ F et ~0F = f (~0E ) ∈ f (V ).
Soient λ, µ ∈ K et ~x, ~y ∈ f (V ). On peut écrire ~x = f (~a) et ~y = f (~b) avec ~a, ~b ∈ V .
On a alors λ.~x + µ.~y = f (λ.~a + µ.~b) ∈ f (V ) avec λ.~a + µ~b ∈ V puisque V est un sous-espace vectoriel.
Ainsi f (V ) est un sous-espace vectoriel de F .
Considérons W un sous-espace vectoriel de F et étudions f −1 (W ).
f −1 (W ) ⊂ E et ~0E ∈ f −1 (W ) car f (~0E ) = ~0F ∈ W .
Soient λ, µ ∈ K et ~x, ~y ∈ f −1 (W ). f (λ.~x + µ.~y ) = λ.f (~x) + µ.f (~y ) ∈ W donc λ.~x + µ.~y ∈ f −1 (W ).
Ainsi f −1 (W ) est un sous-espace vectoriel de E.
Définition
Soit f : E → F une application linéaire.
On appelle image de f l’espace Imf = f (E).n o
On appelle noyau de f l’espace ker f = f −1 ( ~0F ).
Proposition
Imf est un sous-espace vectoriel de F .
ker f est un sous-espace vectoriel de E.
dém. :
E estoun sous-espace vectoriel de E et f est linéaire donc f (E) est unnsous-espace
n o vectoriel de F .
~0F est un sous-espace vectoriel de F et f est linéaire donc f −1 ~0F est un sous-espace vectoriel
de E.
Remarque Pour déterminer l’image d’une application linéaire f , on détermine les valeurs prises par f
i.e. les ~y ∈ F tels qu’il existe ~x ∈ E pour lequel ~y = f (~x).
Remarque Pour déterminer le noyau d’une application linéaire f , on résout l’équation f (~x) = ~0F
d’inconnue ~x ∈ E.
Soit ~a = (x, y) ∈ R2 .
(
x−y =0
f (~a) = ~0R2 ⇔ f (x, y) = (0, 0) ⇔ ⇔x=y
y−x=0
Par suite
ker f = {(x, x)/x ∈ R}
Soient ~a = (x, y) ∈ R2 et ~b = (X, Y ) ∈ R2 .
( (
x−y =X x=X +y
f (~a) = ~b ⇔ f (x, y) = (X, Y ) ⇔ ⇔
y−x=Y X +Y =0
Ainsi l’équation f (~a) = ~b possède au moins une solution ~a si, et seulement si, X = Y .
Par suite
Imf = {(X, −X)/X ∈ R} et ker f = {(x, x)/x ∈ R}
Théorème
Si f : E → F est une application linéaire alors
1) f est surjective ⇔ Imf = n
F; o
2) f est injective ⇔ ker f = ~0E .
dém. :
1) est immédiate par définition de la surjectivité.
2) ( ⇒ ) Si f est injective alors ~0F possède au plus un antécédent, orn f (~0oE ) = ~0F donc ~0F possède
exactement un antécédent, à savoir ~0E . On peut alors affirmer ker f = ~0E .
n o
( ⇐ ) Supposons ker f = ~0E . Soient ~x, ~y ∈ E tels que f (~x) = f (~y ).
On a alors f (~x − ~y ) = f (~x) − f (~y ) = ~0F donc ~x − ~y ∈ ker f puis ~x − ~y = ~0E et finalement ~x = ~y .
Ainsi f est injective.
Théorème
(L(E, F ), +, .) est un K-espace vectoriel.
dém. :
Montrons que L(E, F ) est un sous-espace vectoriel de (F(E, F ), +, .).
L(E, F ) ⊂ F(E, F ) et l’application nulle 0̃ : x ∈ E 7→ ~0F est linéaire.
Soient λ, µ ∈ K et f, g ∈ L(E, F ). Montrons que l’application λ.f + µ.g est linéaire.
Soient α, β ∈ K et ~x, ~y ∈ E.
(λ.f + µ.g) (α.~x + β.~y ) = λ.f (α.~x + β.~y ) + µ.g(α.~x + β.~y )
Par linéarité de f et g
(λ.f + µ.g) (α.~x + β.~y ) = αλ.f (~x) + βλf (~y ) + αµ.g(~x) + βµ.g(~y )
et en réorganisant ce calcul
(λ.f + µ.g) (α.~x + β.~y ) = α. (λ.f + µ.g) (~x) + β. (λ.f + µ.g) (~y )
Ainsi λ.f + µ.g ∈ L(E, F ).
Exemple (L(E), +, .) et (E ? , +.) sont des K-espaces vectoriels.
Proposition
∀λ, µ ∈ K, ∀f, g ∈ L(E, F ) et ∀h ∈ L(F, G),
dém. :
Soient λ, µ ∈ K, f, g ∈ L(E, F ) et h ∈ L(F, G).
Pour tout ~x ∈ E,
[h ◦ (λ.f + µ.g)] (~x) = h (λ.f (~x) + µ.g(~x))
Par linéarité de h,
[h ◦ (λ.f + µ.g)] (~x) = λ.h(f (~x)) + µ.h(g(~x)) = [λ.(h ◦ f ) + µ.(h ◦ g)] (~x)
Ceci valant pour tout ~x ∈ E, on a h ◦ (λ.f + µ.g) = λ.(h ◦ f ) + µ.(h ◦ g).
Proposition
∀λ, µ ∈ K, ∀h ∈ L(E, F ) et ∀f, g ∈ L(F, G),
dém. :
Soient λ, µ ∈ K, h ∈ L(E, F ) et f, g ∈ L(F, G).
Pour tout ~x ∈ E,
[(λ.f + µ.g) ◦ h] (~x) = (λ.f + µ.g)(h(~x)) = λ.f (h(~x)) + µ.g(h(~x))
puis
[(λ.f + µ.g) ◦ h] (~x) = λ.(f ◦ h)(~x) + µ.(g ◦ h)(~x) = [λ.(f ◦ h) + µ.(g ◦ h)] (~x)
Ceci valant pour tout ~x ∈ E, on a (λ.f + µ.g) ◦ h = λ.(f ◦ h) + µ.(g ◦ h)
∀f, g, h ∈ L(E), f ◦ (g + h) = f ◦ g + f ◦ h et (g + h) ◦ f = g ◦ f + h ◦ f
Enfin, un élément inversible de l’anneau (L(E), +, ◦) est un endomorphisme f pour lequel il existe
g ∈ L(E) vérifiant f ◦ g = g ◦ f = IdE ; un tel endomorphisme est bijectif.
Inversement un automorphisme est un élément inversible de l’anneau et son inverse est son isomorphisme
réciproque.
Remarque L’anneau (L(E), +, ◦) n’est généralement pas commutatif.
Remarque Puisque (L(E), +, ◦) est un anneau, on peut exploiter les définitions et les résultats relatifs
à cette structure. En particulier, on peut introduire les itérés de composition d’un endomorphisme.
Définition
Pour f ∈ L(E), on note
f 0 = I, f 1 = f , f 2 = f ◦ f ,. . . , f n = f ◦ f ◦ . . . ◦ f ( n facteurs)
Proposition
Si f, g ∈ L(E) commutent (i.e. f ◦ g = g ◦ f ) alors pour tout n ∈ N,
n
! n−1
X n X
(f ◦ g)n = f n ◦ g n , (f + g)n = f k ◦ g n−k et f n − g n = (f − g) f k g n−k−1
k=0
k k=0
dém. :
Par opérations dans un anneau sachant que les deux éléments f et g commutent.
Attention : L’anneau (L(E), +, ◦) n’est pas intègre, ainsi si un produit de composition est nul, on ne
pour autant affirmer qu’un des facteur est nul :
f ◦ g = 0̃ n’implique par f = 0̃ ou g = 0̃.
Cependant, on peut souvent exploiter à profit le résultat suivant
Proposition
Si f et g sont des endomorphismes de E alors on a équivalence entre :
(i) g ◦ f = 0̃ ;
(ii) Imf ⊂ ker g.
dém. :
(i) ⇒ (ii) Supposons g ◦ f = 0̃.
Pour tout ~y ∈ Imf , il existe ~x ∈ E tel que ~y = f (~x).
On a alors g(~y ) = g(f (~x)) = (g ◦ f )(~x) = ~0 donc ~y ∈ ker g et ainsi Imf ⊂ ker g.
(ii) ⇒ (i) Supposons Imf ⊂ ker g.
Pour tout ~x ∈ E, (g ◦ f )(~x) = g(f (~x)) = ~0 car f (~x) ∈ Imf ⊂ ker g. Ainsi g ◦ f = ~0
Définition
Un endomorphisme f ∈ L(E) est dit idempotent si f 2 = f .
Un endomorphisme f ∈ L(E) est dit nilpotent s’il existe n ∈ N tel que f n = 0̃.
Montrons que ker(f − 2Id) et ker(f − 3Id) sont des sous-espaces vectoriels supplémentaires de E.
Puisque f − 2Id et f − 3Id sont des endomorphismes de E, leurs noyaux sont des sous-espaces
vectoriels de E et ainsi ker(f − 2Id) et ker(f − 3Id) sont bien des sous-espaces vectoriels de E.
Etudions ker(f − 2Id) ∩ ker(f − 3Id)
Soit ~x ∈ ker(f − 2Id) ∩ ker(f − 3Id).
On a (f − 2Id)(~x) = ~0 et (f − 3Id)(~x) = ~0 donc f (~x) = 2~xnetof (~x) = 3~x.
On en déduit ~x = ~0 et ainsi ker(f − 2Id) ∩ ker(f − 3Id) ⊂ ~0 puis
n o
ker(f − 2Id) ∩ ker(f − 3Id) = ~0
Après résolution on obtient ~a = 3~x − f (~x) = (3Id − f )(~x) et ~b = f (~x) − 2~x = (f − 2Id)(~x).
Synthèse :
Soient ~x ∈ E et les vecteurs
On a immédiatement ~x = ~a + ~b.
et
(f − 3Id)(~b) = [(f − 3Id) ◦ (f − 2Id)] (~x) = f 2 − 5f + 6Id (~x) = ~0
Finalement ker(f − 2Id) et ker(f − 3Id) sont des sous-espaces vectoriels supplémentaires de E.
Proposition
Une homothétie vectorielle est un endomorphisme commutant avec tout endomorphisme.
dém. :
Considérons h une homothétie vectorielle de rapport λ.
On a h = λ.Id, or Id est une endomorphisme donc, par opération, h aussi.
De plus, pour tout endomorphisme f ,
Proposition
∀λ, µ ∈ K, hλ ◦ hµ = hλµ et
∀λ ∈ K? , hλ ∈ GL(E) avec (hλ )−1 = h1/λ .
dém. :
hλ ◦ hµ = (λ.Id) ◦ (µ.Id) = (λµ).Id = hλµ et hλ ◦ h1/λ = Id = h1/λ ◦ hλ .
Définition
L’application p est appelée projection (vectorielle) sur F parallèlement à G.
n o
Exemple Si F = E et G = ~0 alors p = Id.
n o
Si F = ~0 et G = E alors p = 0̃.
Théorème
p est un endomorphisme de E vérifiant p2 = p.
De plus
Imp = ker(p − Id) = F et ker p = G
dém. :
p est une application de E vers E, vérifions qu’elle est linéaire.
Soient λ, µ ∈ K et ~x, ~y ∈ E.
On peut écrire ~x = ~a + ~b et ~y = ~c + d~ avec ~a, ~c ∈ F et ~b, d~ ∈ G.
On a alors p(~x) = ~a et p(~y ) = ~c.
On a aussi λ.~x + µ.~y = (λ.~a + µ.~c) + (λ.~b + µ.d) ~ avec (λ.~a + µ.~c) ∈ F et (λ.~b + µ.d)
~ ∈ G et donc
~
p(λ.~x + µ.~y ) = λ.~a + µ.b = λ.p(~x) + µ.p(~y )
Finalement p est un endomorphisme de E.
Montrons p2 = p avec p2 = p ◦ p.
Soit ~x ∈ E. On a par construction p(~x) ∈ F , on peut alors écrire p(~x) = p(~x) + ~0 avec p(~x) ∈ F et
~0 ∈ G et donc p(p(~x)) = p(~x). Ainsi p2 = p ◦ p.
Montrons que Imp = ker(p − I) = F
Par construction, les valeurs prises par p appartiennent à F . Ainsi Imp ⊂ F .
Soit ~x ∈ F . On a ~x = ~x + ~0 avec ~x ∈ F et ~0 ∈ G donc p(~x) = ~x puis (p − Id)(~x) = ~0. Ainsi
F ⊂ ker(p − Id).
Enfin, si ~x ∈ ker(p − Id) alors (p − Id)(~x) donc p(~x) = ~x puis ~x ∈ Imp car le vecteur ~x est une valeur
prise par p. Ainsi ker(p − Id) ⊂ F .
Finalement, par inclusions successives, on a montré Imp = ker(p − I) = F .
Montrons ker p = G.
Soit ~x ∈ ker p. On a p(~x) = ~0 donc la décomposition de ~x en somme d’un vecteur de F et d’un vecteur
de G s’écrit ~x = ~a + ~b avec ~a = ~0 et ~b ∈ G. On en déduit ~x = ~b ∈ G.
Inversement, si ~x ∈ G alors on peut écrire ~x = ~0 + ~x avec ~0 ∈ F et ~x ∈ G et donc p(~x) = ~0.
Par double inclusion ker p = G.
Remarque F = Imp = ker(p − Id) est l’espace des vecteurs invariants par p.
Définition
La projection vectorielle q sur G et parallèlement à F est appelée projection complémentaire
de p.
Proposition
q = Id − p.
dém. :
Soit ~x ∈ E. On peut écrire ~x = ~a + ~b avec ~a ∈ F et ~b ∈ G.
On a alors p(~x) = ~a et q(~x) = ~b donc (p + q)(~x) = p(~x) + q(~x) = ~a + ~b = ~x.
Ainsi p + q = Id.
6.4.3 Projecteur
Définition
On appelle projecteur de E, tout endomorphisme p de E vérifiant p2 = p.
Théorème
Si p est un projecteur de E alors
1) Imp et ker p sont supplémentaires ;
2) p est la projection vectorielle sur F = Imp, parallèlement à G = ker p.
dém. :
Soit p un projecteur de E.
Préalablement à notre étude montrons p(~x) = ~x pour tout ~x ∈ Imp.
Soit ~x ∈ Imp, il existe ~a ∈ E vérifiant ~x = p(~a) et alors p(~x) = p2 (~a) = p(~a) = ~x.
Ainsi on a vérifié
∀~x ∈ Imp, p(~x) = ~x
Montrons que Imp et ker p sont supplémentaires.
Etudions Imp ∩ ker p.
Définition
s est appelée symétrie (vectorielle) par rapport à F parallèlement à G.
n o
Exemple Si F = E et G = ~0 alors s = Id.
n o
Si F = ~0 et G = E alors s = −Id.
Théorème
L’application s est un endomorphisme de E vérifiant s2 = I.
De plus
F = ker(s − Id) et G = ker(s + Id)
dém. :
Introduisons la projection vectorielle p sur F parallèlement à G et q = Id−p sa projection complémentaire.
Pour tout ~x ∈ E, on peut écrire ~x = ~a + ~b avec ~a ∈ F et ~b ∈ G.
On a alors p(~x) = ~a et q(~x) = ~b.
Par définition de l’application s, on a aussi s(~x) = ~a − ~b et donc s(~x) = p(~x) − q(~x) = (p − q)(~x).
On en déduit que s = p − q = 2p − Id et donc s est un endomorphisme de E par opération sur les
endomorphismes de E.
De plus p et Id commutent, on a s2 = (2p − Id)2 = 4p2 − 4p + Id = Id car p2 = p.
Enfin ker(s − Id) = ker(2p − 2Id) = ker(p − Id) = F et ker(s + Id) = ker 2p = ker p = G.
Corollaire
s est un automorphisme de E et s−1 = s.
Définition
La symétrie s0 par rapport à G et parallèlement à F est appelée symétrie complémentaire de s.
Proposition
s0 = −s.
dém. :
Soit ~x ∈ E. On peut écrire ~x = ~a + ~b avec ~a ∈ F et ~b ∈ G.
On a s(~x) = ~a − ~b et s0 (~x) = ~b − ~a donc s0 (~x) = −s(~x) et ainsi s0 = −s.
Théorème
Si s est un endomorphisme de E vérifiant s2 = Id alors
1) ker(s − Id) et ker(s + Id) sont supplémentaires dans E ;
2) s est la symétrie vectorielle par rapport à F = ker(s − Id), parallèlement à G = ker(s + Id).
dém. :
1
Posons p = (s + Id) ∈ L(E).
2
1 2 1
Puisque s et Id commutent, on a p2 = s + 2s + Id = (s + Id) = p.
4 2
L’endomorphisme p est un projecteur de E. On en déduit que F = Imp = ker(p − Id) et G = ker p sont
des sous-espaces vectoriels supplémentaires de E.
Or
1
F = ker(p − Id) = ker (s − Id) = ker(s − Id)
2
et
1
G = ker p = ker (s + Id) = ker(s + Id)
2
Ainsi ker(s − Id) et ker(s + Id) sont des sous-espaces vectoriels supplémentaires de E.
De plus, pour tout ~x ∈ E, on peut écrire de façon unique ~x = ~a + ~b avec ~a ∈ F = ker(s − Id) et
~b ∈ G = ker(s + Id). On a alors s(~x) = s(~a) + s(~b). Or s(~a) = ~a car ~a ∈ ker(s − Id) et s(~b) = −~b
car ~b = ker(s + Id). Ainsi s(~x) = ~a − ~b et on reconnaît à travers l’action de s, la symétrie vectorielle par
rapport à F est parallèlement à G.
Définition
f est appelée affinité (vectorielle) par rapport à F parallèlement à G et de rapport α.
Proposition
f est un endomorphisme de E.
dém. :
Par construction de f , on vérifie f = p + α.q avec p la projection sur F parallèlement à G et q sa
projection complémentaire.
Définition
On appelle translation de vecteur ~a ∈ E l’application t~a : E → E définie par ~x 7→ ~a + ~x.
Attention : En dehors de la translation de vecteur nul, les translations ne sont pas des applications
linéaires.
Proposition
∀~a, ~b ∈ E, t~a ◦ t~b = t~a+~b = t~b ◦ t~a
∀~a ∈ E, ta est une permutation de E et t−1 a = t−a .
dém. :
Soient ~a, ~b ∈ E.
Pour tout ~x ∈ E, (t~a ◦ t~b )(~x) = t~a (~b + ~x) = ~a + ~b + ~x = t~a+~b (~x).
Ainsi t~a ◦ t~b = t~a+~b et puisque t~a+~b = t~b+~a , on a aussi t~b ◦ t~a = t~a+~b .
Enfin, t~a ◦ t−~a = t~0 = Id et t−~a ◦ t~a = Id donc t~a est une bijection d’application réciproque t~a−1 = t−~a
n o
Exemple {~a} = ~a + ~0 est un sous-espace affine.
Exemple Géométriquement les sous-espaces affines se visualisent comme étant des points, des droites
ou des plans ne passant pas nécessairement par ~o.
Proposition
Si V = ~a + F est un sous-espace affine alors pour tout ~b ∈ E on a équivalence entre :
(i) ~b ∈ V ;
(ii) ~b − ~a ∈ F .
De plus, si tel est le cas,
V = ~b + F
dém. :
(i) ⇒ (ii) Si ~b ∈ V alors on peut écrire ~b = ~a + ~x avec ~x ∈ F donc ~b − ~a = ~x ∈ F .
Proposition
Si V est un sous-espace affine dirigé par F alors
F = {~y − ~x/~x, ~y ∈ V }
dém. :
Soit ~a ∈ V . On peut écrire V = ~a + F .
Pour tout ~x, ~y ∈ V , on peut écrire ~x = ~a + ~u et ~y = ~a + ~v avec ~u, ~v ∈ F et alors ~y − ~x = ~v − ~u ∈ F .
Inversement, soit ~u ∈ F . Pour ~x = ~a + ~0 ∈ V et ~y = ~a + ū ∈ V , ~u = ~y − ~x avec ~x, ~y ∈ V .
Définition
Le sous-espace vectoriel F est alors appelé direction du sous-espace affine V .
Remarque Pour décrire un sous-espace affine V , il suffit de connaître sa direction F et l’un de ses
points ~a car alors V = ~a + F .
Proposition
Si V et W sont deux sous-espaces affines de directions F et G alors V ∩ W est soit vide, soit
égal à un sous-espace affine de direction F ∩ G.
dém. :
Si V ∩ W n’est pas vide, introduisons ~a ∈ V ∩ W .
On peut alors décrire les sous-espaces affines V et W : V = ~a + F et W = ~a + G.
Pour ~x ∈ E, on a
~x ∈ V et ~x ∈ W ⇔ ~x − ~a ∈ F et ~x − ~a ∈ G
et donc
~x ∈ V ∩ W ⇔ ~x − ~a ∈ F ∩ G.
Par suite V ∩ W = ~a + F ∩ G est un sous-espace affine de direction F ∩ G.
Définition
Soient V et W deux sous-espaces affines de directions F et G.
On dit que V est parallèle à W si F ⊂ G
Proposition
Soient V et W deux sous-espaces affines de direction F et G.
Si V est parallèle à W alors V ∩ W = ∅ ou V ⊂ W .
dém. :
Supposons V parallèle à W i.e. F ⊂ G
Si V ∩ W n’est pas vide, introduisons ~a ∈ V ∩ W .
On peut alors décrire les sous-espaces affines V et W : V = ~a + F et W = ~a + G.
Puisque F ⊂ G, on a V ⊂ W .
6.5.4 Equations linéaires
Définition
On appelle équation linéaire toute équation de la forme f (~x) = ~y avec f ∈ L(E, F ), ~y ∈ F et
d’inconnue ~x ∈ E.
On appelle équation homogène associée l’équation f (~x) = ~0.
Théorème
L’ensemble solution de l’équation linéaire f (~x) = ~y est soit vide, soit égal à un sous-espace
affine de dirigé par ker f .
dém. :
S’il existe une solution ~a à l’équation étudiée alors pour tout ~x ∈ E,
Or
f (~x) = f (~a) ⇔ f (~x) − f (~a) = ~0
et puisque f est linéaire
f (~x) − f (~a) = f (~x − ~a)
Ainsi
f (~x) = ~y ⇔ ~x − ~a ∈ ker f
L’ensemble des solutions de l’équation étudiée est alors ~a + ker f , c’est un sous-espace affine dirigé
par ker f .
Remarque Il est fréquent, pour résoudre une équation linéaire f (~x) = ~y , de procéder ainsi :
- on résout l’équation homogène associée ce qui donne ker f ;
- on cherche un élément solution ~a, appelé solution particulière ;
- on exprimer l’ensemble solution ~a + ker f .
Ainsi la solution générale est somme d’une solution particulière est de la solution générale de l’équation
homogène.
Pour la résoudre :
- on résout l’équation homogène f (y) = 0 i.e. l’équation différentielle y 0 + a(x)y = 0 ;
- on détermine une solution particulière ;
- on exprime la solution générale comme somme de la solution particulière et de la solution générale
homogène.
6.5.5 Barycentre
Soient n ∈ N? , ~u1 , . . . , ~un ∈ E et λ1 , . . . , λn ∈ K tel que λ1 + · · · + λn 6= 0.
Définition
On appelle barycentre des vecteurs ~u1 , . . . , ~un affectés respectivement des masses λ1 , . . . , λn
le vecteur
λ1 .~u1 + · · · + λn .~un
~v =
λ1 + · · · + λn
Définition
Lorsque les λ1 , . . . , λn sont égaux non nuls, alors le vecteur
1
~v = (~u1 + · · · + ~un )
n
est appelé isobarycentre des vecteurs ~u1 , . . . , ~un .
Proposition
Si tous les vecteurs ~ui appartiennent à un même sous-espace affine V = ~a + F alors le
barycentre ~v des vecteurs ~u1 , . . . , ~un affectés des masses λ1 , . . . , λn appartient à V .
dém. :
Pour tout i ∈ {1, . . . , n}, on peut écrire ~ui = ~a + ~xi avec ~xi .
On a alors
λ1 .~a + · · · + λn .~a λ1 .~x1 + · · · + λn .~x
~v = + = ~a + ~x
λ1 + · · · + λn λ1 + · · · + λn
avec
λ1 .~x1 + · · · + λn .~x
~x = ∈F
λ1 + · · · + λn
6.5.6 Convexité
Ici K = R.
Définition
On appelle segment d’extrémités ~a et ~b ∈ E l’ensemble :
h i n o
~a, ~b = (1 − λ)~a + λ~b/λ ∈ [0, 1]
h i h i
Remarque ~a, ~b = ~b, ~a
Définition
Une partie C de E est dite convexe si
h i
∀~a, ~b ∈ C, ~a, ~b ⊂ C
Exemple
Exemple Les sous-espaces affines et les segments sont des parties convexes.
Définition
On appelle combinaison convexe d’une famille de vecteurs de E, tout barycentre obtenu avec
des masses positives.
Exemple Pour λ ∈ [0, 1], (1 − λ).~a + λ.~b est une combinaison convexe de ~a et ~b.
Proposition
Une partie C de E est convexe si, et seulement si, elle est stable par combinaison convexe.
dém. : h i
Si une partie C de E est stable par combinaison convexe alors pour tout ~a, ~b ∈ C, le segment ~a, ~b est
inclus dans C car ses éléments sont des combinaisons convexes d’éléments de C.
Inversement, soit C une partie convexe.
Montrons par récurrence sur n ∈ N? que C est stable par combinaison convexe de n vecteurs.
Pour n = 1 : ok
Supposons la propriété établie au rang n > 1.
Soient ~u1 , . . . , ~un , ~un+1 ∈ C et λ1 , . . . , λn , λn+1 > 0 non tous nuls.
Montrons que
λ1 .~u1 + · · · + λn+1 .~un+1
~x = ∈C
λ1 + · · · + λn+1
Si λ1 = . . . = λn = 0 alors ~x = ~un+1 ∈ C
Sinon, on peut écrire
~x = (1 − µ).~a + µ.~un+1
avec
1 λn+1
~a = (λ1 .~u1 + · · · + λn .~un ) et µ = ∈ [0, 1]
λ1 + · · · + λn λ1 + · · · + λn+1
Par suite ~x ∈ [~a, ~un+1 ].
Or par hypothèse de récurrence ~a ∈ C, donc [~a, ~un+1 ] ⊂ C puis ~x ∈ C.
Récurrence établie.
K désigne R ou C.
7.1 Famille de vecteurs
Soient E un K-espace vectoriel et F = (~ei )i∈I une famille finie de vecteurs de E. Quitte à réindexer
celle-ci, on suppose que les éléments de cette famille sont indexés sur l’ensemble I = {1, . . . , n}. On
considère donc une famille F = (~ei )16i6n de vecteurs de E qu’on peut encore écrire F = (~e1 , . . . , ~en ).
Dans le cas particulier où n = 0, on dit que la famille F est vide.
7.1.1 Sous-espace vectoriel engendré par une famille finie de vecteurs
Définition
On appelle combinaison linéaire des vecteurs de la famille F = (~ei )16i6n tout vecteur ~x de E
n
X
pouvant s’écrire ~x = λi~ei avec λ1 , . . . , λn scalaires bien choisis.
i=1
Exemple Une somme sur le vide étant égale au vecteur nul, le vecteur nul est le seul vecteur
combinaison linéaire de la famille vide.
Définition
On appelle espace vectoriel engendré par la famille F = (~ei )16i6n , le sous-espace vectoriel
engendré par la partie {~e1 , . . . , ~en }. On le note VectF, Vect(~ei )16i6n ou Vect(~e1 , . . . , ~en ).
n o
Exemple Le sous-espace vectoriel engendré par la famille vide est l’espace nul ~0 .
Théorème
Si (~e1 , . . . , ~en ) est une famille de vecteurs de E alors Vect(~e1 , . . . , ~en ) est l’ensemble des
combinaisons linéaires des vecteurs ~e1 , . . . , ~en i.e. :
( n )
X
Vect(~e1 , . . . , ~en ) = λi~ei /λ1 , . . . , λn ∈ K
i=1
171
7.1. FAMILLE DE VECTEURS
dém. :
Posons ( n )
X
F = λi~ei /λ1 , . . . , λn ∈ K
i=1
On montre facilement que F est un sous-espace vectoriel de E et puisque les vecteurs ~e1 , . . . , ~en sont
tous éléments de F , on a Vect(~e1 , . . . , ~en ) ⊂ F .
Inversement, les vecteurs ~e1 , . . . , ~en sont tous éléments de Vect(~e1 , . . . , ~en ) et puisque Vect(~e1 , . . . , ~en )
est un sous-espace vectoriel, Vect(~e1 , . . . , ~en ) contient toutes les combinaisons linéaires des vecteurs
~e1 , . . . , ~en i.e. tous les éléments de F .
Exemple Cas n = 1
Vect(~u) = {λ.~u/λ ∈ K} = K.~u
Exemple Cas n = 2
Vect(~u, ~v ) = {λ.~u + µ.~v /λ, µ ∈ K} = K.~u + K.~v
Remarque Il est efficace d’établir qu’une partie est un sous-espace vectoriel en observant que celle-ci
s’apparente à un espace vectoriel engendré par une famille.
P = {(a + b, a − b, 2b)/a, b ∈ R}
Puisque P = Vect(~u, ~v ) avec ~u = (1, 1, 0) et ~v = (1, −1, 2), P est un sous-espace vectoriel de R3 .
P = {(x, y, z)/x + y − z = 0}
Puisque
x+y−z =0⇔z =x+y
on a
P = {(x, y, x + y)/x, y ∈ R} = Vect(~u, ~v )
avec ~u = (1, 0, 1) et ~v = (0, 1, 1). Ainsi P est un sous-espace vectoriel de R3 .
Exemple Dans E = K n , on pose ~ei = (0, ..., 0, 1, 0, ..., 0) ∈ Kn où 1 se situe en ième position.
La famille B = (~ei )16i6n est une famille génératrice de K n .
En effet, pour tout ~x = (x1 , . . . , xn ) ∈ Kn , on peut écrire ~x = x1~e1 + · · · + xn~en .
Exemple Dans l’espace E = F(R, R), il n’existe pas de famille génératrice finie.
Proposition
Si (~e1 , . . . , ~en , ~en+1 ) est une famille génératrice et si ~en+1 ∈ Vect(~e1 , . . . , ~en ) alors la sous-
famille (~e1 , . . . , ~en ) est génératrice.
dém. :
Tout vecteur de E est combinaison linéaire des vecteurs ~e1 , . . . , ~en , ~en+1 et puisque ~en+1 est combinaison
linéaire des vecteurs ~e1 , ..., ~en , tout vecteur de E est combinaison linéaire des vecteurs ~e1 , . . . , ~en .
Définition
On dit qu’une famille (~e1 , . . . , ~en ) = (~ei )16i6n de vecteurs de E est libre si elle vérifie
On dit alors que les vecteurs ~e1 , . . . , ~en sont linéairement indépendants.
Définition
On dit que la famille (~e1 , . . . , ~en ) = (~ei )16i6n est liée si elle n’est pas libre ce qui signifie
Une égalité λ1~e1 + · · · + λn~en = ~0 avec λ1 , . . . , λn non tous nuls est appelée relation linéaire
sur les vecteurs ~e1 , . . . , ~en .
Proposition
Soient n > 2 et (~e1 , . . . , ~en ) une famille de vecteurs de E.
On a équivalence entre :
(i) (~e1 , . . . , ~en ) est liée ;
(ii) l’un des vecteurs ~e1 , . . . , ~en est combinaison linéaire des autres.
dém. :
(i) ⇒ (ii) Supposons la famille (~e1 , . . . , ~en ) liée.
Il existe λ1 , . . . , λn non tous nuls vérifiant
λ1~e1 + · · · + λn~en = ~0
1
~ei = − (λ1~e1 + · · · + λi−1~ei−1 + λi~ei + · · · + λn~en )
λi
Ainsi l’un des vecteurs de la famille (~e1 , . . . , ~en ) est combinaison linéaire des autres.
(ii) ⇒ (i) Supposons l’un des vecteurs ~e1 , . . . , ~en combinaison linéaire des autres.
Il existe i ∈ {1, . . . , n} tel que
En posant λi = −1, on peut alors écrire la relation λ1~e1 + · · · + λn~en = ~0 avec λ1 , . . . , λn non tous nuls.
Ainsi la famille (~e1 , . . . , ~en ) est liée.
(~u, ~v ) est liée si, et seulement si, (∃α ∈ K, ~u = α.~v ) ou (∃β ∈ K, ~v = β.~u)
Ainsi, la famille (~u, ~v ) est liée si, et seulement si, ~u et ~v sont colinéaires.
Exemple Dans E = R3 , considérons les vecteurs ~u = (1, 2, 1), ~v = (1, −1, 1), w
~ = (1, 1, 0) et la
famille F = (~u, ~v , w).
~
Etudions la liberté de la famille F.
Soient α, β, γ ∈ R.
α+β+γ =0
~
~ = 0 ⇔ 2α − β + γ = 0
α.~u + β.~v + γ.w
α+β =0
~ = ~0 ⇔ α = β = γ = 0
α.~u + β.~v + γ.w
Exemple Dans E = R3 , considérons les vecteurs ~u = (1, −1, 0), ~v = (2, −1, 1), w
~ = (0, 1, 1) et la
famille F = (~u, ~v , w).
~
Etudions la liberté de la famille F.
Soient α, β, γ ∈ R.
α + 2β = 0
~
~ = 0 ⇔ −α − β + γ = 0
α.~u + β.~v + γ.w
β+γ =0
~ = ~0.
On en déduit que la famille F est liée car on a notamment la relation linéaire −2~u + ~v − w
Remarque Une sur-famille d’une famille libre n’est pas nécessairement libre.
Proposition
Si (~e1 , . . . , ~en ) est une famille libre et si ~en+1 ∈
/ Vect(~e1 , . . . , ~en ) alors la sur-famille
(~e1 , . . . , ~en , ~en+1 ) est libre.
dém. :
Soit λ1 , . . . , λn , λn+1 ∈ K.
Supposons
λ1~e1 + · · · + λn~en + λn+1~en+1 = ~0 (1)
Si λn+1 6= 0 alors on peut écrire ~en+1 = µ1~e1 + · · · + µn~en avec µi = −λi /λn+1 .
Ceci est exclu car ~en+1 ∈/ Vect(~e1 , . . . , ~en ).
On en déduit λn+1 = 0.
La relation (1) se réécrit alors
λ1~e1 + · · · + λn~en = ~0
Or la famille (~e1 , . . . , ~en ) est supposée libre donc λ1 = . . . = λn = 0.
Finalement λ1 = . . . = λn = λn+1 = 0.
Ainsi la famille (~e1 , . . . , ~en , ~en+1 ) est libre.
Exemple Dans E = K n , on pose ~ei = (0, ..., 0, 1, 0, ..., 0) ∈ Kn où 1 se situe en ième position.
On a déjà vu que la famille B = (~ei )16i6n est génératrice de K n ; montrons qu’elle est libre
Soient λ1 , . . . , λn ∈ K
Supposons λ1~e1 + · · · + λn~en = ~0.
On a (λ1 , . . . , λn ) = (0, . . . , 0) et donc λ1 = . . . = λn = 0.
Finalement, la famille B est libre et génératrice de Kn , c’est une base de Kn .
Cas n = 1 : ~e1 = 1, (1) est base de K.
Cas n = 2 : ~e1 = (1, 0) = ~i, ~e2 = (0, 1) = ~j, (~i, ~j) est base de K2 .
Cas n = 3 : ~e1 = (1, 0, 0) = ~i, ~e2 = (0, 1, 0) = ~j, ~e3 = (0, 0, 1) = ~k, (~i, ~j, ~k) est base de K3 .
n o
Exemple La famille vide est base de l’espace vectoriel nul ~0 .
En effet, l’espace engendré par la famille vide est l’espace nul et la famille vide est libre (car toute
assertion commençant par ∀x ∈ ∅ est vraie. . . )
dém. :
Existence : car la famille B est génératrice.
Unicité : Supposons ~x = λ1~e1 + · · · + λn~en et ~x = µ1~e1 + · · · + µn~en avec λi , µi ∈ K.
On a
(λ1 − µ1 )~e1 + · · · + (λn − µn )~en = ~0
Or la famille B = (~ei )16i6n est libre donc λ1 − µ1 = . . . = λn − µn = 0 puis
(λ1 , . . . , λn ) = (µ1 , . . . , µn )
Définition
Avec les notations ci-dessus, les scalaires λ1 , . . . , λn sont appelés le composantes de ~x dans la
base B (ou encore les coordonnées de ~x ).
Remarque Les composantes d’un vecteur dépendent de la base dans laquelle on travaille.
Exemple Dans le R-espace vectoriel C, les composantes de z ∈ C dans la base canonique (1, i) sont
Re(z) et Im(z).
Exemple Si B = (~ei )16i6n est une base d’un K-espace vectoriel E alors
- le vecteur nul est le vecteur dont toutes les composantes sont nulles ;
- ~ei est le vecteur dont les composantes sont 0, . . . , 0, 1, 0, . . . 0 (où le 1 situé en i-ème position).
Théorème
Si B = (~ei )16i6n est une base de E alors pour tout vecteur ~x et ~y de composantes x1 , . . . , xn
et y1 , . . . , yn dans B, les composantes de ~x + ~y sont x1 + y1 , . . . , xn + yn et celles de λ~x sont
λx1 , . . . , λxn .
Ainsi l’application ~x ∈ E 7→ xi ∈ K est une forme linéaire sur E.
dém. :
On a ~x = x1~e1 + · · · + xn~en et ~y = y1~e1 + · · · + yn~en
donc ~x + ~y = (x1 + y1 )~e1 + · · · + (xn + yn )~en et λ~x = (λx1 )~e1 + · · · + (λxn )~en .
Remarque Par calculs sur les composantes, la manipulation des vecteurs d’un K-espace vectoriel
rapporté à une base B formée de n vecteurs devient similaire à la manipulation d’éléments de Kn .
Exemple Tout K-espace vectoriel possédant une base est de dimension finie.
Théorème
Tout K-espace vectoriel de dimension finie possède au moins une base.
dém. :
Soient E un K-espace vectoriel de dimension finie et G = (~u1 , . . . , ~um ) une famille génératrice de
vecteurs de E.
Si la famille G est libre c’est une base de E.
Sinon, la famille G est liée, et alors un des vecteurs de G est combinaison linéaire des autres. Quitte à
permuter ceux-ci, supposons que le vecteur ~um est combinaison linéaire des vecteurs ~u1 , . . . , ~um−1 . Par
le principe de réduction des familles génératrices, on peut affirmer que la famille G 0 = (~u1 , . . . , ~um−1 )
est encore génératrice de E. On reprend alors la discussion précédente : si G 0 est libre, c’est une base de
E, sinon on réduit la famille G 0 . Nécessairement ce processus s’arrête car la famille initiale est finie et si,
au pire, on retire tous les vecteurs de G, on obtient la famille vide qui est libre.
7.2.2 Dimension
Théorème
Soit E un K-espace vectoriel de dimension finie.
Une famille libre de vecteurs de E ne peut avoir strictement plus de vecteurs qu’une famille
génératrice.
dém. :
Par récurrence sur n ∈ N, montrons la propriété :
« Si un K- espace vectoriel E possède une famille génératrice à n vecteurs, alors toute famille constituée
de n + 1 vecteurs est liée ».
Le résultat du théorème découle de manière immédiate de cette propriété.
Pour n = 0 n o
Si E possède une famille génératrice à 0 vecteurs c’est qu’alors E = Vect(∅) = ~0 .
Par suite toute famille constituée d’un vecteur de E est liée car celle-ci contient le vecteur nul.
Supposons la propriété établie au rang n − 1 ∈ N.
Soit E un K- espace vectoriel possédant une famille génératrice G = (~e1 , . . . , ~en ) formée de n vecteurs
et U = (~u1 , . . . , ~un+1 ) une famille formée de n + 1 vecteurs de E.
Nous voulons montrons que U est liée.
Posons F = Vect(~e1 , . . . , ~en−1 ).
G étant une famille génératrice de E, chaque vecteur de la famille U peut s’écrire comme combinaison
linéaire des vecteurs de E, ceci permet d’écrire ~ui = ~vi + αi~en avec ~vi ∈ F et αi ∈ K pour tout
1 6 i 6 n + 1.
Distinguons deux cas :
1er cas : Les αi sont tous nuls.
Les vecteurs ~u1 , . . . , ~un+1 sont alors tous éléments de F , or F est un sous-espace vectoriel engendré par
n − 1 vecteurs et la famille U est formée de n + 1 vecteurs de celui-ci, l’hypothèse de récurrence permet
alors d’affirmer qu’une sous-famille de n vecteurs de U est liée et donc qu’a fortiori la famille U est liée.
2ème cas : il existe au moins un αi non nul.
Quitte à réindexer les vecteurs de la famille U (ce qui ne changera rien à son caractère liée ou non) on
peut supposer αn+1 6= 0.
Posons alors
αi
~xi = ~ui − .~un+1
αn+1
pour tout 1 6 i 6 n.
Par construction, tous les vecteurs ~x1 , . . . , ~xn appartiennent à F car
αi αi
~xi = (~vi + αi~en ) − (~vn+1 + αn+1~en ) = ~vi − ~vn+1
αn+1 αn+1
La famille (~x1 , . . . , ~xn ) apparaît alors comme étant une famille formée de n vecteurs de l’espace F , or F
est engendré par n − 1 vecteurs, l’hypothèse de récurrence permet alors d’affirmer que cette famille est
liée.
Par suite il existe (λ1 , . . . , λn ) 6= (0, ..., 0) vérifiant λ1 ~x1 + · · · + λn ~xn = ~0.
En reprenant l’expression de chaque ~xi , la relation ci-dessus donne
avec
λ1 α1 + · · · + λn αn
λn+1 = −
αn+1
Cette dernière relation étant écrite avec des scalaires λi non tous nuls, on peut conclure que la famille U
est liée.
Récurrence établie.
Corollaire
Les bases d’un K-espace vectoriel E de dimension finie sont toutes constituées du même
nombre de vecteurs.
dém. :
Soient B = (~e1 , ..., ~en ) et B 0 = (~ε1 , ..., ~εm ) deux bases de E.
Puisque B est libre et B 0 génératrice on a n 6 m.
Puisque B est génératrice et B 0 libre on a aussi n > m.
On en déduit n = m.
Définition
Si E est un K-espace vectoriel de dimension finie, on appelle dimension de E le nombre de
vecteurs constituant les bases de E. Elle est notée dim E ou encore dimK E s’il y a ambiguïté
sur le corps de base K.
Si l’espace E n’est pas de dimension finie, on pose dim E = +∞.
Remarque Pour déterminer la dimension d’un espace E, il suffit de déterminer une base de E et de
dénombrer le nombre de vecteur la constituant.
n o
Exemple dim ~0 = 0 car la famille vide est base de l’espace nul.
Exemple Les visualisations géométriques planes correspondent à la dimension 2, les visualisation dans
l’espace correspondent à la dimension 3.
Définition
Un K-espace vectoriel de dimension 1 est appelé une droite vectorielle.
Un K-espace vectoriel de dimension 2 est appelé un plan vectoriel.
Théorème
Soient E et F deux K-espaces vectoriels de dimensions finies.
L’espace E × F est de dimension finie et dim E × F = dim E + dim F .
dém. :
Posons p = dim E et q = dim F .
Soient B = (~ej )16j6p et C = (f~k )16k6q des bases de E et F .
Pour i ∈ {1, . . . , p}, posons ~gi = (~ei , ~0F ) et pour i ∈ {1, . . . , q}, posons ~gp+i = (~0E , f~i ).
On détermine ainsi une famille D = (~gi )16i6p+q de vecteur de E × F . Montrons que celle-ci est une
base de E × F .
Soit (~x, ~y ) ∈ E × F . Puisque B et C sont des familles génératrices de E et F , on peut écrire
avec xj , yk ∈ K. On a alors
Théorème
Soit E un K-espace vectoriel de dimension n ∈ N et B = (~e1 , . . . , ~en ) une famille formée
d’exactement n = dim E vecteurs de E. On a équivalence entre :
(i) B est une base ;
(ii) B est une famille libre ;
(iii) B est une famille génératrice.
dém. :
Les implications (i) ⇒ (ii) et (i) ⇒ (iii) sont immédiates.
(ii) ⇒ (i) Supposons la famille B libre et montrons qu’elle est génératrice.
Soit ~x ∈ E. Si par l’absurde ~x ∈
/ Vect(~e1 , . . . , ~en ) alors par le principe d’extension des familles libres, on
peut affirmer que la famille (~e1 , . . . , ~en , ~x) est libre. Or celle-ci est formée de n + 1 > dim E vecteurs.
C’est absurde et on peut donc conclure ~x ∈ Vect(~e1 , . . . , ~en ).
Ainsi tout vecteur de E est combinaison linéaire des vecteurs de la famille B et celle-ci est donc génératrice.
(iii) ⇒ (i) Supposons la famille B génératrice et montrons qu’elle est libre.
Par l’absurde, supposons que la famille B est liée.
L’un des vecteurs de B est combinaison linéaire des autres, notons i son indice. Par le principe de
réduction des familles génératrices, la famille (~e1 , . . . , ~ebi , . . . , ~en ) est génératrice. Or cette famille est
constituée de n − 1 < dim E vecteurs. C’est absurde et donc on peut affirmer que la famille B est libre.
Exemple Dans R3 , considérons la famille B = (~u, ~v , w) ~ formée des vecteurs
~ = (0, 1, 1) et B = (~u, ~v , w).
~u = (1, 1, 1), ~v = (1, 2, 1), w ~
Montrons que la famille B est une base de R3 .
Supposons α~u + β~v + γ w ~ = ~0.
On a
(α + β, α + 2β + γ, α + β + γ) = (0, 0, 0)
En résolvant le système formé par identification des éléments, on obtient α = β = γ = 0.
La famille B est libre et formée de 3 = dim R3 vecteurs de R3 , c’est donc une base de R3 .
Déterminons les composantes du vecteur ~x = (1, 2, 3) dans cette base.
Il s’agit de déterminer α, β, γ ∈ R vérifiant α~u + β~v + γ w
~ = ~x i.e.
(α + β, α + 2β + γ, α + β + γ) = (1, 2, 3)
Exemple Soit E un K-espace vectoriel de dimension 3 muni d’une base B = (~e1 , ~e2 , ~e3 ).
Considérons B 0 = (~ε1 , ~ε2 , ~ε3 ) la famille formée des vecteurs
~ui ∈
/ Vect(~e1 , ..., ~ep )
Posons alors ~ep+1 = ~ui , par le principe d’extension des familles libres, la famille (~e1 , ..., ~ep , ~ep+1 ) est
libre.
On a ainsi complété L à partir d’un vecteur de G de sorte d’obtenir une famille libre à p + 1 vecteurs.
On réitère ce processus jusqu’à obtention d’une famille génératrice ; ce processus s’arrête nécessairement
car les il n’y a qu’un nombre fini de vecteurs dans la famille G.
Corollaire
Dans un K-espace vectoriel de dimension finie :
1) Toute famille libre peut être complétée en une base.
2) De toute famille génératrice, on peut extraire une base.
dém. :
1) Il suffit de former une base en complétant la famille libre considérée à l’aide de vecteurs bien choisis
Exemple Soit E un K-espace vectoriel muni d’une base B = (~e1 , ~e2 , ~e3 ).
Considérons le vecteur ~u = ~e1 + ~e2 .
Puisque ~u 6= ~0, la famille (~u) est libre. Complétons-la en une base de E ce qui nécessite d’y adjoindre
deux vecteurs puisque dim E = 3.
Comme la famille B = (~e1 , ~e2 , ~e3 ) est génératrice de E, on peut compléter (~u) à l’aide de vecteurs bien
choisi dans cette famille.
Commençons par considérer le vecteur ~e1 .
Les vecteurs ~u et ~e1 sont clairement non colinéaires et donc la famille (~u, ~e1 ) est libre.
Pour poursuivre la complétion, le vecteur ~e2 n’est pas un bon choix car ~u = ~e1 + ~e2 . Prenons alors le
vecteur ~e3 , on peut affirmer que la famille (~u, ~e1 , ~e3 ) est base de E notamment parce que l’on sait qu’on
peut compléter la famille (~u, ~e1 ) en une base de E à l’aide d’un vecteur bien choisi dans (~e1 , ~e2 , ~e3 ) et
que seul le vecteur ~e3 est possible.
7.2.5 Applications
7.2.5.1 Équation différentielle linéaire d’ordre 2 à coefficients constants
Soient p, q ∈ K. On note E(p, q) l’ensemble des fonctions de R vers K solutions de l’équation différentielle
y 00 + py 0 + qy = 0
Théorème
L’ensemble S des fonctions de R vers K solutions de l’équation différentielle
E : y 00 + py 0 + qy = 0 (avec p, q ∈ K )
Exemple Supposons K = C.
Introduisons l’équation caractéristique r2 + pr + q = 0 de discriminant ∆.
Si ∆ 6= 0 alors l’équation caractéristique admet deux racines distinctes α et β ∈ C.
On vérifie alors aisément que x 7→ eαx et x 7→ eβx sont solutions de E et puisque celles-ci sont
linéairement indépendante, on peut affirmer que la solution générale de E est
y(x) = λeαx + µeβx avec λ, µ ∈ C
Si ∆ = 0 alors l’équation caractéristique admet une racine double α ∈ C.
On vérifie par le calcul des les fonctions x 7→ eαx et x 7→ x eαx sont solutions de E et puisque celles-ci
sont linéairement indépendante, on peut affirmer que la solution générale de E est
y(x) = (λ + µx)eβx avec λ, µ ∈ C
Définition
On dit que (un ) est une suite récurrente linéaire d’ordre 2.
Proposition
Pour tout a, b ∈ K, il existe une unique suite u = (un ) ∈ S vérifiant les conditions initiales
u0 = a et u1 = b.
dém. :
Ces conditions initiales déterminent entièrement les termes successifs de la suite.
Théorème
S est un plan vectoriel.
dém. :
Montrons pour commencer que S est un sous-espace vectoriel de KN .
On a S ⊂ KN et on vérifie aisément (0)n∈N ∈ S.
Soient λ, µ ∈ K et u, v ∈ S. Puisque λu + µv = (λun + µvn )n∈N , on a
Ainsi λu + µv ∈ S.
S est donc un sous-espace vectoriel de KN et c’est donc un K-espace vectoriel.
Pour déterminer sa dimension, formons une base de S. Pour cela considérons les deux suites v, w ∈ S
déterminée par les conditions initiales
( (
v0 = 1 w0 = 0
et
v1 = 0 w1 = 1
Supposons λv + µw = 0.
Les termes d’indices 0 et 1 de cette égalité de suites donnent λ = 0 et µ = 0.
La famille (v, w) est donc libre.
Soit u ∈ S. Les suites u et u0 v + u1 w sont éléments de S et, par construction, elles ont les mêmes termes
de rang 0 et de rang 1. On en déduit qu’elles sont donc égales et donc la famille (v, w) est un génératrice
de S.
Finalement (v, w) est une base de S et donc S est un K-espace vectoriel de dimension 2.
Remarque Il n’est pas aisé d’exprimer les termes généraux des suites v et w. Pour cette raison, nous
allons chercher des suites plus simples éléments de S, à commencer par les suites géométrique.
Proposition
On a équivalence entre :
(i) la suite géométrique (rn ) appartient à S ;
(ii) r est solution de l’équation r2 + pr + q = 0.
dém. :
(i) ⇒ (ii) Si la suite (rn ) vérifie ∀n ∈ N, rn+2 + prn+1 + qrn = 0 alors pour n = 0 on a r2 + pr + q = 0.
(ii) ⇒ (i) Si r2 + pr + q = 0 alors pour tout n ∈ N, rn (r2 + pr + q) = 0 et donc rn+2 + prn+1 + qrn = 0.
Définition
L’équation r2 + pr + q = 0 d’inconnue r ∈ C est appelée équation caractéristique associée à
la relation de récurrence un+2 + pun+1 + qun = 0.
Exemple On suppose K = C.
Notons ∆ le discriminant de l’équation caractéristique r2 + pr + q = 0.
Si ∆ 6= 0 alors l’équation caractéristique possède deux solutions distinctes r et s ∈ C? .
Considérons alors les suites v = (rn ) et w = (sn ).
Les suites v et w sont éléments de S et on vérifie aisément que la famille (v, w) est libre. La famille
(v, w) est donc une base de S et par suite
∀u ∈ S, ∃(λ, µ) ∈ C2 , ∀n ∈ N, un = (λ + µn)rn .
Exemple On suppose K = R.
Notons ∆ le discriminant de l’équation caractéristique r2 + pr + q = 0.
Si ∆ > 0 alors l’équation caractéristique possède deux solutions distinctes r et s ∈ R? .
(un ) est une suite récurrente linéaire d’ordre 2 d’équation caractéristique r2 + 2r + 1 = 0 de racine
double −1.
Le terme général de la suite (un ) est donc de la forme
(un ) est une suite récurrente linéaire d’ordre 2 d’équation caractéristique r2 + r + 1 = 0 de racines
complexes conjuguées j = exp(2iπ/3) et j 2 .
Le terme général de la suite (un ) est donc de la forme
2nπ 2nπ
un = λ cos + µ sin avec λ, µ ∈ R
3 3
√
Par les conditions initiales, on obtient λ = 1 et µ = 3.
Finalement
(2n − 1)π
∀n ∈ N, un = 2 cos
3
dim F 6 dim E
F = {(a + 2b + c, b + c, a + b)/a, b, c ∈ R}
On a
F = {a~u + b~v + cw/a,
~ b, c ∈ R}
avec ~u = (1, 0, 1), ~v = (2, 1, 1) et w
~ = (1, 1, 0).
Par suite F = Vect(~u, ~v , w).
~
La famille (~u, ~v , w)
~ est génératrice de F .
On remarque la relation linéaire ~u − ~v + w ~ = ~0.
Par suite le vecteur w, ~ par exemple, est combinaison linéaire des vecteurs ~u et ~v et donc F = Vect(~u, ~v ).
Or les vecteurs ~u et ~v ne sont pas colinéaires donc la famille (~u, ~v ) est une base de F .
F = (x, y, z) ∈ R3 /x + y + z = 0, 2x − y + z = 0
Résolvons le système (
x+y+z =0
2x − y + z = 0
On obtient pour solution (
x = 2y
z = −3y
On en déduit
F = {(2y, y, −3y)/y ∈ R} = Vect~u
avec ~u = (2, 1, −3).
Puisque ~u 6= ~0, la famille (~u) est une base de F .
F = (x, y, z, t) ∈ R4 /x + 2y + 3z + 4t = 0
Par suite D est une famille génératrice et finalement c’est une base de E.
Définition
Toute base de E obtenue en accolant une base de F et une base de G est dite adaptée à la
supplémentarité de F et G.
Théorème
Soit E un K-espace vectoriel de dimension finie.
Tout sous-espace vectoriel F de E possède au moins un supplémentaire.
dém. :
Soit F un sous-espace vectoriel de E et B = (~e1 , ..., ~ep ) une base de F avec p = dim F .
La famille B est une famille libre de vecteurs de E, on peut la compléter en une base de E de la forme
Remarque Pour former un supplémentaire de F , il suffit de compléter une base de F en une base de E
et de considérer l’espace engendré par les vecteurs complétant.
dém. :
La réunion d’une famille génératrice de F et d’une famille génératrice de G donne une famille génératrice
de F + G. Par suite l’espace F + G est de dimension finie.
Puisque F ∩ G est un sous-espace vectoriel de F , l’espace F ∩ G possède un supplémentaire H dans F .
Montrons que H et G sont supplémentaires dans F + G.
Puisque H ⊂ F , on a H = H ∩ F et donc
n o
H ∩ G = H ∩ F ∩ G = H ∩ (F ∩ G) = ~0
7.3.5 Applications de la dimension
Théorème
Soient F et G deux sous-espaces vectoriels de dimensions finies d’un K-espace vectoriel E.
Si F ⊂ G et si dim F = dim G alors F = G.
dém. :
Posons p = dim F et considérons B = (~e1 , ..., ~ep ) une base de F .
B est une famille libre formée de p = dim G vecteurs de G.
C’est donc une base de G et par suite G = Vect(~e1 , ..., ~ep ) = F .
Exemple Soient P1 et P2 deux plans vectoriels distincts d’une K-espace vectoriel E de dimension 3.
Montrons que P1 ∩ P2 est une droite vectorielle.
Etudions P1 + P2 .
P1 + P2 est un sous-espace vectoriel de E donc dim P1 + P2 6 3.
P1 + P2 contient P1 donc dim(P1 + P2 ) > 2.
Si dim(P1 + P2 ) = 2 alors par inclusion et égalité des dimensions, on a P1 = P1 + P2 . Par un argument
identique on a aussi P2 = P1 + P2 et donc P1 = P2 ce qui est exclu.
On en déduit dim(P1 + P2 ) = 3 et par la formule de Grassman
Théorème
Soient F et G deux sous-espaces vectoriels d’un K-espace vectoriel E de dimension finie
vérifiant
dim F + dim G = dim E
On a équivalence entre :
(i) F et G sont supplémentaires dans E ;
(ii) F + G = E n ;o
(iii) F ∩ G = ~0 .
dém. :
(i) ⇒ (ii) ok
(ii) ⇒ (iii) Supposons F + G = E. n o
Par la formule de Grassman dim(F ∩ G) = dim F + dim G − dim E = 0 et donc F ∩ G = ~0 .
n o
(iii) ⇒ (i) Supposons F ∩ G = ~0 .
Par la formule de Grassman dim(F + G) = dim F + dim G − 0 = dim E. Par inclusion et égalité des
dimensions on a F + G = E et donc F et G sont supplémentaires dans E.
Définition
On appelle rang de la famille F la dimension, notée rgF, de l’espace vectoriel engendré par
cette famille. Ainsi
Exemple
si ~u 6= ~0
1
rg(~u) =
0 si ~u = ~0
Exemple
2 si ~u, ~v non colinéaires
rg(~u, ~v ) = 1 si ~u, ~v colinéaires, non tous deux nuls
0 si ~u = ~v = ~0
Théorème
On a rg(~e1 , . . . , ~ep ) 6 p avec égalité si, et seulement si, la famille est libre.
dém. :
(~e1 , . . . , ~ep ) est une famille génératrice de l’espace Vect(~e1 , . . . , ~ep ) donc dim Vect(~e1 , . . . , ~ep ) 6 p.
Si la famille (~e1 , . . . , ~ep ) est libre, c’est alors une base de Vect(~e1 , . . . , ~ep ) et donc dim Vect(~e1 , . . . , ~ep ) =
p.
Inversement si dim Vect(~e1 , . . . , ~ep ) = p alors la famille (~e1 , . . . , ~ep ) est génératrice et formée de p =
dim Vect(~e1 , . . . , ~ep ) vecteurs de Vect(~e1 , . . . , ~ep ), c’est donc une base de Vect(~e1 , . . . , ~ep ) et en particulier
cette famille est libre.
Théorème
On a rg(~e1 , . . . , ~ep ) 6 dim E avec égalité si, et seulement si, la famille est génératrice.
dém. :
L’espace Vect(~e1 , . . . , ~ep ) est inclus dans E donc dim Vect(~e1 , . . . , ~ep ) 6 dim E.
De plus, puisqu’il y a inclusion, il y a égalité des dimensions si, et seulement si, les espaces sont égaux
i.e. si, et seulement si, la famille (~e1 , . . . , ~ep ) est génératrice de E.
Corollaire
(~e1 , . . . , ~ep ) est une base de E si, et seulement si, rg(~e1 , . . . , ~ep ) = p = dim E.
7.3.6.2 Opérations
Proposition
On ne modifie pas le rang d’une famille de vecteur lorsque :
- on retire le vecteur nul de la famille si celui-ci y apparaît ;
- on permute les vecteurs de la famille ;
- on multiple un vecteur par un scalaire λ 6= 0 ;
- on ajoute à un vecteur une combinaison linéaire des autres.
dém. :
Les différentes manipulations proposées ne modifient pas l’espace vectoriel engendré par la famille ni
a fortiori son rang. Cela est immédiat pour les trois premières manipulations, détaillons la quatrième
manipulation.
Soit (~e1 , . . . , ~ep ) une famille de vecteurs d’un K-espace vectoriel E. Quitte à permuter les vecteurs,
supposons qu’on ajoute au vecteur ~ep une combinaison linéaire ~x = λ1~e1 + · · · + λp−1~ep−1 .
Puisqu’une combinaison linéaire des vecteurs ~e1 , . . . , ~ep−1 et ~ep + ~x est aussi une combinaison linéaire
des vecteurs ~e1 , . . . , ~ep−1 , ~ep on a déjà
Vect(~e1 , . . . , ~ep ) = Vect(~e1 , . . . , (~ep + ~x) − ~x) ⊂ Vect(~e1 , . . . , ~ep−1 , ~ep + ~x)
Exemple Soit E un K-espace vectoriel muni d’une base (~e1 , ~e2 , ~e3 ).
Déterminons le rang de la famille (~ε1 , ~ε2 , ~ε3 ) avec
Théorème
f (Vect(B)) = Vect(f (B)) i.e. : f (Vect(~e1 , . . . , ~en )) = Vect (f (~e1 ), . . . , f (~en )).
dém. :
donc
f (Vect(~e1 , . . . , ~en )) = {f (λ1~e1 + · · · + λn~en )/λ1 , . . . , λn ∈ K}
Par linéarité de f
et donc
f (Vect(~e1 , . . . , ~en )) = Vect (f (~e1 ), . . . , f (~en ))
Corollaire
Si V est un sous-espace vectoriel de E alors dim f (V ) 6 dim V
dém. :
Soit (~e1 , . . . , ~en ) une base de V .
Théorème
Si la famille B est génératrice de E et si f ∈ L(E, F ) est surjective alors la famille f (B) est
génératrice de F .
dém. :
Soit ~y ∈ F .
Puisque f est surjective, il existe ~x ∈ E vérifiant ~y = f (~x).
Puisque la famille B est génératrice, il existe λ1 , . . . , λn ∈ K vérifiant
~x = λ1~e1 + · · · + λn~en
et alors
f (~x) = λ1 f (~e1 ) + · · · + λn f (~en )
Ainsi la famille f (B) est génératrice de F .
Corollaire
Si f ∈ L(E, F ) est surjective alors dim F 6 dim E.
dém. :
Une base de E est transformée par l’application f en une famille génératrice de F . Il y a donc
plus de vecteurs dans une base de E que la dimension de F .
Théorème
Si la famille B est une base de E et si f est un isomorphisme alors f (B) est une base de F .
dém. :
C’est immédiat par les deux théorèmes qui précèdent.
Corollaire
Si f ∈ L(E, F ) est un isomorphisme alors dim E = dim F .
∀1 6 j 6 p, f (~ej ) = ~yj
dém. :
Unicité :
Soit f solution. Pour tout ~x ∈ E, on peut écrire ~x = λ1~e1 + · · · + λp~ep avec λj ∈ K
On a alors
f (~x) = λ1 f (~e1 ) + · · · + λp f (~ep ) = λ1 ~y1 + · · · + λp ~yp
ce qui détermine f (~x) de manière unique.
Existence :
Pour tout ~x ∈ E, posons f (~x) = λ1 ~y1 + · · · + λp ~yp avec λ1 , . . . , λp les composantes de x dans la base
B. On définit ainsi une application f : E → F .
Puisque les applications composantes dans une base sont linéaires, l’application f est linéaire et on vérifie
aisément que f (~ej ) = ~yj car les composantes de ~ej dans B sont nulles sauf la j-ème égale à 1.
Corollaire
Une application linéaire est entièrement déterminée par l’image d’une base.
Exemple On vérifie aisément que les vecteurs (1, 1, 1), (0, 1, 1) et (0, 0, 1) forment une base de R3 .
Déterminons l’unique f ∈ L(R3 , R2 ) vérifiant
f (1, 1, 1) = (1, 0), f (0, 1, 1) = (0, 1) et f (0, 0, 1) = (1, 1)
Pour (x, y, z) ∈ R3 déterminer α, β, γ ∈ R tel que
(x, y, z) = α.(1, 1, 1) + β(0, 1, 1) + γ(0, 0, 1)
Après résolution, on obtient α = x, β = y − x et γ = z − y − x.
On a alors
f (x, y, z) = xf (1, 1, 1) + (y − x)f (0, 1, 1) + (z − y − x)f (0, 0, 1)
donc
f (x, y, z) = (z − y, z − 2x)
Théorème
Soient E et F deux K-espaces vectoriels, f ∈ L(E, F ) et B = (~e1 , . . . , ~ep ) une base de E.
1) f est injective si, et seulement si, la famille (f (~e1 ), . . . , f (~ep )) est libre.
2) f est surjective si, et seulement si, la famille (f (~e1 ), . . . , f (~ep )) est génératrice de F .
3) f est un isomorphisme si, et seulement si, la famille f (B) est une base de F .
dém. :
1) ( ⇒ ) déjà vue
( ⇐ ) Supposons la famille (f (~e1 ), . . . , f (~ep )) libre
Soit ~x ∈ ker f . On peut écrire ~x = λ1~e1 + · · · + λp~ep .
On a alors
f (~x) = λ1 f (~e1 ) + · · · + λp f (~ep ) = ~0
Or la famille (fn(~eo1 ), . . . , f (~ep )) est libre donc λ1 = . . . = λp = 0 puis ~x = ~0.
Ainsi ker f = ~0 est donc f est injective.
2) ( ⇒ ) déjà vue
( ⇐ ) Supposons la famille (f (~e1 ), . . . , f (~ep )) génératrice de F .
Soit ~y ∈ F . On peut écrire
~y = λ1 f (~e1 ) + · · · + λp f (~ep )
Posons alors ~x = λ1~e1 + · · · + λp~ep ∈ E. Par linéarité de f , on vérifie ~y = f (~x).
Par suite f est surjective.
3) immédiat par ce qui précède.
Corollaire
Deux K-espaces vectoriels de dimensions finies sont isomorphes si, et seulement si, ils ont
même dimension
dém. :
Si deux espaces sont isomorphes, un isomorphisme transforme une base de l’un en une base de l’autre et
donc les espaces ont même dimension.
Inversement, s’il y a égalité des dimensions, il existe une application linéaire transformant une base de
l’un en une base de l’autre et celle-ci est un isomorphisme.
Proposition
Si B = (~e1 , . . . , ~ep ) est une base de E alors
dém. :
Proposition
rgf 6 dim E avec égalité si, et seulement si, f est injective.
rgf 6 dim F avec égalité si, et seulement si, f est surjective.
dém. :
Introduisons (~e1 , . . . , ~ep ) une base de E avec p = dim E
rgf = rg(f (~e1 ), . . . , f (~ep )) 6 p avec égalité si, et seulement si, la famille (f (~e1 ), . . . , f (~ep )) est libre
i.e. f injective.
Aussi rgf = rg(f (~e1 ), . . . , f (~ep )) 6 dim F avec égalité si, et seulement si, la famille (f (~e1 ), . . . , f (~ep ))
est génératrice de F i.e. f surjective.
Théorème
Soient f ∈ L(E, F ) et g ∈ L(F, G).
On a
rg(g ◦ f ) 6 min(rgf, rgg)
De plus, si f surjective rg(g ◦ f ) = rgg et si g injective rg(g ◦ f ) = rgf .
dém. :
Corollaire
On ne modifie pas le rang d’une application linéaire en composant celle-ci avec un
isomorphisme.
Exemple Soit f : R3 → R3 définie par
f : (x, y, z) 7→ (x + 2y + z, y − x, 2x + y + z)
On vérifie aisément que l’application f est linéaire. Déterminons une base de Imf et ker f .
Commençons par étudier ker f .
Or
x + 2y + z = 0
(
x=y
y−x=0 ⇔
z = −3y
2x + y + z = 0
donc
ker f = {(y, y, −3y)/y ∈ R} = Vect~u
avec ~u = (1, 1, −3).
La famille (~u) est base de ker f .
Etudions maintenant Imf .
Par la formule du rang, on a rgf = dim R3 − dim ker f = 2.
Pour former une base de Imf , il suffit de déterminer deux vecteurs indépendants dans l’image de f .
~v = f (1, 0, 0) = (1, −1, 2) et w
~ = f (0, 1, 0) = (2, 1, 1) conviennent et donc la famille (~v , w)
~ est base
de l’image de f .
Exemple Soient E un K-espace vectoriel de dimension finie et f ∈ L(E) vérifiant ker f = ker f 2 .
Montrons que Imf et ker f sont supplémentaires dans E.
Par la formule du o on a déjà dim Imf + dim ker f = dim E. Il suffit alors d’observer
n rang
~
Imf ∩ ker f = 0 pour conclure.
Soit ~x ∈ Imf ∩ ker f . Il existe ~a ∈ E tel que ~x = f (~a). Puisque f (~x) = ~0, on a f 2 (~a) = ~0 i.e.
~a ∈ ker f 2 . Or par hypothèse 2 ~
n o ker f = ker f donc a ∈ ker f puis ~x = 0.
~
Ainsi Imf ∩ ker f = 0 et donc les espaces Imf et ker f sont supplémentaires dans E.
dém. :
(i) ⇒ (ii) ok
(ii) ⇒ (iii) Supposons f injective.
Par la formule du rang rgf = dim E − dim ker f = dim E = dim F donc f est surjective.
(iii) ⇒ (iv) Supposons f surjective.
On a rgf = dim F = n.
(iv) ⇒ (i) Supposons rgf = n. On a rgf = dim E donc f est injective. On a aussi rgf = dim F donc f
est surjective. Ainsi f est un isomorphisme.
(i) ⇒ (v) et (vi) ok
(v) ⇒ (ii) Supposons qu’il existe g ∈ L(F, E) vérifiant g ◦ f = IdE .
Puisque l’application g ◦ f injective alors f est injective.
(vi) ⇒ (iii) Supposons qu’il existe h ∈ L(F, E) vérifiant f ◦ h = IdF .
Puisque l’application f ◦ h est surjective alors f est surjective.
Enfin si g ◦ f = IdE , sachant f bijective, on a g = g ◦ (f ◦ f −1 ) = (g ◦ f ) ◦ f −1 = f −1 et de même si
f ◦ h = IdF alors h = f −1 .
Corollaire
Si E est un K-espace vectoriel de dimension finie, le théorème ci-dessus caractérise les
automorphismes de E parmi les endomorphismes de E.
f : (x, y, z) 7→ (y + z, z + x, x + y)
7.4.6 Hyperplan
Soit E un K-espace vectoriel de dimension finie n non nulle.
Définition
On appelle hyperplan de E tout sous-espace vectoriel H de dimension n − 1.
Proposition
Le noyau d’une forme linéaire non nulle est un hyperplan.
dém. :
Soit ϕ une forme linéaire non nulle sur E, i.e. une forme linéaire différente de l’application nulle.
On a Imϕ ⊂ K donc rgϕ = 0 ou rgϕ = 1.
Or la forme linéaire ϕ est non nulle donc rgϕ = 1 puis par la formule du rang dim ker ϕ = dim E−rgϕ =
n − 1.
H = {(x1 , . . . , xn ) ∈ Kn /x1 + · · · + xn = 0}
Proposition
Tout hyperplan peut se voir comme noyau d’une forme linéaire non nulle.
dém. :
Soient H un hyperplan et (~e1 , . . . , ~en−1 ) une base de H que l’on complète en une base de E
B = (~e1 , . . . , ~en−1 , ~en )
Considérons ϕ l’application donnant la n-ième composante d’un vecteur dans B.
L’application ϕ est une forme linéaire non nulle sur E et par construction H ⊂ ker ϕ.
Or H est ker ϕ sont des hyperplans donc par inclusion et égalité des dimensions, on a H = ker ϕ.
f est une forme linéaire non nulle et H ⊂ ker f donc H = ker f .
On suppose E muni d’une base B = (~e1 , ..., ~en ).
Pour tout ~x ∈ E, notons x1 , ..., xn ses composantes dans B.
Théorème
Les hyperplans de E sont les ensembles H constitués des vecteurs ~x ∈ E dont les composantes
x1 , . . . , xn dans une base B de E sont solutions d’une équation de la forme
a1 x1 + · · · + an xn = 0
a1 x1 + · · · + an xn = 0
Exemple Soit E une R-espace vectoriel muni d’une base B = (~i, ~j, ~k).
On convient de noter x, y, z les composantes des vecteurs de E.
Soient ~u(1, 0, 1) et ~v (1, 2, −1) et H = Vect(~u, ~v ).
Puisque les vecteurs ~u et ~v ne sont pas colinéaires, on a dim H = 2 et donc H est un hyperplan de E.
Déterminons une équation de H.
Celle-ci est de la forme : ax + by + cz = 0 avec (a, b, c) 6= (0, 0, 0).
Puisque ~u, ~v ∈ H on a (
a+c=0
a + 2b − c = 0
On en déduit (
a = −c
b=c
En prenant c = 1, l’équation −x + y + z = 0 est une équation d’un hyperplan contenant les vecteur ~u et
~v , c’est une hyperplan ne peut être que H.
Finalement −x + y + z = 0 est une équation définissant H.
Dans ce chapitre on étudie la manipulation des fonctions polynomiales dans un cadre plus abstrait.
Les propriétés obtenues s’appliqueront aux fonctions polynomiales mais plus généralement à tout type
d’expression polynomiale
K désigne R ou C.
8.1 Construction de l’anneau des polynômes
8.1.1 Polynômes
Définition
On appelle polynôme à coefficients dans K en l’indéterminée X tout objet noté
+∞
X
P = an X n = a0 + a1 X + ... + an X n + ...
n=0
où (an )n∈N est une suite d’éléments de K nulle à partir d’un certain rang, appelée suite des
coefficients de P .
On note K [X] l’ensemble de ces éléments.
∀n > p, an = 0
+∞
X
la somme an X n ne contient qu’un nombre fini de termes non nuls. On peut aussi l’écrire
n=0
P = a0 + a1 X + a2 X 2 + · · · + ap X p
Exemple 2 + X − X 2 est un polynôme de R [X] dont la suite des coefficients est : 2, 1, −1, 0, 0, . . .
Exemple X 3 + X − 1 est un polynôme de R [X] dont la suite des coefficients est : −1, 1, 0, 1, 0, 0, . . .
207
8.1. CONSTRUCTION DE L’ANNEAU DES POLYNÔMES
Remarque L’indéterminée X n’est pas une variable, c’est une lettre qui permet de désigner les
coefficients respectifs d’un polynôme.
Définition
+∞
X +∞
X
Deux polynômes P = an X n et Q = bn X n ∈ K [X] sont dits égaux s’ils ont les
n=0 n=0
mêmes coefficients.
Ainsi :
P = Q ⇔ ∀n ∈ N, an = bn
Définition
On appelle polynôme constant égal à C ∈ K le polynôme C + 0.X + · · · = C.
Définition
On appelle monôme, tout polynôme de la forme : 0 + 0.X + · · · + 0.X n−1 + aX n + 0.X n+1 +
· · · = aX n
avec a ∈ K, n ∈ N.
Définition
+∞
X
On dit qu’un polynôme P = an X n ∈ K [X] est pair (resp. impair) si
n=0
Exemple (2 + X − X 2 ) + (X 3 + X − 1) = 1 + 2X − X 2 + X 3 .
Définition
+∞
X
Soient P = an X n ∈ K [X] et λ ∈ K. On définit le polynôme λ.P ∈ K [X] par :
n=0
+∞
X
λ.P = (λ.an )X n
n=0
Remarque λ.P est bien un polynôme car la suite des ses coefficients est nulle à partir d’un certain rang.
Exemple 2.(X 2 − 1) = 2X 2 − 2.
Théorème
(K [X] , +, .) est un K -espace vectoriel dont l’élément nul est le polynôme nul.
dém. :
L’addition est une loi de composition interne sur K [X].
On vérifie aisément qu’elle est commutative et qu’elle est associative.
+∞
X
Pour tout P = an X n ∈ K [X], on a
n=0
+∞
X +∞
X
P +0= (an + 0)X n = an X n = P
n=0 n=0
+∞
X
et pour Q = −an X n ∈ K [X], on a
n=0
+∞
X +∞
X
P +Q= (an − an )X n = 0.X n = 0
n=0 n=0
8.1.3 Degré
Définition
+∞
X
Soit P = an X n ∈ K [X] tel que P 6= 0.
n=0
On appelle degré de P le plus grand n ∈ N tel que an 6= 0, on le note n = deg P .
Définition
Le coefficient an est alors appelé coefficient dominant de P .
Exemple deg(X 3 + X + 2) = 3
1 si a 6= 0
Exemple deg(aX + b) = 0 si a = 0, b 6= 0 .
−∞ sinon
Exemple ∀n ∈ N, deg(X n ) = n.
Exemple Les polynômes de degré 0 sont les polynômes constants non nuls.
Proposition
∀P ∈ K [X] , ∀λ ∈ K, (
deg P si λ 6= 0
deg(λ.P ) =
−∞ si λ = 0
dém. :
Si λ = 0 ou P = 0 alors λ.P = 0 et donc deg(λ.P ) = −∞.
Si λ 6= 0 et P 6= 0 alors en posant n = deg P , on peut écrire P = a0 + a1 X + ... + an X n avec an 6= 0
et alors λ.P = λa0 + λa1 X + · · · + λan X n avec λan 6= 0 donc deg(λ.P ) = n.
Proposition
Définition
Pour n ∈ N, on note Kn [X] l’ensemble des polynômes de K [X] de degré inférieur à n.
Ainsi
Kn [X] = {P ∈ K [X] / deg P 6 n}
Théorème
Kn [X] est un sous-espace vectoriel de K [X] de dimension n + 1 dont la famille B =
(1, X, ..., X n ) est une base, dite base canonique.
dém. :
Kn [X] = Vect(1, X, ..., X n ) donc Kn [X] est un sous-espace vectoriel de K [X] et B = (1, X, ..., X n )
en est une famille génératrice.
Montrons que B est libre.
Supposons λ0 .1 + λ1 X + · · · + λn .X n = 0.
Par unicité des coefficients décrivant un polynôme, λ0 = . . . = λn = 0.
Ainsi la famille B est libre et c’est donc une base de Kn [X].
Corollaire
dim K [X] = +∞.
dém. :
En effet K [X] contient des sous-espaces vectoriels de dimension arbitrairement grange.
Exemple Soit B = (Pk )06k6n une famille de polynômes de K [X] telle que ∀0 6 k 6 n, deg Pk = k.
Montrons que B est une base de Kn [X] .
La famille B est formée de n + 1 = dim Kn [X] vecteurs tous éléments de Kn [X] .
Montrons que la famille B est libre pour conclure.
Supposons
λ 0 P0 + · · · + λ n Pn = 0
On peut écrire
λn Pn = − (λ0 P0 + · · · + λn−1 Pn−1 )
Or deg P0 , . . . , deg Pn−1 6 n − 1 donc deg(λ0 P0 + · · · + λn−1 Pn−1 ) 6 n − 1.
Cependant, le degré de λn Pn vaut n ou −∞ selon la nullité de λn , on peut donc conclure que λn = 0.
La relation initiale se réécrit λ0 P0 + · · · + λn−1 Pn−1 = 0 et en reprenant l’idée précédente on obtient
successivement λn−1 = 0, . . . , λ0 = 0.
Définition
+∞
X +∞
X
Pour P = an X n ∈ K [X] et Q = bn X n ∈ K [X], on définit le polynôme P Q par :
n=0 n=0
+∞
X n
X X
PQ = cn X n avec cn = ak bn−k = ak b` = a0 bn + a1 bn−1 + · · · + an b0
n=0 k=0 k+`=n
∀k > p, ak = 0 et ∀k > q, bk = 0,
Puisque les coefficients cn sont nuls à partir d’un certain rang, on peut affirmer que P Q est un polynôme.
Exemple (2 + X − X 2 )(1 + X + X 3 ) = 2 + 3X + X 4 − X 5 .
Proposition
∀p, q ∈ N,
X p × X q = X p+q
dém. :
Introduisons le symbole de Kronecker :
1 si i = j
δi,j =
0 sinon
+∞
X +∞
X
On peut écrire X p = δn,p X n et X q = δn,q X n .
n=0 n=0
+∞
X
On a alors X p × X q = cn X n avec
n=0
n
X 1 si n = p + q
cn = δk,p δn−k,q , cn = = δn,p+q donc X p × X q = X p+q .
0 sinon
k=0
Théorème
(K [X] , +, ×) est un anneau commutatif d’élément nul le polynôme nul et d’élément unité le
polynôme constant égal à 1.
dém. :
On sait déjà que (K [X] , +) est un groupe abélien de neutre le polynôme nul.
+∞
X +∞
X
Soient P = an X n et Q = bn X n des polynômes de K [X].
n=0 n=0
+∞
X n
X +∞
X n
X
PQ = cn X n avec cn = ak bn−k et QP = dn X n avec dn = b` an−` .
n=0 k=0 n=0 `=0
Par le changement d’indice ` = n − k, on obtient cn = dn et on peut conclure P Q = QP .
Ainsi la loi × est commutative.
NotonsX que, de plus, on peut écrire le coefficient général de P Q
cn = ak b`
k+`=n
ce qui va nous être utile pour justifier maintenant l’associativité de la loi ×.
+∞
X +∞
X +∞
X
Soient P = an X n , Q = bn X n et R = cn X n des polynômes de K [X].
n=0 n=0 n=0
+∞
X X +∞
X
PQ = dn X n avec dn = ak b` et (P Q)R = en X n avec
n=0 k+`=n n=0
X X X X
en = dk c` = (ai bj )c` = ai bj c`
k+`=n k+`=n i+j=k i+j+`=n
Remarque On peut introduit la notion d’itéré d’un élément et on observe aisément que :
X n = X × X × · · · × X ce qui justifie a posteriori la notation X n .
Remarque Puisque K [X] est un anneau commutatif, on peut y exploiter les formules :
n
! n−1
n
X n k n−k n n
X
(P + Q) = P Q et P − Q = (P − Q) P k Qn−1−k
k=0
k k=0
dém. :
Si P = 0 ou Q = 0 : c’est immédiat en convenant que −∞ + n = n + (−∞) = −∞.
Sinon, posons p = deg P et q = deg Q. On peut écrire
+∞
X
P = an X n avec ap 6= 0 et ∀n > p, an = 0
n=0
+∞
X
Q= bn X n avec bq 6= 0 et ∀n > q, bn = 0.
n=0
+∞
X n
X
On alors P Q = cn X n avec ∀n ∈ N, cn = ak bn−k .
n=0 k=0
Pour n > p+q, on peut affirmer que cn = 0 en tant que somme de terme nul car pour tout k ∈ {0, . . . , p},
ak bn−k = ak × 0 = 0 (puisque n − k > q ) et pour tout k ∈ {p + 1, . . . , n}, ak bn−k = 0 × bn−k = 0
(puisque k > p )
p+q
X
Pour n = p + q, on a cp+q = ak bp+q−k = ap bq 6= 0 car pour k ∈ {0, . . . , p − 1}, ak bp+q−k =
k=0
ak × 0 = 0 et pour k ∈ {p + 1, . . . , p + q}, ak bp+q−k = 0 × bp+q−k = 0.
Par suite le polynôme P Q est de degré exactement p + q.
Remarque Le coefficient dominant de P Q est le produit des coefficients dominants de P et Q.
Corollaire
Les polynômes inversibles sont les polynômes constants non nuls.
dém. :
1
Les polynômes constants non nuls sont inversibles car si C ∈ K\ {0} on a C × = 1.
C
Inversement, si P est un polynôme est inversible dans K [X] et si Q désigne son inverse, l’égalité P Q = 1
donne deg P + deg Q = 0 d’où deg P = deg Q = 0.
Corollaire
∀P, Q ∈ K [X] , P Q = 0 ⇒ P = 0 ou Q = 0
Ainsi, dans K [X], il n’y a pas de diviseurs de zéro.
dém. :
Si P 6= 0 et Q 6= 0 alors on a vu dans les calculs précédents que P Q 6= 0.
+∞
X
Exemple Pour Q = X + 1, on a P (X) = an (X + 1)n .
n=0
+∞
X
Pour Q = X 2 , on a P (X 2 ) = an X 2n .
n=0
+∞
X
Exemple Pour Q = X, on a P (X) = an X n = P .
n=0
Proposition
∀P, Q, R ∈ K [X] et ∀λ, µ ∈ K
dém. :
Il suffit d’introduire les coefficients des polynômes P et Q pour décrire les polynômes étudiés et observer
leur égalité.
ϕ(P ) = P (X + 1) + P (X)
(n−k) n!
((X + 1)n ) = (X + 1)k
k!
on peut conclure que ϕ est un automorphisme.
Définition
On appelle valeur de P = a0 + a1 X + · · · + an X n ∈ K [X] en x ∈ K le scalaire
P (x) = a0 + a1 x + · · · + an xn
Proposition
Soient P, Q ∈ K [X], λ, µ ∈ K et x ∈ K.
dém. :
Les opérations sur K [X] ont été définies de sorte d’obtenir ces propriétés.
Définition
On appelle racine (ou zéro) d’un polynôme P ∈ K [X] tout x ∈ K tel que P (x) = 0.
Définition
On appelle équation algébrique, tout équation de la forme P (x) = 0 d’inconnue x ∈ K et où
P ∈ K [X].
Le degré de P est alors appelé degré de l’équation P (x) = 0.
Définition
On appelle fonction polynomiale associée à P ∈ K [X] définie sur D ⊂ K l’application :
(
D→K
P̃ :
x 7→ P̃ (x) = P (x)
λ.P^
+ µ.Q = λ.Pe + µ.Q, × Q = Pe × Q
e P^ e
dém. :
Pour tout x ∈ D,
h i h i
λ.P^
+ µ.Q (x) = (λP + µQ)(x) = λP (x) + µQ(x) = λ.Pe + µ.Q
e (x)
Ainsi λ.P^
+ µ.Q = λ.Pe + µ.Q. e
De la même façon, on obtient P^ × Q = Pe × Q.
e
Exemple Si P = 3X 3 + 2X + 1 alors P 0 = 9X 2 + 2.
Proposition
Si P ∈ K [X] est constant alors P 0 = 0.
Si P ∈ K [X] est non constant alors deg P 0 = deg P − 1.
Dans les deux cas : deg P 0 6 deg P − 1.
dém. :
Si P constant : ok
Si P non constant, soit p = deg P .
On peut écrire P = a0 + a1 X + · · · + ap X p avec ap 6= 0.
On a alors P 0 = a1 + 2a2 X + · · · + pap−1 X p−1 et on peut conclure.
Corollaire
P 0 = 0 ⇔ P est un polynôme constant.
Proposition
∀λ, µ ∈ K, ∀P, Q ∈ K [X],
dém. :
+∞
X +∞
X
Soient P = an X n , Q = bn X n polynôme de K [X].
n=0 n=0
+∞
X
On a λP + µQ = (λan + µbn )X n donc
n=0
+∞
X
(λP + µQ)0 = (n + 1)(λan+1 + µbn+1 )X n
n=0
+∞
X +∞
X
=λ (n + 1)an+1 X n + µ (n + 1)bn+1 X n = λP 0 + µQ0
n=0 n=0
+∞
X n
X
n
On a aussi P Q = cn X avec cn = ak bn−k donc
n=0 k=0
+∞
X
(P Q)0 = (n + 1)cn+1 X n .
n=0
+∞
X +∞
X n
X
D’autre part P 0 = (n + 1)an+1 X n donc P 0 Q = αn X n avec αn = (k + 1)ak+1 bn−k ,
n=0 n=0 k=0
+∞
X +∞
X n
X
et Q0 = (n + 1)bn+1 X n donc P Q0 = βn X n avec βn = ak (n + 1 − k)bn+1−k ,
n=0 n=0 k=0
+∞
X
Ainsi P 0 Q + P Q0 = γn X n avec γn = αn + βn .
n=0
Or
n
X n
X
γn = (k + 1)ak+1 bn−k + (n + 1 − k)ak bn+1−k
k=0 k=0
dém. :
Par récurrence sur n ∈ N? , on obtient la première relation et la deuxième s’obtient en particularisant avec
P1 = . . . = Pn = P .
Proposition
∀P, Q ∈ K [X],
(P ◦ Q)0 = Q0 × P 0 ◦ Q
dém. :
+∞
X
Ecrivons P = an X n .
n=0
+∞
X
On a alors P (Q) = an Qn .
n=0
+∞
X +∞
X
Par ce qui précède P (Q)0 = nan Q0 Qn−1 et donc P (Q) = Q0 nan Qn−1 = Q0 P 0 (Q)
n=1 n=1
Définition
On appelle polynôme primitif de P ∈ K [X] tout polynôme Q ∈ K [X] tel que Q0 = P .
Remarque Tout polynôme P possède au moins un polynôme primitif Q et l’ensemble des polynômes
primitifs de P est constitué des polynômes de la forme Q + C avec C ∈ K.
Proposition
Soit P ∈ K [X] et n ∈ N.
Si deg P < n alors deg P (n) = −∞.
Si deg P > n alors deg P (n) = deg P − n.
dém. :
Par récurrence sur n ∈ N.
Proposition
∀λ, µ ∈ K, ∀P, Q ∈ K [X],
n
!
(n) (n) (n) (n)
X n
(λP + µQ) = λP + µQ et (P Q) = P (k) Q(n−k)
k=0
k
dém. :
La relation (λP + µQ)(n) = λP!(n) + µQ(n) s’obtient par linéarité de Dn .
n
(n)
X n
La relation (P Q) = P (k) Q(n−k) s’obtient comme pour la démonstration de la formule de
k=0
k
Leibniz dans le cours de dérivation des fonctions numériques.
Remarque Par ce qui précède et la linéarité de Dk , on obtient les formules de dérivation à l’ordre k
d’un polynôme :
+∞
X
Si P = an X n alors
n=0
+∞ +∞
X n! X (n + k)! n
P (k) = an X n−k = an+k X
(n − k)! n=0
n!
n=k
Exemple Montrons
n
!2 !
X n 2n
=
k=0
k n
(n)
en étudiant le coefficient de X n dans (X 2 − 1)n .
On a (X 2 − 1)n = X 2n + · · · (où · · · désigne des puissances inférieures de X )
Par suites
(n) (2n)! n
(X 2 − 1)n = X + ···
n!
D’autre part
(n) (n)
(X 2 − 1)n = ((X − 1)n (X + 1)n )
Par la formule de Leibniz
n
!
2 n (n)
X n (k) (n−k)
((X − 1)n ) ((X + 1)n )
(X − 1) =
k=0
k
Or
(k) n! (n−k) n!
((X − 1)n ) = (X − 1)n−k et ((X + 1)n ) = (X + 1)k
(n − k)! k!
(n)
Le coefficient de X n dans ce calcul de (X 2 − 1)n
est
n
! n
!2
X n n! n! X n
= n!
k (n − k)! k! k
k=0 k=0
On en déduit !2 !
n
X n (2n)! 2n
= =
k (n!)2 n
k=0
dém. :
Si P = 0, la propriété est immédiate car
∀n ∈ N, P (n) (a) = 0
avec
(n + k)!
µn+k = λn+k
k!
On en déduit P (n) (a) = n!λn ce qui déterminer λn .
De plus, pour tout n > p, on a P (n) (a) = 0 et on obtient donc la formule proposée.
+∞
X
En particulier, on a P = an X n avec
n=0
Pn (0)
∀n ∈ N, an =
n!
Définition
On dit qu’un polynôme P ∈ K [X] est associé à un polynôme Q ∈ K [X] s’il existe λ ∈ K?
tel que P = λQ.
Proposition
L’association de polynôme définit une relation binaire sur K [X] à la fois réflexive, symétrique
et transitive ; c’est une relation d’équivalence sur K [X].
dém. :
P est associé à P car P = 1 × P .
Si P est associé à Q alors il existe λ 6= 0 tel que P = λQ et alors Q = µP avec µ = 1/λ 6= 0 et donc Q
est associé à P .
Enfin, si P est associé à Q et Q associé à P alors il existe λ, µ 6= 0 tel que P = λQ et Q = µR ce qui
permet d’écrire P = (λµ)R avec λµ 6= 0 et donc P est associé à R.
Proposition
Si P et Q sont associés et ont mêmes coefficients dominants alors P = Q.
dém. :
Si P = λQ et si P et Q ont même coefficients dominants alors λ = 1 et donc P = Q.
Définition
Un polynôme P ∈ K [X] est dit unitaire (ou normalisé) si son coefficient dominant est égal à
1.
Proposition
Tout polynôme P ∈ K [X] non nul est associé à unique polynôme unitaire.
dém. :
L’unicité provient de ce que deux polynômes unitaires associés sont nécessairement égaux car ayant le
même coefficient dominant.
L’existence provient du fait que P 6= 0 est associé au polynôme unitaire λP en prenant pour λ l’inverse
du coefficient dominant de P .
8.3.1.2 Relation de divisibilité
Définition
On dit que A ∈ K [X] divise B ∈ K [X] s’il existe U ∈ K [X], B = AU .
On note alors A | B.
Définition
Pour A ∈ K [X], on note Div(A) l’ensemble des diviseurs de A et Mul(A) l’ensemble de ses
multiples.
Ainsi
Exemple Les polynômes constants non nuls et les polynômes associés à A ∈ K [X] divisent A.
Proposition
Soient A et B des polynômes respectivement associés à C et D. On a
A|B⇔C|D
dém. :
On peut écrire A = λC et B = µD avec λ, µ ∈ K? .
µ
Si C | D alors il existe U ∈ K [X] tel que D = CU et alors B = AV avec V = U . Ainsi A | B.
λ
De façon symétrique, A | B entraîne C | D.
Remarque Tout problème de divisibilité peut se ramener à un problème entre polynômes unitaires ou
nuls.
Proposition
∀A, B, C ∈ K [X]
A | B et B | C ⇒ A | C,
A | B et B | A ⇒ A et B sont associés.
dém. :
Si A | B et B | C alors il existe U, V ∈ K [X] tels que B = AU et C = BV . On a alors C = A(U V )
donc A | C.
Si A | B et B | A alors il existe U, V ∈ K [X] tels que B = AU et A = BV . On a alors B = B(U V ).
Cas B 6= 0 :
On obtient U V = 1 et donc les polynômes U et V sont constants non nuls. On en déduit que A et B sont
associés.
Cas B = 0 :
On a A = BV = 0 et donc A et B sont associés.
Proposition
∀A, B ∈ K [X]
A | B et B 6= 0 ⇒ deg A 6 deg B,
A | B et deg A = deg B ⇒ A et B sont associés.
dém. :
Si A | B et B 6= 0 alors il existe U ∈ K [X] non nul tel que B = AU . On a alors deg B = deg A +
deg U > deg A car deg U ∈ N.
Si A | B et deg A = deg B alors il existe U ∈ K [X] tel que B = AU .
Cas B 6= 0 :
On a deg B = deg A + deg U avec deg B = deg A ∈ N donc deg U = 0.
Ainsi U est un polynôme constant non nul et donc la relation B = AU avec U ∈ K? donne A et B
associés.
Cas B = 0 :
deg A = deg B entraîne A = 0 et donc A et B sont associés.
Remarque En arithmétique des polynômes on montre souvent A = B via :
- A | B, B | A et A et B ont le même coefficient dominant ;
- A | B, deg A = deg B et A et B ont le même coefficient dominant.
Proposition
∀A, B, C, D ∈ K [X]
A | B et A | C ⇒ A | (B + C),
A | B et C | D ⇒ AC | BD,
A | B ⇒ ∀n ∈ N, An | B n .
dém. :
Il suffit d’adapter les démonstrations des résultats semblables vu pour l’arithmétique des entiers.
Théorème
[Division euclidienne polynomiale]
2
Pour tout A, B ∈ K [X] avec B 6= 0 il existe un unique couple (Q, R) ∈ K [X] vérifiant
Pour n = p : Q = 0 et R = A conviennent.
Supposons la propriété établie au rang n > p.
Soit A ∈ Kn [X]. On peut écrire A = aX n +  avec deg  < n.
Or on a
a
BX n−p = aX n + B̂ avec deg B̂ < n
b
Donc
a
A = BX n−p + Â − B̂
b
Puisque deg(Â − B̂) < n, l’hypothèse de récurrence donne l’existence de (Q̂, R̂) ∈ K [X] tel que
- on cherche par quel monôme multiplier pour égaler la plus grande puissance de A ;
- on retire de A le multiple de B correspondant ;
- on reprend le processus avec le résultat obtenu jusqu’à obtention d’un polynôme de degré strictement
inférieur à celui de B ;
- le reste de la division euclidienne et ce dernier polynôme et le quotient la somme des monômes qui ont
multiplié B.
Exemple Pour A = X 4 − 3X 3 + 2X 2 + X − 1, B = X 2 − X + 1, on obtient Q = X 2 − 2X − 1,
R = 2X.
Arguments : A, B
Q←0
Tant que deg A > deg B faire :
coeff(A) deg A−deg B
T ← X , Q ← Q + T , A ← A − BT
coeff(B)
Fin tant que
R←A
Fin.
8.3.2.3 Applications
Proposition
Soient A, B ∈ K [X] tels que B 6= 0. On a
dém. :
Si B | A alors il existe Q ∈ K [X] tel que B = AQ.
On peut alors écrire B = AQ + R avec R = 0 vérifiant deg R < deg B.
Par cette relation, on peut identifier le quotient et le reste de la division euclidienne de A et B, et justement
ce reste est nul.
Inversement, si le reste de la division euclidienne de A par B est nul alors on peut écrire A = BQ avec
Q le quotient de la division euclidienne de A par B et donc B divise A.
Proposition
a ∈ K est racine de P ∈ K [X] si, et seulement si, X − a divise P .
dém. :
La division euclidienne de P par X − a s’écrit :
P = (X − a)Q + R avec deg R < 1.
R est donc un polynôme constant égal à λ et on peut écrire P = (X − a)Q + λ
Evaluons cette relation en a, on obtient P (a) = 0 × Q(a) + λ donc R = λ = P (a).
Par suite X − a divise P si, et seulement si, P (a) = 0.
Exemple Considérons P = X 3 + X 2 − 3X + 1.
1 est racine de P donc on peut factoriser P par X − 1.
On obtient P = (X − 1)(X 2 + 2X − 1).
Exemple Considérons P = X 3 + 1
−1 est racine de P donc on peut factoriser P par X + 1.
On obtient P = (X + 1)(X 2 − X + 1).
Exemple P = X 4 + 3X 3 − 3X − 1.
1 et −1 sont racines de P .
On obtient P = (X − 1)(X + 1)(X 2 + 3X + 1).
Définition
On note Div(A, B) = Div(A) ∩ Div(B) l’ensemble des diviseurs communs à A et B.
Remarque Si P ∈ Div(A, B) tout polynôme associé à P est aussi dans Div(A, B).
Proposition
Si A = BQ + R alors
Div(A, B) = Div(B, R)
Théorème
Soient A, B ∈ K [X], il existe un unique polynôme D ∈ K [X] unitaire ou nul, tel que
Div(A, B) = Div(D)
dém. :
Unicité : Si D1 , D2 sont solutions alors Div(D1 ) = Div(D2 ) donc D1 | D2 et D2 | D1 et par suite ils
sont associés.
Si l’un est nul alors l’autre aussi et D1 = D2 .
S’ils ne sont pas nuls, ils sont unitaires et associés donc égaux.
Existence :
Si A = B = 0 alors D = 0 convient
Sinon, quitte à échanger A et B on peut supposer B 6= 0.
Posons A0 = A et A1 = B. On réalise ensuite les divisions euclidiennes suivantes tant que les restes
Théorème
Si D = pgcd(A, B) alors il existe U, V ∈ K [X] tels que
D = AU + BV
dém. :
Si A = B = 0 alors D = 0 et U, V quelconques conviennent.
Sinon, on réalise comme ci-dessus l’algorithme d’Euclide puis on écrit successivement les Ai sous la
forme AUi + BVi avec Ui , Vi ∈ K [X].
A terme on parvient à écrire D sous la forme AU + BV .
( !)Les polynômes U et V ne sont pas uniques.
Proposition
pgcd(A, B) = pgcd(B, A)
dém. :
Div(A, B) = Div(B, A)
Proposition
Si A | B alors pgcd(A, B) est associé à A.
dém. :
Si A | B alors Div(A, B) = Div(A)
Proposition
P | A et P | B ⇔ P | pgcd(A, B)
dém. :
Par définition, les diviseurs communs à A et B sont les diviseurs de pgcd(A, B).
Proposition
Si C est unitaire alors
pgcd(AC, BC) = pgcd(A, B) × C
dém. :
Posons ∆ = pgcd(AC, BC) et D = pgcd(A, B).
DC | AC et DC | BC donc DC | ∆.
D = AU + BV donc DC = ACU + BCV d’où ∆ | DC.
8.3.3.3 Ppcm
Définition
On note Mul(A, B) = Mul(A) ∩ Mul(B) l’ensemble des multiples communs à A et B ∈
K [X].
Remarque Si P est multiple commun à A et B alors tout polynôme associé à P l’est encore.
Théorème
Soient A, B ∈ K [X], il existe un unique polynôme unitaire ou nul tel que Mul(A, B) =
Mul(M ).
dém. :
Unicité : Si M1 et M2 sont solutions alors Mul(A, B) = Mul(M1 ) = Mul(M2 ). Par suite M1 ∈
Mul(M2 ) et donc M2 | M1 . De même M1 | M2 et donc M1 et M2 sont associés. Puisque M1 et
M2 sont unitaires ou nuls et qu’ils sont associés, ils sont égaux.
Existence : Si A = 0 ou B = 0 alors M = 0 convient.
Sinon, A et B possède des multiples communs non nul (par exemple AB ), considérons en un qui soit
unitaire et de degré minimal, notons le M .
On a Mul(A, B) ⊃ Mul(M ) car M ∈ Mul(A, B).
Considérons N ∈ Mul(A, B) et réalisons la division euclidienne de N par M : N = M Q + R avec
deg R < deg M .
A | N, A | M donc A | R et de même B | R donc R ∈ Mul(A, B).
Or M est un multiple commun non nul de degré minimal donc R = 0.
Par suite M | N et donc N ∈ Mul(A, B).
Finalement Mul(A, B) = Mul(M ).
Définition
M est alors appelé ppcm de A et B.
On note M = ppcm(A, B) ou A ∨ B.
Proposition
ppcm(A, B) = ppcm(B, A)
dém. :
Mul(A, B) = Mul(B, A).
Proposition
Si A | B alors ppcm(A, B) est associé à B.
dém. :
Si A | B alors Mul(A, B) = Mul(B).
Proposition
A | P et B | P ⇔ ppcm(A, B) | P
dém. :
Par définition, les multiples communs à A et B sont les multiples de ppcm(A, B).
Proposition
Si C est unitaire alors ppcm(AC, BC) = ppcm(A, B) × C.
dém. :
Posons M = ppcm(A, B) et N = ppcm(AC, BC).
Comme AC | M C et BC | M C on a N | M C.
Comme AC | N , on a C | N d’où N = P C.
Comme AC | P C, BC | P C et C 6= 0 on a A | P, B | P donc M | P puis M C | N .
Théorème
∀A, B ∈ K [X] , pgcd(A, B) × ppcm(A, B) est associé à AB.
dém. :
Si A = 0 ou B = 0 alors ppcm(A, B) = 0 et l’affirmation proposée est vraie.
Supposons désormais A, B 6= 0.
Posons D = pgcd(A, B) et M = ppcm(A, B).
Puisque D divise A et B, on peut écrire A = DA0 et B = DB 0 avec A0 , B 0 ∈ K [X]. Considérons alors
le polynôme P = DA0 B 0 = A0 B = AB 0 .
Les polynômes A et B divisent P donc M divise P puis DM divise DP = AB.
Inversement, puisque AB est un multiple commun à A et B, on peut écrire AB = M Q avec Q ∈ K [X].
Or M est un multiple de A donc on peut écrire M = AC. La relation AB = ACQ donne alors B = CQ.
Ainsi Q divise B. De façon analogue, on obtient que Q divise A et donc Q divise D.
On en déduit que AB = M Q divise M D.
Puisque AB et M D se divisent mutuellement, ces deux polynômes sont associés.
8.3.4 Polynômes premiers entre eux
8.3.4.1 Définition
Définition
Deux polynômes A et B sont dits premiers entre eux si leurs seuls diviseurs communs sont les
polynômes constants non nuls.
Ceci signifie encore pgcd(A, B) = 1. On note alors A ∧ B = 1.
Théorème
On a équivalence entre :
(i) A et B sont premiers entre eux ;
(ii) ∃U, V ∈ K [X] , AU + BV = 1.
dém. :
(i) ⇒ (ii) Par égalité de Bézout.
A ∧ B = 1 ⇒ A ∧ Bn = 1
A ∧ B n = 1 ⇒ Am ∧ B n = 1
(X − a)α ∧ (X − b)β = 1
dém. :
Par récurrence sur n ∈ N? .
Exemple Si a1 , . . . , an sont des racines deux à deux distinctes de P alors (X − a1 ) . . . (X − an ) | P .
Définition
On dit qu’un polynôme non constant P ∈ K [X] est irréductible dans K [X] si ses seuls
diviseurs sont ses diviseurs triviaux.
Sinon, le polynôme non constant P est dit composé.
X 2 + 1 = (X − i)(X + i)
Proposition
Soient A ∈ K [X] et P un polynôme irréductible de K [X].
Si P ne divise pas A alors P ∧ A = 1.
dém. :
Par contraposée :
Si P ∧ A 6= 1 alors introduisons D = pgcd(P, A) 6= 1.
Puisque D | P et que D n’est pas constant, D est associé à P .
Or D | A donc P | A.
Proposition
Soient A, B ∈ K [X] et P un polynôme irréductible dans K [X].
P | AB ⇒ P | A ou P | B
dém. :
Supposons P | AB et P ne divise pas A.
Puisque P est irréductible, on a A ∧ P = 1 et, par le théorème de Gauss, P | B.
Théorème
Si A est un polynôme non constant de K [X] alors il existe λ ∈ K? , N ∈ N? ,
P1 , . . . , PN polynômes irréductibles de K [X] unitaires deux à deux distincts et il existe
α1 , ..., αN ∈ N? tels que
A = λP1α1 P2α2 ...PNαN
De plus cette décomposition est unique à l’ordre près des facteurs, on l’appelle décomposition
en facteurs irréductible de A.
dém. :
Unicité à l’ordre près des facteurs :
Supposons
A = λP1α1 . . . PNαN = µQβ1 1 . . . QβMM
avec les hypothèses décrites dans le théorème.
Puisque les Pi et Qj sont unitaires, les scalaires λ et µ correspondent tous deux au coefficient dominant
de A. On en déduit λ = µ.
Soit 1 6 i 6 N . On a Pi | A donc Pi | Qβ1 1 . . . QβMM .
Puisque Pi est irréductible, il existe 1 6 j 6 M tel que Pi | Qj et donc Pi = Qj puisque Qj est
irréductible. De plus l’indice j est unique car les Q1 , . . . , QM sont deux à deux distincts.
Ce qui précède permet d’introduire une application i 7→ j de {1, . . . , N } vers {1, . . . , M } telles que
Pi = Qj .
Puisque les P1 , . . . , PN sont deux à deux distincts, cette application est injective et donc N 6 M .
Par un argument de symétrie M 6 N et donc M = N .
L’application injective précédent s’avère donc être une permutations de {1, . . . , N }.
Ainsi, à l’ordre près des termes, P1 , . . . , PN = Q1 , . . . , QN .
Quitte à réindexer, on peut supposer P1 = Q1 , . . . , PN = QN et on a donc A = λP1α1 . . . PNαN =
λP1β1 . . . PNβN
Comme les polynômes considérés sont irréductibles, pour i 6= j, Pi ∧ Pj = 1.
β
Puisque Piαi | P1β1 . . . PNβN et Piαi ∧ Pj j = 1 pour tout j 6= i, on a Piαi | Piβi et donc αi 6 βi .
Par un argument de symétrie βi 6 αi puis βi = αi .
Existence
Montrons par récurrence forte sur n ∈ N? que tout polynôme de degré n est associé à un produit de
polynômes irréductibles unitaires. Il suffira ensuite de réunir entre eux les éventuels polynômes irréductibles
égaux pour obtenir la décomposition proposée.
Pour n = 1, tout polynôme de degré est associé à polynôme de la forme X − a avec a ∈ K et un tel
polynôme est irréductible.
Supposons la propriété établie jusqu’au rang n > 1.
Soit P un polynôme de degré n + 1.
Si P est irréductible alors on peut dire que P est associé à un polynôme irréductible unitaire.
Si P est composé alors on peut écrire P = AB avec A, B polynômes non constants de degrés inférieurs
à n.
Par hypothèse de récurrence A et B sont associés à un produit de polynômes irréductibles unitaires et
donc P = AB est aussi associé à un produit de polynômes irréductibles unitaires.
Récurrence établie.
Remarque On précisera par la suite quels sont exactement les polynômes irréductibles de R [X]
et C [X].
(X − a1 )...(X − an ) | P
dém. :
Les polynômes X − a1 , ..., X − an sont des diviseurs de P deux à deux premiers entre eux dont leur
produit divise encore P .
Théorème
Si P est un polynôme non nul alors P ne peut avoir plus de racines que son degré.
dém. :
Soient P ∈ K [X] tel que P 6= 0 et a1 , ..., an ses racines distinctes.
On a (X − a1 )...(X − an ) | P et P 6= 0 donc n 6 deg P .
Corollaire
Un polynôme de degré n possède au plus n racines.
Une équation algébrique de degré n ∈ N possède au plus n solutions.
Corollaire
Soit P ∈ Kn [X].
Si P possède au moins n + 1 racines alors P = 0.
Corollaire
Si P ∈ K [X] possède une infinité de racines alors P = 0.
dém. :
Si P possède une infinité de racine, il en a plus que son degré. . .
Z 1
Exemple Soit P ∈ R [X]. Si P (t)2 dt = 0 alors P = 0.
0 Z 1
2
La fonction t 7→ P (t) est continue et positive sur [0, 1] donc, si P (t)2 dt = 0, c’est la fonction
0
nulle et le polynôme P possède alors une infinité de racines et c’est donc le polynôme nul.
Exemple Soit P ∈ K [X] tel que P (X + 1) = P (X). Montrons que P est constant.
Considérons Q(X) = P (X) − P (0).
On a Q(X + 1) = Q(X). Or Q(0) = 0 donc par récurrence Q(n) = 0 pour tout n ∈ N.
Le polynôme Q possède une infinité de racine, c’est donc le polynôme nul et par suite le polynôme P est
constant (égal à P (0) ).
∀x ∈ R, P (sin x) = sin 3x
Théorème
L’application qui à P associe P̃ est un isomorphisme du K-espace vectoriel K [X] vers
P(D, K).
dém. :
Notons ϕ : K [X] → P(D, K) l’application considérée.
On vérifie aisément la linéarité ϕ(λP + µQ) = λϕ(P ) + µϕ(Q).
Déterminons ker ϕ.
Si ϕ(P ) = 0 alors
∀x ∈ D, P̃ (x) = 0
P possède donc une infinité de racine et donc P = 0.
Enfin, par définition, P(D, K) = Imϕ.
Ainsi ϕ est un isomorphisme d’espaces vectoriels.
Corollaire
Si deux fonctions polynomiales prennent les mêmes valeurs une infinité de fois, c’est qu’elles
sont issues du même polynôme. Ainsi
(∀x ∈ D, a0 + a1 x + a2 x2 + · · · = b0 + b1 x + b2 x2 + · · · ) ⇒ ∀n ∈ N, an = bn
Remarque Suite à ce résultat il est fréquent d’identifier polynômes et fonctions polynomiales associés
définies sur une partie D infinie.
Proposition
Soient P ∈ K [X] non nul, a ∈ K et α ∈ N.
On a équivalence entre :
(i) a est racine de multiplicité α de P ;
(ii) (X − a)α | P et (X − a)α+1 ne divise pas P ;
(iii) il existe Q ∈ K [X] tel que P = (X − a)α Q et Q(a) 6= 0.
dém. :
(i) ⇒ (ii) Si a est racine de multiplicité α de P alors α est le plus grand naturel tel que (X − a)α divise
P . Par suite (X − a)α divise P et (X − a)α+1 ne divise pas P .
(ii) ⇒ (iii) Supposons (ii).
Puisque (X − a)α divise P , on peut écrire P = (X − a)α Q.
Si Q(a) = 0 alors (X − a) | Q et donc (X − a)α+1 divise P , ce qui est exclu. Par suite Q(a) 6= 0.
(iii) ⇒ (i) Supposons P = (X − a)α Q avec Q(a) 6= 0.
On a immédiatement (X − a)α | P .
Pour β ∈ N? , si (X − a)α+β divise P = (X − a)α Q alors (X − a)β divise Q et donc Q(a) = 0 ce qui
exclu.
Par suite, pour tout β ∈ N? , (X − a)α+β ne divise pas P . Ainsi α est le plus grand naturel tel que
(X − a)α divise P .
Proposition
Si a1 , ..., an sont des racines deux à deux distinctes de P ∈ K [X] de multiplicités respectives
au moins égales à α1 , ..., αn alors
dém. :
Les polynômes (X − ai )αi sont des diviseurs de P deux à deux premiers entre eux.
Théorème
Si P est un polynôme non nul alors la somme des multiplicités de ses racines ne peut excéder
son degré.
dém. :
Si a1 , . . . , an sont les deux à deux distinctes de P de multiplicités respectives α1 , . . . , αn alors (X −
a1 )α1 ...(X − an )αn | P et puisque P 6= 0 on obtient α1 + ... + αn 6 deg P .
Corollaire
Si la somme des multiplicités des racines de P ∈ Kn [X] est au moins égale à n+1 alors P = 0.
Corollaire
Soit P un polynôme de degré n ∈ N.
Si P admet au moins n racines distinctes alors il n’y en n’a pas d’autres et celles-ci sont toutes
simples.
dém. :
Notons a1 , . . . , an les n racines distinctes de P .
On a (X − a1 ) . . . (X − an ) | P et deg(X − a1 ) . . . (X − an ) = deg P donc (X − a1 ) . . . (X − an ) et
P sont associés.
On en déduit que a1 , . . . , an sont racines simples de P .
Exemple Les racines n-ième l’unité sont des racines simples de X n − 1 ∈ C [X].
En effet, il y a exactement n racines nème de l’unité.
Théorème
Soit P ∈ K [X] non nul, a ∈ K et α ∈ N? .
On a équivalence entre :
(i) a est racine d’ordre de multiplicité α de P ;
(ii) P (a) = P 0 (a) = ... = P (α−1) (a) = 0 et P (α) (a) 6= 0.
dém. :
(i) ⇒ (ii) Si a est racine de multiplicité α de P alors par la proposition ci-dessus a est racine de P 0 , de
P 00 ,..., et de P (α−1) mais pas de P (α) .
(ii) ⇒ (i) Supposons (ii)
Par la formule de Taylor :
+∞ +∞
X P (n) (a) X P (n) (a)
P = (X − a)n = (X − a)n = (X − a)α Q
n=0
n! n=α
n!
avec
+∞
X P (n) (a)
Q= (X − a)n−α ∈ K [X]
n=α
n!
P (α) (a)
De plus Q(a) = 6= 0 donc a est racine de multiplicité exactement α de P .
α!
Exemple Montrons
P = λ(X − x1 ) . . . (X − xn ) avec λ ∈ K? et x1 , . . . , xn ∈ K
Théorème
Soit P ∈ K [X] un polynôme non constant.
On a équivalence entre :
(i) P est scindé dans K [X] ;
(ii) la somme des multiplicités des racines de P égale son degré.
dém. :
(ii) ⇒ (i) Supposons (ii)
Notons a1 , ..., ap les racines deux à deux distinctes de P et α1 , . . . , αp leurs multiplicités respectives.
On a (X − a1 )α1 . . . (X − ap )αp | P et par (ii) deg(X − a1 )α1 . . . (X − ap )αp = deg P donc P et
(X − a1 )α1 . . . (X − ap )αp sont associés et par suite P est scindé.
(i) ⇒ (ii) Supposons P scindé. On peut écrire P = λ(X − x1 ) . . . (X − xn ).
En regroupant entre eux les xi non distincts, on peut écrire :
Remarque Si P = λ(X − x1 ) . . . (X − xn ) alors les racines de P sont les x1 , ..., xn comptées avec
multiplicité (i.e. que chacune apparaît dans la liste autant de fois qu’elle est racine multiple de P ).
Théorème
Tout polynôme non constant de C [X] admet au moins une racine.
On dit que C algébriquement clos.
dém. :
Soit P ∈ C [X] de degré p ∈ N? . P = ap X p + · · · + a1 X + a0 avec ap =
6 0.
A = {|P (z)| /z ∈ C} est une partie non vide et minorée (par 0) de R donc α = inf A = inf |P (z)|
z∈C
existe.
Nous allons montrer que α est une valeur prise par P puis que α = 0. Ceci permettra alors de conclure.
Pour tout z ∈ C tel que |z| > 1, on a
p−1
X
ap z p = P (z) + −ak z k
k=0
donc
p−1
X
p p−1
|ak | z k 6 |P (z)| + pM |z|
|ap z | 6 |P (z)| +
k=0
Par le théorème de Bolzano-Weierstrass, on peut extraire de (zn ) une suite convergente (zϕ(n) ).
Posons ω la limite de cette dernière.
Par opérations sur les limites
p
P (zϕ(n) ) = ap zϕ(n) + · · · + a1 zϕ(n) + a0 → ap ω p + · · · + a1 ω + a0 = P (ω)
D’autre part, par extraction, P (zϕ(n) ) → α donc par unicité de la limite P (ω) = α.
Ainsi nous venons d’établir que α est une valeur prise par P .
Il ne reste plus qu’à montrer α = 0 et pour cela nous allons raisonner par l’absurde en supposant α > 0.
P (X + ω)
Quitte à considérer le polynôme , on peut supposer α = 1 et ω = 0.
αp
On a alors P = a0 + a1 X + · · · + ap X avec a0 = 1 = min |P (z)|, p > 1 et ap 6= 0.
z∈C
En introduisant q le premier indice tel que aq 6= 0, on obtient
P = 1 + aq X q + aq+1 X q+1 + · · · + ap X p
et donc
p
X
|P (z)| 6 |1 − ρrq | + |ak | rk
k=q+1
avec
p
X
f (r) = −ρrq + |ak | rk ∼ −ρrq < 0
r→0
k=q+1
Absurde !
Corollaire
Les polynôme irréductibles de C [X] sont ceux de degré 1.
dém. :
Les polynômes de degré 1 sont irréductibles dans C [X].
Inversement, si P est irréductible dans C [X] alors P est non constant et possède donc une racine a. On
a alors X − a | P puis P associé à X − a.
Théorème
Soit P ∈ C [X] non constant. Il existe λ ∈ K? , N ∈ N? , a1 , . . . , aN ∈ C deux à deux distincts
et α1 , ..., αN ∈ N? tels que
Corollaire
Tout polynôme non constant de C [X] est scindé.
Corollaire
Tout polynôme de C [X] de degré n ∈ N possède exactement n racines comptées avec
multiplicité.
Toute équation algébrique complexe de degré n ∈ N? possède n solutions complexes comptées
avec multiplicité.
X 2 − 2X cos a + 1
Xn − 1
Les racines de ce polynômes sont les racines n-ième de l’unité, on sait que ce sont des racines simples.
Par suite
n−1
Y
n
X −1= (X − e2ikπ/n )
k=0
X4 + X2 + 1
Posons Y = X 2 .
X 4 + X 2 + 1 = Y 2 + Y + 1 = (Y − j)(Y − j 2 ) = (X 2 − j)(X 2 − j 2 )
Or
(X 2 − j) = (X 2 − j 4 ) = (X − j 2 )(X + j 2 )
et
(X 2 − j 2 ) = (X − j)(X + j)
Par suite
X 4 + X 2 + 1 = (X − j)(X + j)(X − j 2 )(X + j 2 )
Proposition
Soient A, B ∈ C [X]. On a équivalence entre :
(i) A | B ;
(ii) les racines de A sont racines de B de multiplicité au moins égale.
dém. :
Si A est constant, l’équivalence est immédiate.
Sinon on peut écrire A = λ(X − a1 )α1 . . . (X − an )αn avec a1 , . . . , an les racines de A et α1 , . . . , αn
leurs multiplicités respectives.
(i) ⇒ (ii) Si A | B alors (X − a1 )α1 . . . (X − an )αn | B et donc les a1 , . . . , an sont racines de B de
multiplicités respectivement au moins égales à α1 , . . . , αn .
(ii) ⇒ (i) Si les a1 , . . . , an sont racines de B de multiplicité au moins égales à α1 , . . . , αn alors (X −
a1 )α1 . . . (X − an )αn | B et donc A | B.
Exemple On a X 4 + X 2 + 1 | X 18 − 1.
En effet les racines de X 4 + X 2 + 1 sont j, −j, j 2 et −j 2 . Ce sont des racines simples, toutes racines de
X 18 − 1.
Proposition
Soient A, B ∈ C [X]. On a équivalence entre :
(i) A ∧ B = 1 ;
(ii) A et B n’ont pas de racines en commun.
dém. :
(i) ⇒ (ii) Par contraposée.
Supposons que A et B ont une racine en commun a.
On a alors X − a diviseur commun à A et B et donc A et B ne sont pas premiers entre eux.
(ii) ⇐ (i) Par contraposée.
Supposons que A et B ne sont pas premiers entre eux.
Posons alors D = pgcd(A, B).
Exemple Montrons (X 2 + 1) ∧ (X 3 + X + 1) = 1.
Les racines de X 2 + 1 sont i et −i.
Celles-ci ne sont pas racines de X 3 + X + 1.
Les polynômes X 2 + 1 et X 3 + X + 1 n’ont pas de racines complexes en commun, ils sont donc
premiers entre eux.
Définition
On appelle polynôme conjugué de P = an X n + ... + a1 X + a0 ∈ C [X] le polynôme
Proposition
∀P, Q ∈ C [X],
P̄¯ = P , P + Q = P̄ + Q̄, P Q = P̄ Q̄
dém. :
C’est immédiat en décrivant les polynômes par leurs coefficients.
Proposition
∀P, Q ∈ C [X],
P | Q ⇔ P̄ | Q̄
dém. :
Si P | Q alors on peut écrire Q = P U avec U ∈ C [X].
On alors Q̄ = P U = P̄ Ū donc P̄ | Q̄.
Si P̄ | Q̄ alors P = P̄¯ divise Q = Q̄
¯.
Proposition
∀P ∈ C [X] , ∀a ∈ C,
P (a) = P̄ (ā)
dém. :
C’est immédiat en décrivant le polynôme P par ses coefficients.
Proposition
Soit P ∈ C [X], a ∈ C et α ∈ N.
On a équivalence entre :
(i) a est racine de multiplicité α de P ;
(ii) ā est racine de multiplicité α de P̄ .
dém. :
En effet
∀k ∈ N, (X − a)k | P ⇔ (X − ā)k | P̄
Ainsi la multiplicité de a en tant que racine de P égale celle de ā en tant que racine de P̄ .
8.5.3 Polynôme réel
8.5.3.1 Racine complexe
Définition
On appelle racine complexe d’un polynôme P ∈ R [X] toute racine de P vu comme polynôme
complexe.
Proposition
Soit P ∈ R [X] un polynôme de degré n ∈ N.
P admet exactement n racines complexes comptées avec multiplicité.
dém. :
C’est la transposition avec le vocabulaire en cours du résultat assurant que tout polynôme complexe de
degré n admet exactement n racines comptées avec multiplicité.
Proposition
Les racines complexes de P ∈ R [X] sont deux à deux conjuguées et deux racines conjuguées
ont même multiplicité.
dém. :
Si a est racine complexe de multiplicité α de P alors ā est aussi racine complexe de multiplicité α de
P̄ = P .
Proposition
Les polynômes irréductibles de R [X] sont :
- les polynômes de degré 1 ;
- les polynômes de degré 2 de discriminant < 0 (i.e. sans racines réelles).
dém. :
Ce sont des polynômes irréductibles :
En effet, on sait déjà que les polynômes de degré 1 sont irréductibles.
Considérons maintenant un polynôme P de degré 2 sans racines réelles.
Soit D un diviseur de P . On a deg D 6 2 et D 6= 0.
Si deg D = 0 ou 2 alors D est un diviseur trivial de P .
Si deg D = 1 alors D possède une racine réelle qui sera racine de P . C’est exclu.
Ainsi P est irréductible.
Inversement :
Soit P un polynôme irréductible dans R [X].
P est non constant donc P possède une racine complexe a.
Si a ∈ R alors X − a | P et donc P est associé à X − a puis c’est un polynôme de degré 1.
Si a ∈ C\R alors a, ā sont racines distinctes de P puis A = (X − a)(X − ā) divise P dans le cadre des
polynômes complexes. Ainsi il existe B ∈ C [X] tel que P = AB.
2
Or P ∈ R [X] et A = X 2 − 2Re(a)X + |a| ∈ R [X] donc P̄ = ĀB̄ donne P = AB̄.
On en déduit B = B̄ d’où B ∈ R [X]. Ainsi A divise P dans le cadre des polynômes réels.
Or P est irréductible, il est donc associé à A et apparaît comme étant un polynôme de degré 2 sans racines
réelles.
Exemple Le polynôme X 2 + 2X + 2 est irréductible dans R [X].
Les polynômes X 2 − 3X + 2 et X 4 + X 2 + 1 sont composés dans R [X].
Théorème
Soit P ∈ R [X] non constant. Il existe λ ∈ R? , N, M ∈ N, a1 , . . . , aN ∈ R deux à deux
distincts,
(p1 , q1 ), . . . , (pM , qM ) ∈ R2 deux à deux distincts, tels que ∆j = p2j − 4qj < 0 et il existe
α1 , . . . , αN , β1 , . . . , βM ∈ N? tels que :
N
Y M
Y
P =λ (X − ai )αi (X 2 + pj X + qj )βj
i=1 j=1
Corollaire
Les polynômes de degré impair possèdent au moins une racine réelle.
dém. :
Si N = 0 dans l’écriture qui précède alors P est un polynôme de degré pair.
X5 − 1
X6 − 1
Comme ci-dessus, en isolant les racines réelles et en regroupant entre elles les racines complexes
conjuguées, on obtient
X
σp = xi1 xi2 ...xip (pour 1 6 p 6 n ),. . .
16i1 <i2 <...<ip 6n
σn = x1 x2 ...xn .
Remarque Ainsi σp apparaît comme étant la somme de tous les produits possibles de p éléments
d’indices distincts choisis dans x1 , ..., xn ; on dit que σp est la somme des p-produits.
Exemple Pour n = 2
σ1 = x1 + x2 et σ2 = x1 x2
Exemple Pour n = 3
σ1 = x1 + x2 + x3 , σ2 = x1 x2 + x1 x3 + x2 x3 et σ3 = x1 x2 x3
Proposition
Soient n ∈ N? , x1 , . . . , xn ∈ K et σ1 , . . . , σn les expressions symétriques élémentaires en les
x1 , ..., xn .
On a
dém. :
Le coefficient de X n−k dans le développement de (X − x1 ) . . . (X − xn ) s’obtient en considérant les
termes obtenus lorsqu’on choisit k facteurs −xi et n − k facteurs X. Ce coefficient vaut donc (−1)k × la
somme des produits de la forme xi1 xi2 . . . xik avec i1 < i2 < . . . < ik i.e. (−1)k σk .
Théorème
Soient P = an X n + ... + a1 X + a0 un polynôme de degré n ∈ N? et x1 , ..., xn ∈ K.
On a équivalence entre :
(i) x1 , ..., xn sont les racines de P comptées avec multiplicité ;
(ii) ∀1 6 k 6 n, σk = (−1)k an−k /an .
dém. :
Sachant que le coefficient dominant de P est an , on a
(i) ⇔ P = an (X − x1 )...(X − xn )
Remarque Le coefficient de X n−1 d’un polynôme scindé donne la somme de ses racines.
Le coefficient constant d’un polynôme scindé donne le produit de ses racines.
Exemple Le cas n = 2.
Soit P = aX 2 + bX + c avec a 6= 0.
x1 et x2 sont les racines de P comptées avec multiplicité si, et seulement si,
(
x1 + x2 = −b/a
x1 x2 = c/a
a pour couples solutions, les couples (x, y) formés des deux racines du polynôme X 2 − 2X + 7.
Exemple Le cas n = 3.
Soit P = aX 3 + bX 2 + cX + d avec a 6= 0.
x1 , x2 , x3 sont les racines de P comptées avec multiplicité si, et seulement si,
x1 + x2 + x3 = −b/a
x1 x2 + x2 x3 + x3 x1 = c/a
x1 x2 x3 = −d/a
x1 + x2 + x3 = 4 et x1 x2 x3 = 4
Les triplets (x, y, z) solutions de ce système sont ceux formés des racines comptées avec multiplicité du
polynôme X 3 − 2X 2 − 5X + 6.
1 est racine apparente de ce polynôme et cela permet la factorisation :
On en déduit σ3 = −4.
Par suite le triple (x1 , x2 , x3 ) est formé des racines comptées avec multiplicité du polynôme
X 3 − X 2 − 4X + 4
(X 3 − X 2 − 4X + 4) = (X − 1)(X − 2)(X + 2)
1 1 1 1 1 1
I1 = + + et I2 = 2 + 2 + 2
x1 x2 x3 x1 x2 x3
E : t3 + at2 + bt + c = 0
d’inconnue t ∈ C.
1ère étape :
On réalise le changement d’inconnue t = x − a/3.
L’équation E se transforme alors en une équation du type :
x3 + px + q = 0
assurément possible car tout système somme-produit complexe possède un couple solution.
L’équation x3 + px + q = 0 devient alors
(u + v)3 + p(u + v) + q = 0
On sait résoudre un tel système et ceci permet de choisir un couple (U, V ).parmi les deux couples
solutions. Ce choix n’a pas d’incidence compte tenu de la symétrie existant entre u et v, symétrie qui
permet d’échanger u et v et donc U et V . Après résolution des équations u3 = U et v 3 = V , on obtient
trois valeurs possibles pour u et trois valeurs possibles pour v soit, a priori, neuf couples (u, v) possibles.
Cependant la relation uv = −p/3 permet d’exprimer v en fonction de u et, par suite, seuls trois des neufs
couples (u, v) sont à considérer.
La relation x = u + v permet alors d’exprimer x et ceci conduit alors à trois solutions possibles.
Résumons : Si x est solution de l’équation x3 + px + q = 0 alors x est l’une des 3 solutions précédentes.
4ème étape :
Inversement, si x est l’une des trois valeurs précédentes, en remontant le raisonnement, on observe bien
que x est solution de l’équation x3 + px + q = 0. La résolution est achevée.
Exemple Résolvons l’équation t3 − 3t2 − 3t − 4 = 0 d’inconnue t ∈ C.
On pose x = t − 1 ce qui conduit à l’équation x3 − 6x − 9 = 0.
On écrit x = u + v avec uv = 2.
On obtient alors u3 + v 3 = 9.
On résout le système (
U +V =9
UV = 8
K désigne R ou C.
9.1.1 Construction
Définition
On appelle fraction rationnelle à coefficients dans K et en l’indéterminée X tout élément
représenté par un rapport A/B formé par A, B ∈ K [X] avec B 6= 0.
On note K(X) l’ensemble de ces éléments.
Exemple
X +1
∈ R(X)
X
Définition
On dit deux rapport A/B et C/D (avec B, D 6= 0 ) représentent la même fraction rationnelle
si AD = BC.
Ainsi
A C
= ⇔ AD = BC
B D
X +1 1
Exemple 2
= car (X − 1)(X + 1) = (X 2 − 1) × 1.
X −1 X −1
Définition
Tout polynôme P ∈ K [X] est dit égal à la fraction rationnelle P/1 ∈ K(X).
En ce sens K [X] ⊂ K(X).
255
9.1. LE CORPS DES FRACTIONS RATIONNELLES
Définition
Soient F = A/B et G = C/D deux éléments de K(X) et λ ∈ K.
On définit les fractions rationnelles λ.F, F + G, F G par :
λ.A AD + BC AC
λ.F = ,F + G = ,FG =
B BD BD
Exemple Pour
X +1 X 2 − 2X − 1
F = et G =
X −1 X(X + 1)
on a
2X 3 − X 2 + 2X + 1
F +G=
X(X 2 − 1)
et
X 2 − 2X − 1
FG =
X(X − 1)
Proposition
Les résultats de ces opérations sont indépendant des rapports A/B et C/D choisis pour
représentés F et G.
dém. :
Supposons
A1 A2 C1 C2
F = = et G = =
B1 B2 D1 D2
On a A1 B2 = A2 B1 et C1 D2 = C2 D1 .
λA1 λA2
Puisque λA1 B2 = λA2 B1 , on a = .
B1 B2
Ainsi le résultat de l’opération λ.F ne dépend pas du rapport choisi pour représenter F .
On a (A1 D1 + B1 C1 )B2 D2 = A1 B2 D1 D2 + C1 D2 B1 B2
donc (A1 D1 + B1 C1 )B2 D2 = A2 B1 D1 D2 + C2 D1 B1 B2
puis (A1 D1 + B1 C1 )B2 D2 = (A1 D2 + B2 C2 )B1 D1 .
Ainsi le résultat de l’opération F + G ne dépend pas des rapports choisis pour représenter F et G.
Enfin (A1 C1 )(B2 D2 ) = (A1 B2 )(C1 D2 ) = (A2 B1 )(C2 D1 ) = (A2 C2 )(B1 D1 )
Ainsi le résultat de l’opération F G ne dépend pas des rapports choisis pour représenter F et G.
Proposition
Les opérations sur K(X) prolongent celles connues K [X].
dém. :
Pour P, Q ∈ K [X],
P λ.P P Q P +Q P Q PQ
λ. = , + = et =
1 1 1 1 1 1 1 1
Théorème
0
(K(X), +, .) est un K-espace vectoriel d’élément nul la fraction nulle 0 = .
1
dém. :
L’addition sur K(X) est évidemment commutative. Etudions son associativité.
D’une part
A C E AD + BC E (AD + BC)F + BDE ADF + BCF + BDE
+ + = + = =
B D F BD F BDF BDF
D’autre part
A C E A CF + ED ADF + B(CF + DE) ADF + BCF + BDE
+ + = + = =
B D F B DF BDF BDF
Ainsi l’addition sur K(X) est associative.
0
La fraction nulle 0 = est élément neutre pour l’addition ; en effet
1
A 0 A×1+B×0 A
+ = =
B 1 B B
Puisque
A −A AB − AB 0 0
+ = = 2 = =0
B B B2 B 1
toute fraction de K(X) est symétrisable
Ainsi (K(X), +) est un groupe abélien de neutre la fraction nulle.
Enfin les propriétés calculatoires
λ.(F + G) = λ.F + λ.G, (λ + µ).F = λ.F + µ.F ,
λ. (µ.F ) = (λµ).F et 1.F = F
sont immédiates à obtenir.
Théorème
1
(K(X), +, ×) est un corps de neutre multiplicatif la fraction 1 = .
1
dém. :
On a vu ci-dessus que (K(X), +) est un groupe abélien.
La multiplication sur K(X) est évidemment commutative, associative et la fraction 1 = 1/1 en est
élément neutre.
Etudions la distributivité de la multiplication sur l’addition.
A C E A CF + DE A(CF + DE)
+ = =
B D F B DF BDF
ACF + ADE AC AE AC AE
= = + = +
BDF BD BF BD BF
Ainsi K(X) est un anneau commutatif.
De plus on peut affirmer que K(X) est non réduit à {0}.
A
Soit F = ∈ K(X) différent de la fraction nulle.
B
B
On peut affirmer que A 6= 0 et introduire G = ∈ K(X).
A
AB 1 B
On a F G = = donc F est inversible et F −1 = .
BA 1 A
1
Remarque L’inverse d’une fraction F non nulle est parfois notée .
F
Exemple Soit n ∈ N.
On a X n+1 − 1 = (X − 1)(1 + X + · · · + X n ) dans K [X].
En multipliant par l’inverse de X − 1 dans K(X), on obtient la relation
X n+1 − 1
= 1 + X + · · · + Xn
X −1
dans K(X).
Remarque Ici on peut diviser par X − 1 dans K(X) car X − 1 n’est pas la fraction nulle.
On peut faire cette manipulation sans se soucier de ce qui se passe en 1 car X est une indéterminée et
non une variable. Le problème en 1 se posera seulement lorsqu’on voudra évaluer l’égalité précédente
en 1.
Remarque Pour vérifier qu’un rapport représentant une fraction rationnelle est formé par deux
polynômes premiers entre eux, il suffit de vérifier que ceux-ci n’ont pas de racines complexe en
commun ; ceci est facile à faire dès que l’on connaît les racines de l’un d’entre eux.
X6 − 1 X4 + X2 + 1
Exemple Le représentant irréductible de est .
X4 − 1 X2 + 1
En effet ces deux fractions rationnelles sont égales (via factorisation pas X 2 − 1 ) et la seconde est
formée par un rapport irréductible car les polynômes X 4 + X 2 + 1 et X 2 + 1 sont premiers entre eux
puisque sans racines complexes en commun.
9.1.3 Degré
Définition
Soit F ∈ K(X) de représentant irréductible P/Q.
On appelle degré de F le nombre
Ainsi la notion de degré d’une fraction rationnelle prolonge celle de degré d’un polynôme.
Proposition
Pour F = A/B ∈ K(X),
deg F = deg A − deg B
dém. :
Soit P/Q le représentant irréductible de F .
A P
Puisque F = = , on a AQ = BP donc deg A + deg Q = deg B + deg P .
B Q
Puisque B, Q sont non nuls, deg B, deg Q ∈ N et la relation qui précède donne deg A − deg B =
deg P − deg Q.
X +1 X3 + X + 1 X2
Exemple deg 2
= −1, deg 2 = 1, deg 2 = 0.
X +2 X −X +2 X +1
Proposition
Soient F, G ∈ K(X) et λ ∈ K.
(
deg F si λ 6= 0
deg λ.F =
−∞ si λ = 0
dém. :
Soient A/B et C/D des rapports représentant F et G.
Si λ = 0 alors λ.F = 0 donc deg(λF ) = −∞.
λA
Si λ 6= 0 alors λ.F = donc
B
deg(λF ) = deg(λA) − deg B = deg A − deg B = deg F
AD + BC
F +G= donc
BD
deg(F + G) = deg(AD + BC) − deg(BD)
Or
deg(AD + BC) 6 max(deg AD, deg BC)
donc
deg(F + G) 6 max (deg AD − deg BD, deg BC − deg BD)
puis
deg(F + G) 6 max (deg A − deg B, deg C − deg D) = max(deg F, deg G)
AC
Enfin F G = donc
BD
deg(F G) = deg AC − deg BD = deg A + deg C − deg B − deg D = deg F + deg G
9.1.4 Dérivation
Définition
Soit F ∈ K(X) de représentant irréductible P/Q.
On appelle fraction rationnelle dérivée de F la fraction
P 0 Q − P Q0
F0 =
Q2
Proposition
Pour F = A/B ∈ K(X), on a
A0 B − AB 0
F0 =
B2
dém. :
Soit P/Q le représentant irréductible de F .
A P
Puisque F = = , on a P B = QA.
B Q
En dérivant cette relation on obtient P 0 B + P B 0 = Q0 A + QA0 (*).
On a
P 0 Q − P Q0 P 0 QB 2 − P Q0 B 2 P 0 BQB − (P B)Q0 B
F0 = 2
= 2 2
=
Q Q B Q2 B 2
donc
P 0 BQB − (QA)Q0 B (P 0 Q − Q0 A)QB
F0 = 2 2
=
Q B Q2 B 2
En exploitant la relation (*), on obtient
Exemple Pour n ∈ N? et a ∈ K,
0
1 n
=−
(X − a)n (X − a)n+1
Proposition
Soient F, G ∈ K(X) et λ ∈ K.
et, lorsque G 6= 0, 0
F 0 G − F G0
F
=
G G2
dém. :
Soient A/B et C/D des rapports représentants F et G.
L’égalité (λF )0 = λF 0 est immédiate.
0
(A0 D + AD0 + B 0 C + BC 0 )BD + (AD + BC)(B 0 D + BD0 )
0 AD + BC
(F + G) = =
BD B 2 D2
et
A0 B − AB 0 C 0 D − CD0 (A0 B − AB 0 )D2 + B 2 (C 0 D − CD0 )
F 0 + G0 = + =
B2 D2 B 2 D2
Après simplification du terme B 0 CBD dans la première, ces deux fractions rationnelles se correspondent
et donc (F + G)0 = F 0 + G0 .
0
(A0 C + AC 0 )BD + AC(B 0 D + BD0 )
AC
(F G)0 = =
BD B 2 D2
et
Proposition
Pour F ∈ K(X) tel que F 6= 0, on a deg F 0 6 deg F − 1.
dém. :
Soit A/B un rapport représentant F .
A0 B − AB 0
F0 =
B2
donc
deg F 0 = deg(A0 B − AB 0 ) − 2 deg B
Or
deg(A0 B − AB 0 ) 6 max(deg A0 B, deg AB 0 ) 6 deg A + deg B − 1
X +1 1
Exemple Pour F = = 1 + , deg F = 0 et deg F 0 = −2 !
X X
Remarque Comme P et Q sont premiers entre eux, un même élément a ne peut pas être à la fois racine
et pôle de F .
Exemple Pour P ∈ K [X], les racines de P/1 sont les racines de P et P/1 n’a pas de pôles.
Remarque Une fraction rationnelle n’a qu’un nombre fini de pôles. En effet son dénominateur est un
polynôme non nul et celui-ci n’a qu’un nombre fini de racines.
Exemple Considérons
X2 − 1
F = ∈ C(X)
X3 − 1
Pour déterminer racines et pôles de F , calculons un représentant irréductible.
(X − 1)(X + 1) X +1
F (X) = = 2
(X − 1)(X 2 + X + 1) X +X +1
Définition
Soit F ∈ K(X) de représentant irréductible P/Q et a ∈ K.
Si a est racine de F (resp. pôle de F ), la multiplicité de a en tant que racine de P (resp. racine
de Q ) est appelée multiplicité de la racine a dans F (resp. du pôle a dans F ).
Exemple Considérons
(X − 1)(X + 2)2
F = ∈ R(X)
X 2 (X + 1)
La fraction rationnelles F est écrite ici sous forme irréductible.
1 est racine simple et −2 racine double de F .
−1 est pôle simple et 0 est pôle double de F .
Proposition
Soient F = A/B ∈ K(X) − {0} et a ∈ K.
Posons α, β ∈ N les multiplicités de a en tant que racine de A et B.
Si α > β alors a est racine de F de multiplicité α − β.
Si α = β alors a n’est ni racine, ni pôle de F .
Si α < β alors a est pôle de F de multiplicité β − α.
dém. :
On peut écrire A = (X − a)α Ã avec Ã(a) 6= 0 et B = (X − a)β B̃ avec B̃(a) 6= 0.
Soit P/Q le représentant irréductible de F .
On a P B = QA donc
Cas α > β :
En simplifiant dans la relation (*), on obtient P B̃ = (X − a)α−β QÃ
En évaluant en a, P (a)B̃(a) = 0 donc P (a) = 0 car B̃(a) 6= 0.
Ainsi a est racine de P . Cependant a n’est pas racine de Q car P et Q n’ont pas de racines en commun.
Il reste à déterminer la multiplicité de a en tant que racine de P .
Puisque B̃ divise (X − a)α−β QÃ et que B̃ est premier avec X − a (car B̃(a) 6= 0 ), le théorème de
Gauss donne que B̃ divise QÃ ce qui permet d’écrire QÃ = B̃C.
La relation P B̃ = (X − a)α−β QÃ donne alors P = (X − a)α−β C.
Comme Q(a) 6= 0 et Ã(a) 6= 0, on a nécessairement C(a) 6= 0 car QÃ = B̃C.
Ainsi P = (X − a)α−β C avec C(a) 6= 0, a est racine de multiplicité exactement α − β de P .
Cas α = β :
En simplifiant dans la relation (*), on obtient P B̃ = QÃ.
En évaluant en a on obtient P (a)B̃(a) = Q(a)Ã(a).
Puisque Ã(a), B̃(a) 6= 0, on peut affirmer P (a) = 0 ⇔ Q(a) = 0.
Or P et Q n’ont pas de racine commune donc P (a) 6= 0 et Q(a) 6= 0.
Ainsi a n’est ni racine, ni pôle de F .
Cas α < β :
Il suffit de transposer l’étude menée dans le cadre α > β.
Xp − 1
F =
Xq − 1
9.1.6 Evaluation
Définition
Soient F ∈ K(X) de représentant irréductible P/Q et a ∈ K.
On dit que F est définie en a si a n’est pas pôle de F i.e. Q(a) 6= 0.
On pose alors
P (a)
F (a) =
Q(a)
appelée valeur de F en a.
Proposition
Soient F ∈ K(X) de représentant A/B et a ∈ K.
Si B(a) 6= 0 alors F est définie en a et F (a) = A(a)/B(a).
dém. :
Soit P/Q le représentant irréductible de F . On a P B = QA.
Si B(a) 6= 0 alors nécessairement Q(a) 6= 0 car Q(a) = 0 ⇒ P (a)B(a) = 0 ⇒ P (a) = 0 alors que P
et Q n’ont pas de racines communes.
Ainsi F est définie en a et puisque l’égalité P B = QA entraîne P (a)B(a) = Q(a)A(a) on obtient
P (a) A(a)
=
Q(a) B(a)
dém. :
Soient P/Q et R/S les représentants irréductible de F et G.
a n’est pas racines de Q ni de S.
λP P S + QR PR
Puisque λF = ,F +G = et F G = avec Q(a) 6= 0 et (QS)(a) = Q(a)S(a) 6= 0,
Q QS QS
les fractions λF , F + G et F G sont définies en a et
λP (a)
(λF )(a) = = λF (a)
Q(a)
Proposition
Soient a ∈ K et F ∈ K(X).
Si F est définie en a alors F 0 est définie en a.
dém. :
Soit P/Q le représentant irréductible de F , a n’est pas racine de Q.
P 0 Q − P Q0 2
Puisque F 0 = avec Q2 (a) = [Q(a)] 6= 0, F 0 est définie en a.
Q2
9.1.7 Fonctions rationnelles
Définition
On appelle ensemble de définition de F ∈ K(X), l’ensemble DF formé des a ∈ K tels que F
définie en a.
Définition
Soit F ∈ K(X) et D une partie de K incluse dans DF .
On appelle fonction rationnelle associée à F définie sur D l’application F̃ : D → K qui à
a ∈ D associe F̃ (a) = F (a).
Quand D = DF , on parle simplement de fonction rationnelle associée à F .
Exemple La fonction rationnelle associée à 1/X ∈ C [X] est l’application z 7→ 1/z définie de C?
vers C.
Proposition
Soient F, G ∈ K(X) et D une partie infinie de K.
Si
∀x ∈ D ∩ DF ∩ DG , F̃ (x) = G̃(x)
alors F = G.
dém. :
Soient P/Q et R/S les représentants irréductibles de F et G.
P (x) R(x)
Pour tout x ∈ D ∩ DF ∩ DG , l’égalité F̃ (x) = G̃(x) donne = et donc (P S)(x) = (QR)(x).
Q(x) S(x)
Les polynômes P S et QR coïncident sur D ∩ DF ∩ DG qui est une partie infinie (car D est infinie et
D ∩ DF ∩ DG correspond à D privé des pôles de F et G qui sont en nombre fini) donc P S = QR puis
F = G.
Remarque Suite à ce résultat, on peut identifier la fraction rationnelle F à la fonction rationnelle F̃ dès
que l’ensemble de départ est infini.
Exemple Montrons que pour tout n ∈ N, il existe un unique fraction rationnelle Fn ∈ R(X) telle que
1) ]−1, 1[ ⊂ DFn ;
Fn (x)
2) ∀x ∈ ]−1, 1[, (arcsin x)(n+1) = √ .
1 − x2
Unicité :
Supposons Fn et Gn solutions.
Pour tout x ∈ ]−1, 1[, on a Fn (x) = Gn (x).
Puisque les fractions rationnelles Fn et Gn coïncident sur une partie infinie, elles sont égales.
Existence :
Raisonnons par récurrence sur n ∈ N.
Pour n = 1, F1 = 1 convient.
Supposons l’existence établie au rang n > 0.
Par hypothèse de récurrence, il existe un fraction rationnelle Fn ∈ R(X) telle que ]−1, 1[ ⊂ DFn et
Fn (x)
(arcsin x)(n+1) = √
1 − x2
pour tout x ∈ ]−1, 1[.
En dérivant cette dernière relation, on obtient
F 0 (x) xFn (x)
(arcsin x)(n+2) = √ n +√ 3
1−x 2
1 − x2
Posons alors
X
Fn+1 = Fn0 + Fn ∈ R(X)
1 − X2
Puisque Fn est définie sur ]−1, 1[, par opérations, Fn+1 est aussi définie sur ]−1, 1[.
De plus, par construction, on a
Fn+1 (x)
(arcsin x)(n+2) = √
1 − x2
Récurrence établie.
F = E + G et deg G < 0
Exemple Calculons
X3 + X − 1
Ent
X2 − X + 1
Par division euclidienne
X 3 + X − 1 = (X 2 − X + 1)(X + 1) + (X − 2)
donc
X3 + X − 1
Ent =X +1
X2 − X + 1
Remarque Si on retranche à une fraction F sa partie entière, la fraction obtenue est de degré < 0.
Existence :
Soit P/Q le représentant irréductible de F .
On a Q = (X − a)α Q̂ avec Q̂(a) 6= 0.
(X − a)α et Q̂ sont premiers entre eux donc par le théorème de Bézout, il existe U, V ∈ K [X] tels que
(X − a)α U + AV = 1. On a alors
P P (X − a)α U + P Q̂V PU PV
F = = = +
Q α
(X − a) Q̂ Q̂ (X − a)α
Réalisons la division euclidienne de P V par (X − a)α :
P V = (X − a)α T + R avec deg R < α.
On peut alors écrire
PU R R
F = +T + α
=G+
Q̂ (X − a) (X − a)α
avec
PU
G= +T
Q̂
qui n’a pas de pôle en a.
Remarque La partie polaire relative à un pôle a est de degré < 0.
Remarque Lorsqu’on retranche à une fraction sa partie polaire relative à un pôle a donné, la fraction
obtenue ne présente plus de pôle en a.
Proposition
Soient a ∈ K, α ∈ N? et R ∈ Kα−1 [X].
Il existe un unique (λ1 , . . . , λα ) ∈ Kα tel que
R λα λ2 λ1
α
= α
+ ··· + 2
+
(X − a) (X − a) (X − a) X −a
dém. :
On a l’équivalence
α n
R X λk X
α
= k
⇔R= λk (X − a)α−k
(X − a) (X − a)
k=1 k=1
2 α−1
Puisque la famille (1, X − a, (X − a) , ..., (X − a) ) est une famille de polynôme de degrés étagés,
elle forme une base de Kα−1 [X] et donc tout polynôme R ∈ Kα−1 [X] s’écrit de façon unique sous la
Xn
forme λk (X − a)α−k .
k=1
Remarque Une partie polaire relative à un pôle a de multiplicité α peut donc d’écrire sous la forme
d’une combinaison linéaire des fractions
1 1 1
, ,...,
X − a (X − a)2 (X − a)α
Q = (X − a1 )α1 . . . (X − an )αn
avec a1 , . . . , an deux à deux distincts alors les pôles de F sont les ai de multiplicité αi et on
peut écrire
n X αi
X λi,j
F = Ent(F ) + avec λi,j ∈ C
i=1 j=1
(X − ai )j
puis
n
P0 X αk α1 αn
F = = = + ··· +
P X − ak X − a1 X − an
k=1
a b
F =1+ + avec a, b ∈ C
X −1 X −2
b 1 a b
0=1−a− et = 1 − −
2 6 2 3
On a ainsi
(
2a + b = 2
3a + 2b = 5
P λ
F = =G+ (1)
(X − a)Q̂ X −a
P
(X − a)F = = (X − a)G + λ (2)
Q̂
P (a)
En évaluant (2) en a, on parvient à = 0 + λ et donc
Q̂(a)
P
λ= (a)
Q̂
X2
F = ∈ C(X)
X2 − 3X + 2
Comme on l’a vu ci-dessus, la décomposition en éléments simples de F s’écrit
X2 a b
F = =1+ +
(X − 1)(X − 2) X −1 X −2
1
Exemple Soit n ∈ N? et F = ∈ C(X).
Xn −1
F est exprimée sous forme irréductible et Ent(F ) = 0 car deg F < 0.
Les pôles de F sont les racines n-ième de l’unité ω0 , ..., ωn−1 avec ωk = e2ikπ/n , ce sont des pôles
simples.
La décomposition en éléments simples de F est de la forme
1 c0 cn−1
F = = + ··· +
Xn − 1 X − ω0 X − ωn−1
Ainsi
n−1
1 1 X ωk
=
Xn − 1 n X − ωk
k=0
P λ µ
F = =G+ 2
+ (1)
(X − a)2 Q̂ (X − a) X −a
P
(X − a)2 F = = (X − a)2 G + λ + µ(X − a) (2)
Q̂
X −2
Exemple Considérons F = ∈ C(X).
X(X − 1)2
F est exprimée sous forme irréductible et Ent(F ) = 0 car deg F < 0.
Les pôles de F sont 0 et 1 avec 0 pôle simple et 1 pôle double.
Ainsi
X −2 −2 −1 2
= + +
X(X − 1)2 X (X − 1)2 X −1
Exemple Considérons
X +1
F = ∈ C(X)
X 2 (X− 1)2
F est exprimée sous forme irréductible et Ent(F ) = 0 car deg F < 0.
Les pôles de F sont 0 et 1 et ce sont des pôles doubles.
La décomposition en éléments simples de F est de la forme
X +1 a b c d
= 2+ + +
X 2 (X − 1)2 X X (X − 1)2 X −1
avec
0
(X − 1)2 − 2(X + 1)(X − 1)
X + 1 X +1
a= = 1, b = = =3
(X − 1)2 X=0 (X − 1)2 (X − 1)4
X=0 X=0
0
X + 1 X +1 1 2
c= = 2 et d = = − 2 − 3 = −3
X2 X2 X X X=1
X=1
X=1
Ainsi
X +1 1 3 2 3
= 2+ + −
X 2 (X− 1) 2 X X (X − 1)2 X −1
λα
On peut alors calculer G = F − et reprendre le processus précédent à partir de G qui présente
(X − a)α
en a un pôle d’ordre < α.
Exemple Considérons
X2
F = ∈ C(X)
(X + 1)3
F est exprimée sous forme irréductible et Ent(F ) = 0 car deg F < 0.
−1 est le seul pôle de F et c’est un pôle triple.
La décomposition en éléments simples de F est de la forme
X2 a b c
3
= 3
+ 2
+
(X + 1) (X + 1) (X + 1) X +1
avec a = X 2 X=−1 = 1.
Considérons alors
X2 1 X2 − 1 X −1 b c
3
− 3
= 3
= 2
= 2
+
(X + 1) (X + 1) (X + 1) (X + 1) (X + 1) X +1
On a
b = X − 1|X=−1 = −2 et c = (X − 1)0 |X=−1 = 1
Finalement
X2 1 2 1
3
= 3
− 2
+
(X + 1) (X + 1) (X + 1) X +1
Exemple Considérons
X2 + 1
F = ∈ C(X)
X(X − 1)3
F est exprimée sous forme irréductible et Ent(F ) = 0 car deg F < 0.
Les pôles de F sont 0 et 1 ; 0 est pôle simple et 1 est pôle triple.
La décomposition en éléments simples de F est de la forme
X2 + 1 a b c d
= + + +
X(X − 1)3 X (X − 1)3 (X − 1)2 X −1
avec
X 2 + 1
b= =2
X X=1
Considérons alors
X2 + 1 2 X 2 − 2X + 1 1 a c d
− = = = + +
X(X − 1)3 (X − 1)3 X(X − 1)3 X(X − 1) X (X − 1)2 X −1
On a
1 1
a= = −1, c = 0 et d =
X − 1 X=0 X X=1
Finalement
X2 + 1 1 2 1
=− + +
X(X − 1)3 X (X − 1)3 X −1
λ1 λα
+ ··· +
X − ā (X − ā)α
X2 + X − 1 a b b̄
2
= + +
X(X + 1) X X −i X +i
car les parties polaires complexes de cette fraction réelle sont conjuguées.
On a
X 2 + X − 1 X 2 + X − 1
i−2 i
a= = −1 et b = = =1−
X 2 + 1 X=0 X(X + i) X=i −2 2
puis c = 1 + i/2.
Finalement
X2 + X − 1 1 1 − 2i 1 + 2i
= − + +
X(X 2 + 1) X X −i X +i
Exemple Considérons
1
F = ∈ R(X)
X 2 (X 2 + X + 1)
F est écrite sous forme irréductible et sa partie entière est nulle car deg F < 0.
Puisque X(X 2 + X + 1) = X 2 (X − j)(X − j 2 ), les pôles de F sont 0, j, j 2 ; 0 est pôles double et j, j 2
sont des pôles simples conjugués.
La décomposition en éléments simples de F est de la forme
1 a b c c̄
= 2+ + +
X 2 (X 2 + X + 1) X X X −j X − j2
car les parties polaires complexes de cette fraction réelle sont conjuguées.
On a
0
1 1 2X + 1
a= 2 = 1, b = =− 2 = −1
X + X + 1 X=0 2
X +X +1
2
(X + X + 1) X=0
X=0
et
1 − j2
1 1 1
c= 2 2
= 2 2
= =
X (X − j ) X=j
j (j − j ) 1−j 3
Finalement
1 1 1 1 1 − j2 1 1−j
= 2− + +
X 2 (X 2 + X + 1) X X 3X −j 3 X − j2
1 (X + 1) − X 1 1
= = −
X(X + 1) X(X + 1) X X +1
X2 (X + 1)2 − 2X − 1 1 2(X + 1) − 1 1 2 1
3
= = − = − +
(X + 1) (X + 1)3 X +1 (X + 1)2 X + 1 (X + 1)2 (X + 1)3
Quand une fraction est de degré strictement négatif, la limite xF (x) quand x → +∞, permet d’obtenir
une relation sur les coefficients des termes de la forme 1/(X − a) d’une décomposition en éléments
simples ; c’est particulièrement efficace lorsqu’il y a un pôle double !
Exemple Considérons
X2 + X + 1
F = ∈ C(X)
X(X + 1)2
F est écrite sous forme irréductible et sa partie entière est nulle car deg F < 0.
Les pôles de F sont 0 et −1 ; 0 est pôle simple alors que −1 est pôle double.
X2 + X + 1 a b c
2
= + 2
+
X(X + 1) X (X + 1) X +1
On a
X 2 + X + 1 X 2 + X + 1
a= = 1 et b = = −1
(X + 1)2 X=0 X
X=−1
Exemple Considérons
3X + 1
F = ∈ C(X)
(X − 1)2 (X + 1)
F est écrite sous forme irréductible et sa partie entière est nulle car deg F < 0.
Les pôles de F sont −1 et 1 ; −1 est pôle simple alors que 1 est pôle double.
La décomposition en éléments simples de F est de la forme
3X + 1 a b c
2
= + +
(X − 1) (X + 1) X + 1 X − 1 (X − 1)2
On a
3X + 1 1 3X + 1
a= = − et b = =2
(X − 1)2 X=−1 2 X + 1 X=1
1
xF (x) −−−−−→ 0 donne la relation a + c = 0, on en déduit c = .
x→+∞ 2
Finalement
3X + 1 −1/2 1/2 2
2
= + +
(X − 1) (X + 1) X + 1 X − 1 (X − 1)2
Si la fraction rationnelle décomposée présente une parité, on retrouve celle-ci sur les éléments simples de
sa décomposition. . .
Exemple Considérons
X
F = ∈ C(X)
(X 2 − 1)2
F est écrite sous forme irréductible et sa partie entière est nulle car deg F < 0.
(X 2 − 1)2 = (X − 1)2 (X + 1)2 , les pôles de F sont −1 et 1 ; ce sont des pôles doubles.
La décomposition en éléments simples de F est de la forme
X a b c d
= + + +
(X + 1)2 (X − 1)2 (X + 1)2 (X + 1) (X − 1)2 X −1
Exploitons l’imparité de F en remplaçant X par −X
−X a b c d
= + + +
(−X + 1)2 (−X − 1)2 (−X + 1)2 (−X + 1) (−X − 1)2 −X − 1
On en déduit
X −c d −a b
2 2
= 2
+ + 2
+
(X + 1) (X − 1) (X + 1) (X + 1) (X − 1) X −1
Calcul matriciel
Exemple Pour
1 2 3 4
A= 5 6 7 8
9 10 11 12
A = (ai,j )16i63,16j64 avec a1,1 = 1, a2,3 = 7, a3,1 = 9 et plus généralement ai,j = 4(i − 1) + j.
Définition
On note Mn,p (K) l’ensemble des matrices de type (n, p) à coefficients dans K.
281
10.1. OPÉRATIONS SUR LES MATRICES
Remarque Deux matrices de Mn,p (K) sont égales si, et seulement si, elles sont constituées des mêmes
coefficients.
p2
1 4 9 ...
2 8 18 ... 2p2
3p2
A= 3 12 27 ...
.. .. .. ..
. . . .
n 4n 9n ... np2
Exemple La matrice On,p = (0)i,j ∈ Mn,p (K) est appelée matrice nulle de type (n, p).
0 ... 0
On,p = ... ..
.
0 ... 0
Définition
Pour n = p = 1, les matrices de M1,1 (K) sont appelées matrices
(uni-) coefficient. Elles sont de la forme (x).
Il est usuel d’identifier cette matrice et son coefficient x élément de K.
Définition
Soit A = (ai,j ) ∈ Mn,p (K) (présentation de l’abus de notation correspondant).
a1,1 a1,2 . . . a1,p
a2,1 a2,2 . . . a2,p
A= .
.. ..
.. . .
an,1 an,2 ... an,p
Pour 1 6 j 6 p, la matrice
a1,j
Cj = ...
an,j
est appelée j-ème colonne de A.
Pour 1 6 i 6 n, la matrice
Li = ai,1 ... ai,p
est appelée i-ème ligne de A.
10.1.3 Matrice carrée
10.1.3.1 Définition
Définition
Les matrices de type (n, n) sont appelées matrices carrées d’ordre n.
On note Mn (K), au lieu de Mn,n (K), l’ensemble de ces matrices.
Définition
Soit A = (ai,j ) ∈ Mn (K).
Les coefficients d’indice (i, i) de A sont appelées coefficients diagonaux de A.
La famille (a1,1 , a2,2 , . . . , an,n ) = (ai,i )16i6n est appelée diagonale de la matrice A.
Définition
Une matrice A ∈ Mn (K) est dite diagonale si tous ses coefficients hors de la diagonale sont
nuls.
On note Dn (K) l’ensemble de ces matrices.
Définition
Pour λ1 , . . . , λn ∈ K, on note diag(λ1 , . . . , λn ) la matrice diagonale dont la diagonale est la
famille (λ1 , ..., λn ) c’est-à-dire la matrice
λ1 0
..
.
0 λn
Exemple On note
1 0
I = In = diag(1, 1, . . . , 1) =
..
.
0 1
appelée matrice identité.
Définition
Une matrice A ∈ Mn (K) est dite triangulaire supérieure (resp. inférieure) si tous les
coefficients en dessous (resp. au dessus) de la diagonale sont nuls.
On note Tn+ (K) (resp. Tn− (K) ) l’ensemble de ces matrices.
Proposition
Dn (K) = Tn+ (K) ∩ Tn− (K).
Définition
Soit A = (ai,j ) ∈ Mn,p (K) et B = (bi,j ) ∈ Mn,p (K).
On définit la matrice A + B ∈ Mn,p (K) par A + B = (ai,j + bi,j )16i6n,16j6p .
Ainsi
a1,1 . . . a1,p b1,1 . . . b1,p a1,1 + b1,1 . . . a1,p + b1,p
.. .. + .. .. = .. ..
. . . . . .
an,1 . . . an,p bn,1 . . . bn,p an,1 + bn,1 . . . an,p + bn,p
Définition
Soit A = (ai,j ) ∈ Mn,p (K) et λ ∈ K.
On définit la matrice λ.A ∈ Mn,p (K) par λ.A = (λai,j )16i6n,16j6p .
Ainsi
a1,1 . . . a1,p λa1,1 . . . λa1,p
λ. ... .. = .. ..
. . .
an,1 . . . an,p λan,1 . . . λan,p
Théorème
(Mn,p (K), +, .) est un K-espace vectoriel d’élément nul O = On,p .
dém. :
En identifiant une matrice A = (ai,j )16i6n,16j6p ∈ Mn,p (K) avec le multi-uplet
correspondant à une lecture continue des lignes, on observe que les opérations précédemment définies
correspondent aux opérations sur Knp . Or (Knp , +, .) est un K-espace vectoriel de vecteur nul le mutli-
uplet nul, donc (Mn,p (K), +, .) est un K-espace vectoriel d’élément nul O = On,p .
Exemple On a
1 0 0 −1 1 1 a + c −b + c
a. + b. + c. =
0 1 −1 0 −1 −1 −b − c a − c
10.1.4.2 Dimension
Définition
Soient 1 6 k 6 n et 1 6 ` 6 p. On appelle matrice élémentaire d’indice (k, `) de Mn,p (K),
la matrice Ek,` dont tous les coefficients sont nuls sauf celui d’indice (k, `) qui vaut 1. Ainsi
0 0
Ek,` = 1 ∈ Mn,p (K)
0 0
Remarque Le coefficient d’indice (i, j) de la matrice élémentaire Ek,` ∈ Mn,p (K) est
δ(i,j),(k,`) = δi,k δj,` .
Théorème
La famille B = (Ek,` )16k6n,16`6p est une base de Mn,p (K).
On l’appelle base canonique de l’espace Mn,p (K).
dém. :
Pour toute matrice A = (ai,j )16i6n,16j6p ∈ Mn,p (K), on peut écrire
p
n X
X
A= ak,` Ek,`
k=1 `=1
Proposition
Dn (K) est un sous-espace vectoriel de Mn (K) de dimension n.
dém. :
Par définition
Dn (K) = {diag(λ1 , . . . , λn )/λi ∈ K}
On a donc
Dn (K) = {λ1 E1,1 + · · · + λn En,n /λi ∈ K} = Vect(E1,1 , . . . , En,n )
Dn (K) est donc un sous-espace vectoriel de Mn (K) et la famille (E1,1 , . . . , En,n ) en est une base.
Proposition
n(n + 1)
Tn+ (K) et Tn− (K) sont des sous-espaces vectoriels de Mn (K) de dimension .
2
dém. :
On observe
Exemple Soient
1 0 1 0 1 1 0 −1
A1 = , A2 = , A3 = , A4 =
0 1 0 −1 1 1 1 0
Montrons que la famille (Ai )16i64 est une base de l’espace M2 (R).
Les éléments de la famille (Ai )16i64 sont des matrices éléments de M2 (R) et il y en a exactement
4 = dim M2 (R). Pour conclure il suffit, par exemple, d’étudier la liberté de cette famille.
Supposons λ1 A1 + λ2 A2 + λ3 A3 + λ4 A4 = O2,2 .
Matriciellement
λ1 + λ2 + λ3 λ3 − λ4 0 0
=
λ3 + λ4 λ1 + λ2 + λ3 0 0
En identifiant les coefficients et en résolvant le système obtenu par les équations formées, on obtient
λ1 = λ2 = λ3 = λ4 = 0 ce qui permet de conclure.
Exemple Soit
a b
H= ∈ M2 (K)/a + b + c + d = 0
c d
Montrons que H est un hyperplan de M2 (K).
Considérons l’application ϕ : M2 (K) → K définie par
a b
ϕ =a+b+c+d
c d
On vérifie aisément que ϕ est une forme linéaire sur M2 (K) et que celle-ci est non nulle. On en déduit
que H = ker ϕ est un hyperplan de M2 (K).
Remarque Pour calculer la matrice C il est usuel de disposer les matrices comme ci-dessous
B
A C
Pour déterminer le coefficient d’indice (i, k) de la matrice C, on repère la ième ligne de A et la kème
colonne de B comme ci-dessous
q
z
}| {
b1,k
..
.
bp,k
n ai,1 ... ai,p ci,k
On peut alors évaluer ci,k en procédant à la somme des produits des coefficients respectifs.
Attention : Pour que cette multiplication matricielle soit possible, il est nécessaire que le nombre de
colonnes de A soit égal au nombre de lignes de B.
De plus, on peut retenir
type (n, p) × type (p, q) = type (n, q).
Exemple Pour
1 2 1 0 1
A= et B =
−1 1 2 1 −1
on obtient
5 2 −1
A×B =
−1 1 −2
Exemple Pour
1 1
2 1 −1
A= et B = 2 1
0 1 2
0 1
on obtient
4 2
A×B =
2 3
Exemple Pour
a1,1 ... a1,p x1
.. .. et X = ..
A= . . .
an,1 ... an,p xp
on obtient
a1,1 x1 + ... + a1,p xp
AX =
..
.
an,1 x1 + ... + an,p xp
Proposition
Pour tout A ∈ Mn,p (K), B ∈ Mp,q (K), C ∈ Mq,r (K), on a
(AB)C = A(BC)
dém. :
On introduit les coefficients des matrices A, B, C
A = (ai,j ), B = (bj,k ), C = (ck,` )
en convenant de noter les indices en fonction du domaine où ceux-ci varient de sorte que 1 6 i 6 n, 1 6
j 6 p, 1 6 k 6 q, 1 6 ` 6 r
Posons D = AB = (di,k ) et E = (AB)C = DC = (ei,` ).
Xp n
X p X
X q
On a di,k = ai,j bj,k et ei,` = di,k ck,` = ai,j bj,k ck,` .
j=1 k=1 j=1 k=1
Posons F = BC = (fj,` ) et G = A(BC) = AF = (gi,` ).
q
X p
X p X
X q
On a fj,` = bj,k ck,` et gi,` = ai,j fj,` = ai,j bj,k ck,` .
k=1 j=1 j=1 k=1
En réorganisant l’ordre des sommes, on obtient gi,` = ei,` pour tous indices i, `.
Prop :∀A ∈ Mn,p (K), AIp = A et In A = A.
dém. :
Notons ai,j le coefficient général de la matrice A.
Le produit AIp est possible et si l’on note bi,j le coefficient d’indice (i, j) de ce calcul, on a
p
X
bi,j = ai,k δk,j = ai,j
k=1
Ainsi AIp = A.
L’étude de In A est similaire.
Proposition
∀A, B ∈ Mn,p (K), ∀C ∈ Mp,q (K), (A + B)C = AC + BC.
∀A ∈ Mn,p (K), ∀B, C ∈ Mp,q (K), A(B + C) = AB + AC.
dém. :
Soient A = (ai,j ), B = (bi,j ) ∈ Mn,p (K) et C = (cj,k ) ∈ Mp,q (K).
Remarque Le produit matriciel définit une loi de composition interne sur Mn (K).
Théorème
(Mn (K), +, ×) est un anneau, généralement non commutatif, d’élément nul O = On et
d’élément unité I = In .
De plus, ∀λ ∈ K, ∀A, B ∈ Mn (K) : (λ.A)B = λ.(AB) = A(λ.B).
dém. :
On sait déjà que (Mn (K), +) est un groupe abélien de neutre On .
Par les propriétés du produit matriciel ci-dessus établies, on peut affirmer que la multiplication est associative,
que la matrice In est neutre et que la multiplication est distributive sur l’addition. On en déduit que
(Mn (K), +, ×) est un anneau.
Remarque Pour n = 1, l’anneau (M1 (K), +, ×) s’identifie avec (K, +, ×), c’est donc un corps.
Définition
On dit que deux matrices A et B de Mn (K) commutent si AB = BA.
Définition
Pour A ∈ Mn (K), on note A0 = In , A1 = A, A2 = A × A, . . . , Am = A × A × · · · × A ( m
termes)
Attention : (A + B)2 = A2 + AB + BA + B 2 .
(A + B)3 = A3 + A2 B + ABA + BA2 + AB 2 + BAB + B 2 A + B 3 .
Théorème
Si A et B commutent alors pour tout m ∈ N,
(AB)m = Am B m ,
m
!
m
X m
(A + B) = Ak B m−k et
k=0
k
m−1
X
Am − B m = (A − B) Ak B m−1−k
k=0
dém. :
En vertu des règles de calculs dans un anneau. . .
Définition
On dit qu’une matrice A ∈ Mn (K) est idempotente si A2 = A.
Définition
On dit qu’une matrice A ∈ Mn (K) est nilpotente s’il existe m ∈ N tel que Am = On .
Exemple La matrice
0 1 2
B= 0 0 3
0 0 0
est nilpotente.
En effet
0 0 8 0 0 0
B2 = 0 0 0 et B 3 = 0 0 0
0 0 0 0 0 0
Plus généralement, on peut montrer qu’une matrice triangulaire supérieure de diagonale nulle est
nilpotente.
Définition
Une matrice A ∈ Mn (K) est dite inversible s’il existe B ∈ Mn (K) vérifiant AB = BA = In .
Cette matrice B est alors unique, c’est l’inverse de A noté A−1 .
Proposition
Soient A, B ∈ Mn (K)
Si A et B sont inversibles alors AB l’est aussi et (AB)−1 = B −1 A−1 .
Si A est inversible alors A−1 l’est aussi et (A−1 )−1 = A.
dém. :
Ce sont des propriétés relatives aux éléments inversibles d’un anneau.
Définition
On note GLn (K) l’ensemble des matrices inversibles de Mn (K).
Proposition
(GLn (K), ×) est un groupe appelé groupe linéaire d’ordre n.
dém. :
C’est le groupe des éléments inversibles de l’anneau (Mn (K), +, ×).
Théorème
Pour A ∈ Mn (K), on a équivalence entre
(i) A est inversible ;
(ii) A est inversible à droite i.e. ∃B ∈ Mn (K), AB = In ;
(iii) A est inversible à gauche i.e. ∃C ∈ Mn (K), CA = In .
De plus si tel est le cas A−1 = B = C.
dém. :
(i) ⇒ (ii) et (iii) immédiat.
(ii) ⇒ (i) Supposons qu’il existe B ∈ Mn (K) vérifiant AB = In .
Soit ϕ : Mn (K) → Mn (K) l’application définie par ϕ(M ) = M A.
Il est immédiat de vérifier que ϕ est un endomorphisme de Mn (K).
Soit M ∈ ker ϕ. On a M A = On donc M AB = On × B puis M = On car AB = In .
Par suite ker ϕ = {On }.
Ainsi ϕ est un endomorphisme injectif de Mn (K), or dim Mn (K) < +∞, donc ϕ est un automorphisme
de Mn (K). Par surjectivité, il existe C ∈ Mn (K) vérifiant CA = In et alors CAB = B d’où C = B
car AB = In .
Finalement AB = BA = In et donc A est inversible d’inverse B.
(iii) ⇒ (i) s’obtient de façon semblable en introduisant l’endomorphisme ψ : M → AM .
Exemple Soit
1 2
A=
3 4
On vérifie par le calcul que
A2 − 5A = 2I2
Par suite
1 5
A A − I2 = I2
2 2
Par le théorème d’inversibilité, on peut conclure que A est inversible et
1 5
A−1 = A− I
2 2
Lemme
Soient A, B ∈ Mn,p (K).
Si AX = BX pour toute colonne X ∈ Mp,1 (K) alors A = B
dém. :
Supposons AX = BX pour toute colonne X ∈ Mp,1 (K).
Pour X = Ej colonne élémentaire, le produit AEj est égale à la jème colonne de A. Or AEj = BEj
donc A et B admettent la même jème colonne. Ainsi, colonne par colonne, les matrices A et B sont
égales.
Comment établir l’inversibilité et calculer l’inverse de A = (ai,j ) ∈ Mn (K) ?
On introduit
x1 y1
X = ... ∈ Mn,1 (K) et Y = ... = AX ∈ Mn,1 (K)
xn yn
On a
y1 = a1,1 x1 + · · · + a1,n xn
..
.
yn = an,1 x1 + · · · + an,n xn
Soit B la matrice dont les coefficients apparaissent dans ce système c’est-à-dire B = (bi,j ) ∈ Mn (K).
Le système précédent donne X = BY et ainsi X = BAX et ce pour tout X ∈ Mn,1 (K).
Soient
x1 y1
X = x2 et Y = y2 = AX
x3 y3
On a
y1 = x2 + x3
y2 = x1 + x3
y3 = x1 + x2
(avec a ∈ K)
Soient
x1 y1
X = ... et Y = ... = AX
xn yn
On a
y1 = x1 − ax2
y2 = x2 − ax3
..
.
yn = xn
En inversant ce système on obtient
x1 = y1 + ay2 + · · · + an−1 yn
..
.
xn−1 = yn−1 + ayn
xn = yn
a2 an−1
1 a ...
.. .. ..
1 . . .
A −1
=
.. .. 2
. . a
..
. a
(0) 1
Proposition
Dn (K) est un sous-anneau commutatif de Mn (K).
dém. :
Dn (K) ⊂ Mn (K) et In ∈ Dn (K).
Soient
λ1 µ1
A=
.. et B =
.. ∈ Dn (K)
. .
λn µn
On a
λ1 − µ1 λ1 µ1
A−B =
.. ∈ Dn (K) et AB =
.. ∈ Dn (K)
. .
λn − µn λn µn
Exemple Pour
a1
A=
.. ∈ Dn (K)
.
an
on a
a21 a31 am
1
A2 =
.. 3
, A = .. m
,. . . , A =
..
. . .
a2n a3n am
n
Proposition
Pour
a1
A=
.. ∈ Dn (K)
.
an
on a équivalence entre :
(i) A est inversible ;
(ii) ∀1 6 i 6 n, ai 6= 0.
De plus si tel est le cas
1/a1
A−1 =
..
.
1/an
dém. :
(i) ⇒ (ii) Par contraposée :
Supposons qu’il existe i ∈ {1, . . . , n} tel que ai = 0.
Pour toute matrice B ∈ Mn (K), la i ème ligne du produit AB est nulle car la ième ligne de la matrice
A est nulle. Ainsi, il n’existe pas de matrice B ∈ Mn (K) vérifiant AB = In .
(ii) ⇒ (i) Supposons que pour tout i ∈ {1, . . . , n}, ai 6= 0. Posons
1/a1
B=
..
.
1/an
Proposition
Tn+ (K) est un sous-anneau de Mn (K).
dém. :
Tn+ (K) ⊂ Mn (K) et In ∈ Tn+ (K).
Soient A = (ai,j ) et B = (bi,j ) ∈ Tn+ (K).
Pour tout i > j, ai,j = bi,j = 0 car A et B sont triangulaires supérieures.
On a A − B = (ai,j − bi,j ) avec ai,j − bi,j = 0 pour tout i > j donc A − B ∈ Tn+ (K).
Etudions maintenant C = AB = (ci,j ). On a
n
X
ci,j = ai,k bk,j
k=1
Proposition
Soit A ∈ Tn+ (K). On a équivalence entre :
(i) A est inversible ;
(ii) les coefficients diagonaux de A sont tous non nuls.
De plus, si tel est le cas, A−1 ∈ Tn+ (K).
dém. :
(ii) ⇒ (i) Supposons les coefficients diagonaux de A non nuls.
Soient X ∈ Mn,1 (K) et Y = AX ∈ Mn,1 (K).
On peut facilement inverser le système correspondant à l’équation Y = AX car celui-ci est triangulaire
et car les coefficients diagonaux de A sont non nuls. On en déduit que A est inversible.
(i) ⇒ (ii) Supposons A inversible. Commençons par montrer que A−1 ∈ Tn+ (K) en considérant l’application
ϕ : Tn+ (K) → Tn+ (K) définie par ϕ(M ) = AM . On vérifie aisément que ϕ est un endomorphisme de
Tn+ (K). Pour M ∈ ker ϕ, on a M = A−1 AM = A−1 ϕ(M ) = On donc ker ϕ = {On }. L’endomorphisme
ϕ est injectif, or dim Tn+ (K) < +∞ donc ϕ est un automorphisme. Par surjectivité, il existe B ∈ Tn+ (K)
vérifiant ϕ(B) = In et alors B = (A−1 A)B = A−1 (AB) = A−1 . Ainsi l’inverse de A est une matrice
triangulaire supérieure.
Notons bi,i les coefficients diagonaux de A−1 .
Puisque AA−1 = In , on a, par étude de la diagonale du produit de matrices triangulaires ai,i bi,i = 1
pour tout 1 6 i 6 n. On en déduit ai,i 6= 0 pour tout 1 6 i 6 n.
Remarque Les résultats qui précèdent se transposent aux matrices triangulaires inférieures.
10.1.8 Transposition
10.1.8.1 Définition
Définition
On appelle matrice transposée de A = (ai,j ) ∈ Mn,p (K) la matrice t A = (a0j,i ) ∈ Mp,n (K)
définie par
∀1 6 i 6 n, ∀1 6 j 6 p, a0j,i = ai,j
Ainsi le coefficient d’indice (j, i) de t A est égal au coefficient d’indice (i, j) de A.
Remarque La transposée d’une matrice de type (n, p) et une matrice de type (p, n).
Exemple Pour
1 2
A= 3 4
5 6
on a
t 1 3 5
A=
2 4 6
Exemple Pour
x1
X = ...
xn
on a
t
X= x1 ... xn
Remarque Pour A = (ai,j )i,j ∈ Mn,p (K) on a t A = (ai,j )j,i ∈ Mp,n (K).
La transposition correspond à l’inversion du rôle joué par les indices de lignes et de colonnes.
Proposition
∀A ∈ Mn,p (K), t (t A) = A.
dém. :
Soit A = (ai,j ) ∈ Mn,p (K).
t
A = (a0j,i ) ∈ Mn,p (K) avec a0j,i = ai,j et t (t A) = (a00i,j ) ∈ Mn,p (K) avec a00i,j = a0j,i .
Puisque a00i,j = a0j,i = ai,j pour tous indices i et j, on obtient t (t A) = A.
Proposition
∀A, B ∈ Mn,p (K), ∀λ, µ ∈ K, t (λA + µB) = λt A + µt B.
dém. :
Soient λ, µ ∈ K, A = (ai,j ), B = (bi,j ) ∈ Mn,p (K) et C = λA + µB = (ci,j )
t
A = (a0j,i ) ∈ Mn,p (K) avec a0j,i = ai,j , t B = (b0j,i ) ∈ Mn,p (K) avec b0j,i = bi,j et t C = (c0j,i ) ∈
Mn,p (K) avec c0j,i = ci,j .
Puisque c0j,i = ci,j = λai,j + µbi,j = λa0j,i + µb0j,i pour tous indices i et j, on a t C = λt A + µt B.
Remarque L’application T : Mn,p (K) → Mp,n (K) définie par T (M ) = t M est un isomorphisme de
K-espace vectoriel.
Proposition
∀A ∈ Mn,p (K), ∀B ∈ Mp,q (K), t (AB) = t B t A.
On dit que la transposition est inversive pour le produit matriciel.
dém. :
Soient A = (ai,j ) ∈ Mn,p (K) et B = (bj,k ) ∈ Mp,q (K)
On obverse que les produits matriciels proposés dans la relation t (AB) = t B t A sont possibles.
X n
Posons C = AB = (ci,k ) ∈ Mn,q (K) avec ci,k = ai,j bj,k .
k=1
Posons encore t A = (a0j,i ) ∈ Mp,n (K) avec a0j,i = ai,j , t B = (b0k,j ) ∈ Mq,p (K) avec b0k,j = bj,k ,
t
C = (c0k,i ) ∈ Mq,n (K) avec c0k,i = ci,k .
Considérons D = t B t A = (dk,i ) ∈ Mq,n (K).
Xp p
X
On a dk,i = b0k,j a0j,i = ai,j bj,k = ci,k = c0k,i pour tous indices i et k donc t (AB) = t B t A
j=1 j=1
Proposition
Si A ∈ Mn (K) est inversible alors t A l’est aussi et (t A)−1 = t (A−1 ).
dém. :
Si A est inversible alors on peut introduire son inverse A−1 .
Puisque AA−1 = In on a t (AA−1 ) = t In c’est-à-dire t (A−1 )t A = In .
Par le théorème d’inversibilité, on peut affirmer que t A est inversible et t (A−1 ) est son inverse.
Définition
On dit qu’une matrice A ∈ Mn (K) est symétrique si t A = A.
On dit que la matrice A est antisymétrique si t A = −A.
On note Sn (K) et An (K) les ensembles formés des matrices symétriques et antisymétrique de
Mn (K).
Exemple
1 2 3 0 1 2
2 4 5 ∈ S3 (R) et −1 0 3 ∈ A3 (R)
3 5 6 −2 −3 0
Proposition
Les matrices symétriques de Mn (K) sont celles de la forme
a11 a12 ... a1n
. .. ..
a12 a22 .
A= .
.. . .. . ..
an−1,n
a1n ... an−1,n an,n
n(n + 1)
Par suite Sn (K) est un sous-espace vectoriel de Mn (K) de dimension .
2
dém. :
Soit A = (ai,j ) ∈ Mn (K).
La matrice A est symétrique si, et seulement si, ∀1 6 i, j 6 n, ai,j = aj,i .
Les matrices symétriques sont donc celles de la forme proposées.
En introduisant les matrices élémentaires de Mn (K), on peut écrire
Sn (K) = Vect {Ei,i /1 6 i 6 n} ∪ {Ei,j + Ej,i /1 6 i < j 6 n}
On en déduit que Sn (K) est un sous-espace vectoriel de Mn (K) et puisqu’il est facile d’établir que la
famille formée des Ei,i pour 1 6 i 6 n et des Ei,j + Ej,i pour 1 6 i < j 6 n est libre, c’est une base de
Sn (K) ce qui permet d’en calculer la dimension.
Proposition
Les matrices antisymétriques de Mn (K) sont celles de la forme
0 a12 ... a1n
.. ..
−a12 0 . .
A= .
.. .. ..
. . an−1,n
−a1n . . . −an−1,n 0
n(n − 1)
Par suite An (K) est un sous-espace vectoriel de Mn (K) de dimension .
2
dém. :
On adapte la preuve précédente et on obtient
An (K) = Vect {Ei,j − Ej,i /1 6 i < j 6 n}
Théorème
Les espaces Sn (K) et An (K) sont supplémentaires dans Mn (K).
dém. :
Soit A ∈ Sn (K) ∩ An (K).
On a t A = A et t A = −A donc A = On . Ainsi Sn (K) ∩ An (K) = {On }.
Soit M ∈ Mn (K).
On peut écrire
1 1
M + tM + M − tM
M=
2 2
avec
1 1
M + t M ∈ Sn (K) et M − t M ∈ An (K)
2 2
donc Sn (K) + An (K) = Mn (K).
αn
Remarque Puisque les composantes d’un vecteur dépendent de la base choisie, il est nécessaire de
préciser celle-ci.
Théorème
L’application MB : x 7→ MatB x est un isomorphisme du K-espace vectoriel E vers Mn,1 (K).
dém. :
L’application MB est linéaire car l’application qui à un vecteur associe l’une des ses composantes dans B
est linéaire.
L’application MB est bijective car pour toute colonne X de coefficients α1 , . . . , αn , il existe un unique
vecteur dans les composantes dans B sont α1 , . . . , αn à savoir le vecteur x = α1 e1 + · · · + αn en .
Définition
On appelle matrice des composantes dans la base B de la famille F, la matrice de Mn,p (K)
dont les colonnes sont les colonnes C1 , C2 , . . . , Cp des composantes dans B des vecteurs
x1 , . . . , xp . On note
Remarque Dans le cas p = 1, on retrouve la notion de matrice des composantes d’un vecteur.
0 0 0 1
Remarque La matrice représentative de u dépend du choix des bases B et C, il est donc nécessaire de
préciser celles-ci.
MatB,C = 1 b b2 b3
1 c c2 c3
Pour former la matrice voulue, on détermine les composantes des précédents vecteurs dans la base C (et
non celles dans la base canonique).
dém. :
Unicité : Soient A et A0 deux matrices solutions.
Pour tout vecteur x de E, on a Y = AX = AX 0 .
On en déduit que pour toute colonne X, AX = A0 X.
On en déduit A = A0 en vertu du lemme d’identification matricielle.
Convenance :
Posons A = (ai,j ) = MatB,C u.
Notons x1 , . . . , xp les composantes de x dans B.
X p Xp
x= xj ej donc u(x) = xj u(ej )
j=1 j=1
Puisque les colonnes de A sont formées des composantes des vecteurs u(e1 ), . . . , u(ep ) on a pour tout
Xn
1 6 j 6 p, u(ej ) = ai,j fi .
i=1
On en déduit
p X
X n
u(x) = ai,j xj fi
j=1 i=1
n
X
Notons y1 , . . . , yn les composantes de y dans C, y = yi fi
i=1
Par identification des composantes, on a
p
X
y = u(x) ⇔ ∀i ∈ {1, . . . , n} , yi = ai,j xj
j=1
Parallèlement
x1 y1 a1,1 x1 + · · · + a1,p xp
. . ..
.. , Y = .. et AX =
X= .
xn yn an,1 x1 + · · · + an,p xp
donc
p
X
Y = AX ⇔ ∀i ∈ {1, . . . , n} , yi = ai,j xj
j=1
Ainsi
y = u(x) ⇔ Y = AX
Exemple Soit E un R-espace vectoriel muni d’une base B = (e1 , e2 , e3 ).
Soit u un endomorphisme de E dont la matrice dans B est
1 1 2
MatB u = 1 −1 0 = A
1 0 1
x1 + x3
Ainsi
ker u = {x1 (e1 + e2 − e3 )/x1 ∈ K} = Vect(e1 + e2 − e3 )
On peut aussi facilement déterminer l’image de u.
En effet par le théorème du rang, on a déjà rgu = dim E − dim ker u = 2. On peut donc déterminer une
base de l’image de u en considérant deux vecteurs non colinéaires de l’image de u. Or les colonnes de A
sont formées des composantes de vecteurs images par u et déterminent donc des éléments de l’image de
u. Il est donc facile de déterminer deux vecteurs non colinéaires dans Imu. Par exemple avec la première
et la deuxième colonne de A, les vecteurs u(e1 ) = e1 + e2 + e3 et u(e2 ) = e1 − e2 forment une base
de Imu.
ϕ(x) = LX = a1 x1 + · · · + an xn
Corollaire
Si E et F sont deux K-espaces vectoriels de dimensions finies alors l’espace L(E, F ) est un
K-espace vectoriel de dimension finie et dim L(E, F ) = dim E × dim F .
En particulier, dim L(E) = (dim E)2 et dim E ? = dim E.
dém. :
Par isomorphisme, dim L(E, F ) = dim Mn,p (K) = np avec p = dim E et n = dim F .
Remarque Par l’isomorphisme de représentation matricielle, introduire une application linéaire u de E
vers F équivaut à introduire sa représentation matricielle relative à des bases données de E et F . C’est
très souvent ainsi que sont introduit des applications linéaires en dimension finie.
et
m
MatB (um ) = [MatB u]
pour tout m ∈ N.
dém. :
MB (IdE ) = In , MB (u − v) = MB (u) − MB (v) et par ce qui précède MB (u ◦ v) = MB (u)MB (v).
Exemple Si A est la matrice de u ∈ L(E) dans une certaine base de E alors
On en déduit que l’application linéaire u est un isomorphisme et l’on connaît son isomorphisme
inversible par le biais d’une représentation matricielle. Cet isomorphisme inverse résout un problème
d’interpolation, à savoir déterminer un polynôme P ∈ R2 [X] prenant des valeurs donnée en 0, 1, 2.
Par exemple le polynôme P ∈ R2 [X] vérifiant P (0) = 1, P (1) = 0 et P (2) = 2 a pour composante
dans B
1 0 0 1 1
−3/2 2 −1/2 0 = −5/2
1/2 −1 1/2 2 3/2
C’est le polynôme
5 3
P (X) = 1 − X + X 2
2 2
Corollaire
Soit E un K-espace vectoriel muni d’une base B = (e1 , . . . , en ).
Pour u ∈ L(E) on a
u ∈ GL(E) ⇔ MatB u ∈ GLn (K)
De plus, si tel est le cas :
−1
MatB (u−1 ) = [MatB u]
Remarque On peut montrer que les homothéties vectorielles sont les endomorphismes ayant la même
matrice dans toute base.
dém. :
Notons e1 , . . . , en les vecteurs constituant la base B.
Puisque la base B est adaptée à la supplémentarité de F et G, on a e1 , . . . , er ∈ F et er+1 , . . . , en ∈ G.
On en déduit
∀i ∈ {1, . . . , r} , p(ei ) = ei
et
∀i ∈ {r + 1, . . . , n} , p(ei ) = 0
d’où la représentation matricielle annoncée.
Théorème
La matrice de la symétrie s par rapport à F et parallèlement à G dans une base B adaptée à la
supplémentarité de F et G est
Ir 0
MatB s =
0 −In−r
dém. :
En reprenant les notations de la preuve précédente, on a
∀i ∈ {1, . . . , r} , s(ei ) = ei
et
∀i ∈ {r + 1, . . . , n} , s(ei ) = −ei
Remarque Ces représentations matricielles sont simples car relatives à une base adaptée au problème
étudié.
Dans une base quelconque, la matrice d’une projection est plus compliquée. . .
en les inconnues y1 , y2 , y3 et λ.
Au terme de cette résolution, on obtient les expressions de x0 , y 0 , z 0 en fonction de x, y, z
y1 = −x2 − x3
y2 = −x1 − x3
y3 = x1 + x2 + 2x3
Soit f un endomorphisme d’un K-espace vectoriel E connu par sa représentation matricielle A relative à
une certaine base B de E.
Si A2 = A alors f 2 = f et on sait :
- F = Imf et G = ker f sont supplémentaires ;
- f est la projection vectorielle sur F parallèlement à G.
Si A2 = I alors f 2 = Id et on sait :
- F = ker(f − Id) et G = ker(f + Id) sont supplémentaires ;
- f est la symétrie vectorielle par rapport à F et parallèlement à G.
Exemple Soient E un R-espace vectoriel muni d’une base B = (e1 , e2 , e3 ) et f l’endomorphisme de E
dont la matrice dans B est
0 1 1
A = −1 2 1
1 −1 0
On vérifie par le calcul A2 = A et on en déduit que f est une projection, plus précisément, c’est la
projection sur Imf et parallèlement à ker f .
Pour déterminer ker f , on résout l’équation matricielle AX = O3,1 i.e. le système
x2 + x3 = 0
−x1 + 2x2 + x3 = 0
x1 − x2 = 0
On vérifie par le calcul A2 = I3 et on en déduit que f est une symétrie, plus précisément, c’est la
symétrie par rapport à ker(f − Id) et parallèlement à ker(f + Id).
Pour déterminer ker(f − Id), on résout l’équation matricielle (A − I3 )X = O3,1 , pour déterminer
ker(f + Id), c’est l’équation (A + I3 )X = O3,1 que l’on résout.
Au terme des calculs, on obtient que f est la symétrie par rapport à la droite D = Vect(e1 + e2 − e3 ) et
parallèlement au plan P : x + y + z = 0.
On vérifie aisément que B 0 est une base de E, par exemple en observant que cette une famille libre de
trois vecteurs en dimension 3.
Formons la matrice de f dans cette base B 0 .
Pour cela nous calculons les composantes dans B 0 desvecteurs
f (ε1 ), f (ε2 ), f (ε3 ).
1
f (ε1 ) se déduit du calcul matriciel AX1 avec X1 = 1 la colonne des composantes de ε1 dans B.
1
On obtient f (ε1 ) = −e1 − e2 − e3 = −ε1 .
De même, on obtient
Montrons qu’il existe une base B 0 = (ε1 , ε2 , ε3 ) de E telle que la matrice de f dans B 0 soit la matrice
diagonale
1 0 0
0 −1 0
0 0 3
Analyse : Supposons qu’une telle base existe.
On a f (ε1 ) = ε1 , f (ε2 ) = −ε2 , f (ε3 ) = 3ε3 .
Cherchons de tels vecteurs. . . .
Pour déterminer un vecteur ε1 convenable, on cherche les vecteurs x = x1 e1 + x2 e2 + x3 e3 vérifiant
f (x) = x.
Par l’étude qui précède, on peut déjà affirmer que f (ε1 ) = ε1 , f (ε2 ) = −ε2 et f (ε3 ) = 3ε3 . Vérifions
maintenant que la famille B 0 est libre.
Supposons λ1 ε1 + λ2 ε2 + λ3 ε3 = 0.
On a (λ1 + 2λ3 )e1 + (−λ1 + λ2 − 2λ3 )e2 + (λ1 − λ2 + λ3 )e3 = 0.
Puisque la famille (e1 , e2 , e3 ) est libre, on obtient le système
λ1 + 2λ3 = 0
−λ1 + λ2 − 2λ3 = 0
λ1 − λ2 + λ3 = 0
Remarque La représentation d’un endomorphisme par une matrice diagonale n’est pas toujours
possible et, quand elle a lieu, celle-ci se fait avec des coefficients diagonaux bien précis. Cette
problématique sera soulevée et résolue dans le cours de seconde année.
Définition
On appelle matrice de passage de la base B à la base B 0 la matrice
P = MatB (B 0 ) = MatB (e01 , . . . , e0n ).
Proposition
Si P est la matrice de passage de la base B à la base B 0 alors P = MatB0 ,B (IdE ).
dém. :
Par définition
MatB0 ,B (IdE ) = MatB (IdE (B 0 )) = MatB (e01 , . . . , e0n ) = P
Attention : Ici la matrice de l’endomorphisme IdE n’est pas la matrice de l’identité car la
représentation matricielle de l’identité est formée en choisissant une base à l’arrivée qui n’est pas a
priori la même que la base au départ.
Proposition
Si P est la matrice de passage de la base B à la base B 0 alors P est inversible et son inverse
P −1 est la matrice de passage de B 0 à B.
dém. :
Notons Q = MatB0 B la matrice de passage de B 0 à B.
On a P = MatB,B0 (IdE ) et Q = MatB,B0 (IdE ) donc P Q = MatB,B (IdE ◦ IdE ) = MatB (IdE ) = In
En vertu du théorème d’inversibilité, P est inversible et Q est son inverse.
Remarque Cette méthode est la méthode usuelle pour inverser une matrice de passage.
Corollaire
On a aussi X 0 = P −1 X
A0 = Q−1 AP
y = u(x) ⇔ Y = AX ⇔ QY 0 = AP X 0 ⇔ Y 0 = Q−1 AP X 0
y = u(x) ⇔ Y 0 = A0 X 0
et donc
A0 = Q−1 AP
Remarque On « retient »A0 = MatB 0 ,C 0 (u) = MatC 0 C.MatB,C (u).MatB B 0 .
Exemple Soit
2 1 1
A = −3 −2 −1
3 5 4
Nous allons calculer les puissances An pour tout n ∈ N en procédant à une transformation de la
matrice A.
Soient E un R-espace vectoriel muni d’une base B = (e1 , e2 , e3 ) et f l’endomorphisme de E déterminé
par
2 1 1
MatB (f ) = −3 −2 −1 = A
3 5 4
Considérons la base B 0 = (ε1 , ε2 , ε3 ) définie par
0
e1 = −e2 + e3
e02 = e1 − e2 + e3
0
e3 = −e1 + e2 − 2e3
On vérifie aisément que la famille B 0 est libre est c’est donc une base de E.
On forme la matrice D de f dans la base B 0 en calculant f (e01 ), f (e02 ) et f (e03 ).
En procédant au calcul matriciel Y = AX, on obtient f (e01 ) = −e01 , f (e02 ) = 2e02 et f (e03 ) = 3e03 .
On en déduit D = MatB0 f = diag(−1, 2, 3)
Par formule de changement de base, on a A = P DP −1 avec P la matrice de passage de B à B 0 .
0 1 −1
P = −1 −1 1
1 1 −2
En exprimant les vecteurs de B en fonction de ceux de B 0 , on obtient
0 0
e1 = −e1 + e2
e2 = −e1 − e02 − e03
0
e3 = −e02 − e03
An = (P DP −1 )n = (P DP −1 )(P DP −1 ) . . . (P DP −1 ) = P Dn P −1
avec
Dn = diag ((−1)n , 2n , 3n )
Au terme des calculs, on obtient
0 0 0 1 −1 −1 0 1 1
An = (−1)n 1 1 0 + 2n −1 1 1 + 3n 0 −1 −1
−1 −1 0 1 −1 −1 0 2 2
Définition
n
X
On appelle trace d’une matrice carrée A = (ai,j ) ∈ Mn (K) le scalaire tr(A) = ai,i .
i=1
Proposition
L’application tr : Mn (K) → K est une forme linéaire.
dém. :
On vérifie immédiatement que tr(λA + µB) = λtrA + µtrB.
Théorème
∀A ∈ Mn,p (K), ∀B ∈ Mp,n (K), tr(AB) = tr(BA).
dém. :
Introduisons les coefficients des matrices A et B : A = (ai,j ) ∈ Mn,p (K) et B = (bj,i ) ∈ Mp,n (K).
Les matrices AB et BA sont carrées donc on peut calculer leur trace et on a
n
X p
n X
X
tr(AB) = [AB]i,i = ai,j bj,i
i=1 i=1 j=1
et
p
X p X
X n
tr(BA) = [BA]j,j = bj,i ai,j
j=1 j=1 i=1
Par suite, la trace de la matrice représentative de l’endomorphisme f est indépendante de la base choisie.
Définition
Cette quantité est appelée trace de l’endomorphisme f et est notée trf .
Exemple tr(IdE ) = n
Théorème
La trace définit une forme linéaire sur L(E) vérifiant
10.5.1 Définition
Soit A = (ai,j ) ∈ Mn,p (K) de colonnes C1 , C2 , . . . , Cp .
Les Cj sont des vecteurs du K-espace vectoriel Mn,1 (K), on peut donc considérer le rang de la famille
de vecteurs (C1 , C2 , . . . , Cp ).
Définition
On appelle rang d’une matrice A ∈ Mn,p (K) le rang de la famille (C1 , C2 , . . . , Cp ) des
colonnes de A. On note
rgA = rg(C1 , C2 , . . . , Cp )
Théorème
Si F = (x1 , x2 , . . . , xp ) une famille de vecteurs de d’un K-espace vectoriel E et si A est la
matrice de la famille F dans une certaine base B de E alors
rgA = rg(x1 , x2 , . . . , xp )
dém. :
Soit ϕ : E → Mn,1 (K) définie par ϕ(x) = MatB (x).
ϕ est un isomorphisme de K-espace vectoriel.
Puisque les colonnes de A sont les Cj = ϕ(xj ), on a
Ainsi
rg(A) = rg(x1 , x2 , . . . , xp )
Théorème
Si u est une application d’un K-espace vectoriel E vers un K-espace vectoriel F et si A est la
matrice de u relative à des bases B et C de E et F alors
rgA = rgu.
dém. :
Si l’on note e1 , . . . , ep les vecteurs constituant la base B alors A est la matrice de la famille (u(e1 ), . . . , u(ep ))
dans la base C et par suite rgA = rg(u(e1 ), . . . , rg(u(ep )) = rgu.
10.5.2 Propriétés du rang d’une matrice
Soient A ∈ Mn,p (K) et u ∈ L(Kp , Kn ) l’application linéaire canoniquement associée à la matrice A
c’est-à-dire l’application linéaire représentée par la matrice A relativement aux base canoniques de Kp
et Kn .
Puisque rgA = rgu, les propriétés relatives au rang d’applications linéaires se transposent aux matrices.
Proposition
∀A ∈ Mn,p (K), rg(A) 6 min(n, p).
dém. :
Car rgu 6 min(dim E, dim F ) pour u ∈ L(E, F ).
Proposition
∀A ∈ Mn,p (K), ∀B ∈ Mp,q (K), rg(AB) 6 min(rg(A), rg(B)).
De plus :
Si A est une matrice carrée inversible alors rg(AB) = rg(B)
Si B est une matrice carrée inversible alors rg(AB) = rg(A).
dém. :
Car rg(u ◦ v) 6 min(rgu, rgv).
De plus rg(u ◦ v) = rgu si v surjective et rg(u ◦ v) = rgv si u injective.
Remarque On ne modifie par le rang d’une matrice en multipliant celle-ci par une matrice inversible.
Théorème
Soit A ∈ Mn (K). On a équivalence entre :
(i) A est inversible ;
(ii) rg(A) = n.
dém. :
A est inversible si, et seulement si, u est automorphisme de Kn i.e. si, et seulement si, rgu = n
Précisément, les coefficients de Jr ∈ Mn,p (K) sont nuls sauf le coefficient d’indice (i, i) est égal à 1
pour i ∈ {1, . . . , r}.
Exemple Si r = 0 alors Jr = On,p .
Si r = n 6 p alors
1 0
Jr =
.. 0
.
0 1
Si r = p 6 n alors
1 0
..
Jr =
.
0 1
0
Si r = p = n alors Jr = Ir .
Proposition
rg(Jr ) = r.
dém. :
Si B = (e1 , . . . , en ) désigne la base canonique de Kn alors la matrice Jr peut se voir comme la matrice
dans B de la famille (e1 , . . . , er , 0, . . . , 0) formée de p vecteurs. Cette dernière est de rang r car la sous-
famille (e1 , . . . , er ) est libre et donc rgJr = r.
Théorème
Soient A ∈ Mn,p (K) et r ∈ N tel que 0 6 r 6 min(n, p).
On a équivalence entre :
(i) rg(A) = r ;
(ii) ∃P ∈ GLp (K), ∃Q ∈ GLn (K), A = QJr P .
dém. :
(ii) ⇒ (i) : C’est immédiat car rgJr = r et on sait qu’on ne modifie pas le rang en multipliant par une
matrice inversible.
(i) ⇒ (ii) Soient E et F deux K-espaces vectoriels de dimensions p et n munis de bases B et C et u ∈
L(E, F ) l’application linéaire déterminée par MatB,C u = A. Puisque r = rgA = rgu, on a dim ker u =
p − r en vertu de la formule du rang.
Soit H un supplémentaire de ker u dans E et B 0 = (e01 , . . . , e0r , e0r+1 , . . . , e0p ) une base adaptée à la
supplémentarité de H et ker u dans E..
Posons f10 = u(e01 ), . . . , fr0 = u(e0r ).
Supposons λ1 f10 + · · · + λr fr0 = 0.
On a u(λ1 e01 + · · · + λr e0r ) = 0 donc λ1 e01 + · · · + λr e0r ∈ ker u.
Or λ1 e01 + · · · + λr e0r ∈ H et ker u ∩ H = {0} donc λ1 e01 + · · · + λr e0r = 0.
Puisque la famille (e01 , . . . , e0r ) est libre, on obtient λ1 = . . . = λr = 0.
Ainsi la famille (f10 , . . . , fr0 ) est libre. Complétons-la en une base de F de la forme C 0 = (f10 , . . . , fn0 ).
Par construction, la matrice de u relative aux bases B 0 et C 0 est la matrice Jr et par formule de changement
de base, on obtient A = QJr P avec P = MatB B 0 ∈ GLp (K) et Q = MatC 0 C ∈ GLn (K).
Corollaire
∀A ∈ Mn,p (K), rg(t A) = rgA.
dém. :
Soit A ∈ Mn,p (K). On peut écrire A = QJr P avec P, Q inversibles et r = rgA.
On a alors t A = t P t Jr t Q avec t P, t Q inversibles donc rgt A = rgt Jr = r puisque la matrice t Jr est
analogue à la matrice Jr sauf qu’elle est de type (p, n) au lieu d’être de type (n, p).
PropSoit A ∈ Mn,p (K) dont on note C1 , . . . , Cp les colonnes et L1 , . . . , Ln les lignes.
On a rg(A) = rg(C1 , . . . , Cp ) = rg(L1 , . . . , Ln ).
dém. :
Par définition, on a rg(A) = rg(C1 , . . . , Cp )
Les lignes L1 , . . . , Ln sont des vecteurs de l’espace M1,p (K).
Notons B = (E1 , . . . , Ep ) la base canonique
de l’espace M1,p (K).
Si L est une ligne α1 . . . αp de M1,p (K) alors la colonne des composantes de L dans B est
α1
MatB (L) = ... =t L
αp
Par suite la matrice représentative de la famille de vecteurs (L1 , . . . , Ln ) dans la base B est
MatB (L1 , . . . , Ln ) = t A
Proposition
Les matrices de Mn (K) suivantes sont inversibles :
1) C = In + λEi,j avec λ ∈ K et 1 6 i 6= j 6 n ;
2) D = In − Ei,i + λEi,i avec λ ∈ K? et 1 6 i 6 n ;
3) E = In − Ei,i − Ej,j + Ei,j + Ej,i avec 1 6 i 6= j 6 n.
dém. :
1) La matrice C est triangulaire supérieure si i < j et triangulaire inférieure si i > j. Dans les deux cas,
ses coefficients diagonaux sont tous non nuls car égaux à 1, cette matrice est donc inversible.
2) La matrice D est diagonale et ses coefficients diagonaux sont non nuls car valent 1 ou λ. La matrice D
est donc inversible.
3) La matrice E vérifie E 2 = In , elle est donc inversible et son inverse lui est égale.
10.5.4.2 Opérations élémentaires sur les lignes
Soit A = (ai,j ) ∈ Mn,p (K).
Pour Ei,j la matrice élémentaire d’indice (i, j) de Mn (K), on a
0 0
Ei,j A = aj,1 · · · aj,p = Lj
0 0
Proposition
Ces manipulations conservent le rang de A.
dém. :
Ces manipulations correspondent à des multiplications par des matrices inversibles et multiplier par une
matrice inversible conserve le rang.
10.5.4.3 Opérations élémentaires sur les colonnes
Soit A = (ai,j ) ∈ Mn,p (K).
Proposition
Ces manipulation conservent le rang de A.
et
λ1 a1,1 ··· λn a1,n
AD = .. ..
= (λj ai,j )
. .
λ1 an,1 ··· λn an,n
On recommence ce processus avec la matrice B tant que la matrice obtenue est non nulle. A terme, on
obtient :
p1 ?
.. ?
. avec p1 , . . . , pr 6= 0
0 pr
On−r,p−r
On peut alors conclure que la matrice A est de rang r.
En effet, en suivant le principe qui précédent, on peut, en opérant sur les colonnes transformer A en
p1 0 1 0
.. 0
.. 0
. puis en
. = Jr
0 pr 0 1
0 On−r,p−r 0 On−r,p−r
De manière symétrique, mais en opérant essentiellement sur les colonnes, on peut aussi transformer la
matrice A en
p1 0
.. 0
.
? pr
? On−r,p−r
On a
1 2 1 1 2 1 1 2 1
rg 1 3 2 = rg 0 1 1 = rg 0 1 1 =2
1 1 0 0 −1 −1 0 0 0
Exemple Via
L2 ← L2 + L1
L1 ← L1 + L2
la matrice
1 0
0 1
devient
2 1 1 1
et non !
1 1 1 1
On a
1 1 2 1 1 2 1 1 2
rgf = rg 0 2 1 = rg 0 2 1 = rg 0 2 1 =3
2 1 −1 0 −1 −5 0 0 −9/2
Exemple Soient a, b, c ∈ R.
On considère les vecteurs de R3 suivant u = (1, a, a2 ), v = (1, b, b2 ) et w = (1, c, c2 ).
A quelle condition la famille (u, v, w) forme-t-elle une base de R3 ?
1 1 1 1 1 1 1 1 1
rg(u, v, w) = rg a b c = rg 0 b − a c − a = rg 0 b − a c−a
a2 b2 c2 0 b2 − a2 c2 − a2 0 0 x
avec x = (1 − λ2 ) + (1 + λ) = (1 + λ)(2 − λ)
On en déduit rg(f − λId) < 3 ⇔ λ = 1 ou 2.
1 1 −1 1 0 0
0 −1 3 −2 0 1
0 0 1 −1 1 0
1 1 −1 1 0 0
0 1 −3 2 0 −1
0 0 1 −1 1 0
1 1 0 0 1 0
0 1 0 −1 3 −1
0 0 1 −1 1 0
1 0 0 1 −2 1
0 1 0 −1 3 −1
0 0 1 −1 1 0
On en déduit que A est inversible et
1 −2 1
A−1 = −1 3 −1
−1 1 0
Remarque On peut aussi transformer A en In , en ne manipulant que les colonnes de A, les opérations
correspondantes transforme alors aussi In en A−1 .
Définition
Σ est appelé système d’équations linéaires à n équations et p inconnues.
On note SΣ ⊂ Kp l’ensemble des solutions du système Σ.
Posons x = (x1 , . . . , xp ) ∈ Kp , b = (b1 , . . . , bn ) ∈ Kn et considérons l’application linéaire
Définition
L’équation u(x) = b est appelée équation vectorielle du système Σ.
Posons A = (ai,j ) ∈ Mn,p (K), B = (bi ) ∈ Mn,1 (K) et X = (xj ) ∈ Mp,1 (K).
Le système Σ équivaut à l’équation AX = B.
Définition
L’équation AX = B est appelée équation matricielle du système Σ.
Définition
On appelle rang du système Σ le naturel rgΣ = rgA = rgu.
10.6.2 Compatibilité d’un système
Définition
On dit que le système Σ est compatible si SΣ 6= ∅.
Exemple Le système (
x+y =0
x+y =1
est visiblement un système incompatible.
Considérons le système
a11 x1 + · · · + a1p xp = b1
Σ : ...
an1 x1 + · · · + anp xp = bn
d’équation matricielle AX = B.
Définition
On note A B la matrice de Mn,p+1 (K) constituée des colonnes de la matrice A suivies
de la colonne B.
Théorème
Le système Σ est compatible si, et seulement si, rg A B = rgA.
dém. :
Notons C1 , . . . , Cp les colonnes de A.
(x1 , . . . , xp ) ∈ SΣ ⇔ x1 C1 + · · · + xp Cp = B
Vect(C1 , . . . , Cp ) ⊂ Vect(C1 , . . . , Cp , B)
Vect(C1 , . . . , Cp ) = Vect(C1 , . . . , Cp , B)
Proposition
L’ensemble solution du système Σ0 est un sous-espace vectoriel de Kp de dimension p − r
avec r = rgΣ.
dém. :
L’ensemble solution du système Σ0 est le noyau de l’application linéaire u et celui-ci est un sous-espace
vectoriel de Kp de dimension p − r avec r = rgu = rgΣ en vertu de la formule du rang.
Théorème
Si le système Σ est compatible alors son ensemble solution SΣ est un sous-espace affine de Kp
de direction SΣ0 .
dém. :
dém. :
Soit x̄ solution particulière du système Σ.
x ∈ SΣ ⇔ u(x) = u(x̄) ⇔ x − x̄ ∈ ker u.
Par suite SΣ est le sous-espace affine donc x̄ + SΣ0 .
Corollaire
Tout système de rang r = p possède au plus une solution.
d’équation matricielle AX = B.
Par la méthode du pivot de Gauss, on peut en opérant sur les lignes et en permutant éventuellement les
colonnes, transformer la matrice A en
p1 ?
.. ?
.
0 pr
0 0
avec p1 , ..., pr 6= 0.
En suivant ce procédé, mais en opérant sur les équations au lieu des lignes et en permutant les inconnues
au lieu des colonnes, on peut transformer Σ en le système équivalent Σ0 suivant :
Définition
Les équations (1)0 , . . . , (r)0 sont appelées équations principales.
Les équations (r + 1)0 , . . . , (n)0 sont appelées équations de compatibilité.
Si l’une des équations de compatibilité est fausse, le système est incompatible.
Ce système triangulaire se résout en cascade et permet d’exprimer les inconnues x01 , . . . , x0r en fonction
des inconnues x0r+1 , . . . , x0p .
Définition
Les inconnues x01 , . . . , x0r sont appelées inconnues principales, c’est en exprimant celles-ci
qu’on achève la résolution du système.
Les inconnues x0r+1 , . . . , x0p sont appelée inconnues paramètres, ce sont elles qui permettent la
description de l’ensemble solution SΣ .
Remarque Cette démarche, appelée méthode du pivot, est une résolution par équivalence du système Σ.
La méthode par substitution en est une variante dans la mise en forme.
Exemple Etudions
x + y − z + t = 1
x + 2y + 2t = 2
−x + 2z + t = 3
x + y − z + t = 1 (1)
y+z+t=1 (2)
t=3 (3) − (2)
x + y + t = 1 + z
y+t=1−z
t=3
x = 2z
y = −2 − z
t=3
S = {(2z, −2 − z, z, 3)/z ∈ K}
Exemple Etudions
x + y + z = 2
x + y + 2z = 3
2x + 2y + z = 3
x + y + z = 2 (1)
z=1 (2)
0=0 (3) − (2)
x = 1 − y
z=1
0=0
Exemple Etudions
x + y + z = 1
x + 2y = a
x + 2z = 0
x + y + z = 1
(1)
y−z =a−1 (2)
0=a−2 (3) + (2)
Si a 6= 2 alors S = ∅.
Si a = 2 alors on obtient (
x = −2z
y =z+1
puis
S = {(−2z, 1 + z, z)/z ∈ R}
Exemple Etudions
x + y + mz = m
x + my − z = 1
x+y−z =1
Si m 6= 1 et m 6= −1 alors
2m m−1
S= ( , 0, )
m+1 m+1
Si m = 1 alors on obtient
x + y + z = 1
−2z = 0
−2z = 0
et on en déduit
S = {(1 − y, y, 0)/y ∈ R}
Si m = −1 alors on obtient
x + y − z = −1
−2y = 2
0=2
donc
S=∅
Remarque La matrice associée à un système de Cramer est une matrice carrée inversible.
Théorème
Un système de Cramer possède une et une seule solution.
dém. :
L’équation matricielle associée à un système de Cramer d’ordre n est de la forme AX = B avec A ∈
GLn (R) et B ∈ Mn,1 (R). Cette équation possède une unique solution X = A−1 B.
Remarque La méthode du pivot s’applique aux systèmes de Cramer et permet de déterminer l’unique
solution. Cependant, si on sait préalablement que le système étudié est de Cramer, on peut le résoudre
plus efficacement :
- en déterminant une solution évidente ;
- ou en déterminant sa solution par des combinaisons judicieuses d’équations.
La matrice
cos θ sin θ
− sin θ cos θ
est inversible d’inverse
cos θ − sin θ
sin θ cos θ
cos θ × (1) − sin θ × (2) donne x = cos θ cos ϕ − sin θ sin ϕ = cos(θ + ϕ).
sin θ × (1) + cos θ × (2) donne y = sin θ cos ϕ + cos θ sin ϕ = sin(θ + ϕ).
L’unique solution de ce système est donc (cos(θ + ϕ), sin(θ + ϕ)).
Déterminants
Le déterminant est un outil qui caractérise, par un calcul, l’inversibilité d’une matrice carrée.
K désigne R ou C.
n et p désignent des naturels non nuls.
11.1 Applications multilinéaires
Soient E et F deux K-espaces vectoriels.
11.1.1 Définition
Définition
On appelle application n-linéaire de E vers F toute application
(
En → F
ϕ:
(x1 , . . . , xn ) 7→ ϕ(x1 , . . . , xn )
linéaire par rapport à chacune de ses variables. Ceci signifie que pour toute famille
(x1 , . . . , x̂i , . . . , xn ) ∈ E n−1 , il y a linéarité de l’application partielle ϕi : E → F définie
par
ϕi : xi 7→ ϕ(x1 , . . . , xi , . . . , xn )
Quand n = 2, on parle d’application bilinéaire.
Quand F = K, on parle de forme n linéaire.
Exemple Si E désigne l’ensemble des vecteurs du plan (ou de l’espace géométrique), l’application
produit scalaire (~u, ~v ) 7→ ~u · ~v est une forme bilinéaire.
En effet pour tout ~u, ~v , w~ ∈ E et tout λ, µ ∈ R, on a
(λ~u + µ~v ) · w
~ = λ~u · w ~ + µ~v · w~ (linéarité en la première variable) et
~u · (λ~v + µw)~ = λ~u · ~v + µ~u · w ~ (linéarité en la seconde variable).
Exemple Si E désigne l’ensemble des vecteurs de l’espace géométrique, l’application produit vectoriel
(~u, ~v ) 7→ ~u ∧ ~v est bilinéaire.
Exemple Si E désigne l’ensemble des vecteurs de l’espace géométrique, l’application produit mixte
~ 7→ [~u, ~v , w]
(~u, ~v , w) ~ est une forme trilinéaire.
341
11.1. APPLICATIONS MULTILINÉAIRES
Exemple Soient E = K, F = K et n ∈ N? .
L’application ϕ : K × · · · × K → K définie par ϕ(x1 , . . . , xn ) = x1 × · · · × xn est une forme n linéaire.
En effet, pour chaque i ∈ {1, . . . , n}, l’application partielle xi 7→ ϕ(x1 , . . . , xi , . . . , xn ) est linéaire car
de la forme xi 7→ axi .
Remarque Pour n = 1, une application 1-linéaire de E vers F n’est autre qu’application linéaire de E
vers F .
Pour n > 2, les applications n-linéaires de E vers F ne correspondent pas à des applications linéaires.
Proposition
Soit ϕ une application n-linéaire de E vers F et (x1 , . . . , xn ) ∈ E n .
Si l’un des x1 , . . . , xn est nul alors ϕ(x1 , . . . , xn ) = 0F .
dém. :
Soit i ∈ {1, . . . , n} tel que xi = 0E .
Puisque l’application xi 7→ ϕ(x1 , . . . , xi , . . . , xn ) est linéaire, elle s’annule sur le vecteur nul et donc
ϕ(x1 , . . . , 0E , . . . , xn ) = 0F
Définition
On dit qu’une application n-linéaire ϕ de E vers F est symétrique si
Définition
On dit qu’une application n-linéaire ϕ de E vers F est antisymétrique si
Exemple Soient E = K, F = K et n ∈ N? .
L’application ϕ : Kn → K définie par ϕ(x1 , . . . , xn ) = x1 . . . xn est une forme n linéaire symétrique.
En effet par commutativité de la multiplication, on vérifie xσ(1) . . . xσ(n) = x1 . . . xn pour tout σ ∈ Sn .
Proposition
Soit ϕ une application n-linéaire de E vers F .
On a équivalence entre :
(i) ϕ est symétrique (resp. antisymétrique) ;
(ii) ∀(x1 , . . . , xn ) ∈ E n , ∀τ transposition de {1, . . . , n},
ϕ xτ (1) , . . . , xτ (n) = ϕ(x1 , . . . , xn )
(respectivement ϕ xτ (1) , . . . , xτ (n) = −ϕ(x1 , . . . , xn ) )
dém. :
(i) ⇒ (ii) est immédiat car une transposition de {1, . . . , n} est en particulier une permutation de {1, . . . , n}
(ii) ⇒ (i) Supposons ϕ symétrique.
Soit σ ∈ Sn . Puisque toute permutation peut s’écrire comme un produit de transpositions, on peut écrire
σ = τ1 ◦ . . . ◦ τm avec τk transposition de {1, . . . , n}. On a alors pour (x1 , . . . , xn ) ∈ E n ,
ϕ xσ(1) , . . . , xσ(n) = ϕ xτ1 ◦···◦τm (1) , . . . , xτ1 ◦···◦τm (n) = ϕ xτ1 ◦···◦τm−1 (1) , . . . , xτ1 ◦···◦τm−1 (n)
∀(x1 , . . . , xn ) ∈ E n , ∃1 6 i 6= j 6 n, xi = xj ⇒ ϕ(x1 , . . . , xn ) = 0F
Proposition
Soit ϕ une application n-linéaire alternée de E vers F .
Si (x1 , . . . , xn ) est une famille liée de vecteurs de E alors ϕ(x1 , . . . , xn ) = 0F .
dém. :
Si la famille (x1 , . . . , xn ) est alternée alors l’un de ses vecteurs
Xest combinaison linéaire des autres. En
notant i l’indice correspondant à celui-ci, on peut écrire xi = λj xj .
j6=i
Puisque l’application ϕ est linéaire en sa ième variable, on peut écrire
X
ϕ(x1 , . . . , xi , . . . , xn ) = λj ϕ(x1 , . . . , xi−1 , xj , xi+1 , . . . , xn )
j6=i
Or la famille (x1 , . . . , xi−1 , xj , xj+1 , . . . , xn ) comporte deux fois le vecteur xj donc puisque ϕ est
alternée
ϕ(x1 , . . . , xi−1 , xj , xj+1 , . . . , xn ) = 0F
puisque ϕ est alternée et alors
ϕ(x1 , . . . , xi , . . . , xn ) = 0F
Théorème
Soit ϕ une application n-linéaire de E vers F .
On a équivalence entre :
(i) ϕ est antisymétrique ;
(ii) ϕ est alternée.
dém. :
(i) ⇒ (ii) Supposons ϕ antisymétrique.
Considérons (x1 , . . . , xn ) ∈ E n tel qu’il existe i 6= j ∈ {1, . . . , n} vérifiant xi = xj . Pour la permutation
τ = (i, j), on a (xτ (1) , . . . , xτ (n) ) = (x1 , . . . , xn ) car xi = xj . Or ϕ xτ (1) , . . . , xτ (n) = −ϕ(x1 , . . . , xn )
car ϕ est antisymétrique. On en déduit ϕ(x1 , . . . , xn ) = 0F .
Ainsi l’application n-linéaire ϕ est alternée.
(ii) ⇒ (i) Supposons ϕ alternée.
Soit τ = (i, j) (avec i < j ) une transposition de {1, . . . , n}
Puisque la famille
(x1 , . . . , xi−1 , (xi + xj ), xi+1 , . . . , xj−1 , (xi + xj ), xj+1 , . . . , xn )
comporte deux fois le même vecteur on a
ϕ (x1 , . . . , (xi + xj ), . . . , (xi + xj ), . . . , xn ) = 0F
En développant grâce aux linéarités en la ième et en la jème variable, on obtient
ϕ (x1 , . . . , (xi + xj ), . . . , (xi + xj ), . . . , xn )
= ϕ (x1 , . . . , xi , . . . , xj , . . . , xn ) + ϕ (x1 , . . . , xj , . . . , xi , . . . , xn )
car
ϕ (x1 , . . . , xi , . . . , xi , . . . , xn ) = ϕ (x1 , . . . , xj , . . . , xj , . . . , xn ) = 0F
(deux fois le même vecteur).
On obtient ainsi ϕ xτ (1) , . . . , xτ (n) = −ϕ(x1 , . . . , xn ) et donc ϕ est antisymétrique.
Exemple Le produit mixte est une application linéaire antisymétrique car alternée.
11.2 Déterminants
Soit E un K-espace vectoriel de dimension n.
11.2.1 Déterminant d’une famille de vecteurs
11.2.1.1 Définition
Définition
Soient B = (e1 , . . . , en ) une base de E, F = (x1 , . . . , xn ) une famille de vecteurs de E et
X n
Y
det F = det(x1 , . . . , xn ) = ε(σ) aσ(i),i
B B
σ∈Sn i=1
Remarque Si la formule est complexe, elle est néanmoins parfois utile et il est recommandé de la
connaître.
Proposition
Si B = (e1 , . . . , en ) est une base de E alors det B = 1.
B
dém. :
A = MatB B = In = (δi,j ) donc
X n
Y
det(e1 , ..., en ) = ε(σ) δσ(i),i
B
σ∈Sn i=1
Or
n
Y 1 si σ = Id
δσ(i),i =
0 sinon
i=1
Théorème
Soit E un K-espace vectoriel de dimension n muni d’une base B = (e1 , . . . , en ).
L’application det : E n → K est une forme n-linéaire alternée non nulle.
B
De plus, l’ensemble Λ?n (E) des formes n linéaires alternées sur E est une droite vectorielle.
dém. :
Pour alléger ce qui suit nous noterons ∆ = det.
B
On peut déjà affirmer que l’application ∆ est non nulle puisque ∆(B) = 1.
Montrons que l’application ∆ : E n → K est n-linéaire.
Soit 1 6 j 6 n, justifions la linéarité en la jème variable.
Soient α, β ∈ K, (x1 , . . . , x̂j , . . . , xn ) ∈ E n−1 et xj , yj ∈ E vecteurs de matrices composantes dans B
\
a1,1 a1,j a1,n a1,j b1,j
.. . . . .
. , . . . , .. , . . . , .. et .. , ..
an,1 an,j an,n an,j bn,j
On a alors
X
∆(x1 , . . . , αxj + βyj , . . . , xn ) = ε(σ)aσ(1),1 . . . (αaσ(j),j + βbσ(j),j ) . . . aσ(n),n
σ∈Sn
En développant
X
∆(x1 , . . . , αxj + βyj , . . . , xn ) = α ε(σ)aσ(1),1 . . . aσ(j),j . . . aσ(n),n
σ∈Sn
X
+β ε(σ)aσ(1),1 . . . bσ(j),j . . . aσ(n),n
σ∈Sn
et donc
En décomposant la somme
X X
∆(x1 , . . . , xn ) = ε(σ)aσ(1),1 . . . aσ(n),n + ε(σ)aσ(1),1 . . . aσ(n),n
σ∈An σ∈Sn −An
Par la bijectivité de ϕ
X X
∆(x1 , . . . , xn ) = ε(σ)aσ(1),1 . . . aσ(n),n + ε(σ ◦ τ )a(σ◦τ )(1),1 . . . a(σ◦τ )(n),n
σ∈An σ∈An
∆(x1 , . . . , xn ) = 0
Ainsi ∆ est alternée.
Montrons enfin que Λ?n (E) = {λ.∆/λ ∈ K}.
Soient ϕ ∈ Λ?n (E) et (x1 , . . . , xn ) ∈ E n . Notons A = (ai,j ) = MatB (x1 , . . . , xn ).
Par multilinéarité
n
X n
X n
X n
X
ϕ(x1 , . . . , xn ) = ϕ( ai1 ,1 ei1 , . . . , ain ,n ein ) = ... ai1 ,1 . . . ain ,n ϕ(ei1 , . . . , ein )
i1 =1 in =1 i1 =1 in =1
Or ϕ est alternée, donc ϕ(ei1 , . . . , ein ) est nul dès que les i1 , . . . , in ne sont pas deux à deux distincts.
Après simplification des termes correspondants, il ne reste plus que les termes pour lesquels {i1 , . . . , in } =
{1, . . . , n} c’est-à-dire ceux qui correspondent aux applications σ : j 7→ ij bijective. Ainsi
X
ϕ(x1 , . . . , xn ) = aσ(1),1 . . . aσ(n),n ϕ(eσ(1) , . . . , eσ(n) )
σ∈Sn
∀(x1 , . . . , xn ) ∈ E n , det
0
(x1 , . . . , xn ) = det
0
B. det(x1 , . . . , xn )
B B B
dém. :
L’application det
0
est une forme n-linéaire alternée sur E, or l’ensemble de ces formes multilinéaires est
B
une droite vectorielle engendrée par det donc il existe λ ∈ K vérifiant det
0
= λ det i.e.
B B B
n
∀(x1 , . . . , xn ) ∈ E , det
0
(x1 , . . . , xn ) = λ. det(x1 , . . . , xn )
B B
dém. :
Il suffit d’appliquer la relation qui précède à (x1 , . . . , xn ) = (e01 , . . . , e0n ) sachant det
0
B 0 = 1.
B
11.2.1.4 Déterminant et caractérisation des bases
Théorème
Soit E un K-espace vectoriel muni d’une base B = (e1 , . . . , en ).
Soit B 0 = (e01 , . . . , e0n ) une famille de vecteurs de E.
On a équivalence entre :
(i) B 0 est une base de E ;
(ii) det B 0 6= 0.
B
dém. :
(i) ⇒ (ii) Car si B 0 est une base de E alors det
0
B × det B 0 = 1.
B B
(ii) ⇒ (i) Car si B 0 n’est pas une base de E, la famille B 0 est liée et donc det B 0 = 0 car l’application
B
multilinéaire det est alternée.
B
11.2.2 Déterminant d’un endomorphisme
11.2.2.1 Définition
Soient u un endomorphisme de E et B = (e1 , . . . , en ) une base de E. Posons
δ = det(u(e1 ), . . . , u(en ))
B
Théorème
dém. :
Soit ϕ ∈ Λ?n (E). Puisque l’espace Λ?n (E) est une droite vectorielle dirigée par l’application det, il existe
B
un scalaire α ∈ K tel que ϕ = α. det i.e. :
B
et
ϕ(u(e1 ), . . . , u(en )) = α. det(u(e1 ), . . . , u(en )) = αδ
B
On en déduit β = αδ puis
Corollaire
La quantité det(u(e1 ), . . . , u(en )) ne dépend pas du choix de la base B.
B
dém. :
Soit B 0 = (e01 , . . . , e0n ) une base de E.
En appliquant le résultat précédent à ϕ = det 0
et (x1 , . . . , xn ) = (e01 , . . . , e0n ), on obtient
B
det
0
(u(e01 ), . . . , u(e0n )) = δ det
0
(e01 , . . . , e0n ) = δ
B B
Définition
On appelle déterminant de l’endomorphisme u le scalaire det u = det(u(e1 ), . . . , u(en ))
B
où B = (e1 , . . . , en ) désigne une base quelconque de E.
11.2.2.2 Propriétés
Proposition
det(IdE ) = 1.
dém. :
Soit B = (e1 , . . . , en ) une base de E.
Proposition
dém. :
Soit B = (e1 , . . . , en ) une base de E. On a
Or l’application det est n-linéaire alternée donc en exploitant la linéarité en chacune de ses variables
B
det(λ.u) = λn det(u(e1 ), . . . , u(en ))
B
Attention : En général
det(λu + µv) 6= λ det u + µ det v
L’application déterminant n’est pas linéaire. . .
Théorème
dém. :
Soit B = (e1 , . . . , en ) une base de E.
Considérons ϕ : E n → K l’application définie par
L’application ϕ est une forme n-linéaire alternée sur E donc on peut écrire
dém. :
Par simple récurrence.
Théorème
Soit u ∈ L(E). On a équivalence entre :
(i) u est un automorphisme de E ;
(ii) det u 6= 0.
De plus, si tel est le cas,
det u−1 = 1/det u
dém. :
(i) ⇒ (ii) Supposons u ∈ GL(E). On peut introduire l’automorphisme inverser u−1 et on a u◦u−1 = IdE .
On a alors det(u ◦ u−1 ) = det IdE puis det u × det(u−1 ) = 1.
On en déduit det u 6= 0 et det u−1 = 1/det u
Définition
On appelle déterminant d’une matrice carrée A = (ai,j ) ∈ Mn (K) le scalaire :
X n
Y
det A = ε(σ) aσ(i),i
σ∈Sn i=1
On note encore
a11 ... a1n
det A = ... ..
.
an1 ... ann
[n]
Proposition
Soient B = (e1 , . . . , en ) une base de E et (x1 , . . . , xn ) une famille de vecteurs de E.
Si A = MatB (x1 , . . . , xn ) alors det(x1 , . . . , xn ) = det A.
B
dém. :
Les formules définissant det(x1 , . . . , xn ) et det A sont identiques.
B
Proposition
Soient u ∈ L(E) et B = (e1 , . . . , en ) une base de E.
Si A = MatB u alors det u = det A.
dém. :
A = MatB u = MatB (u(e1 ), . . . , u(en )) donc det A = det(u(e1 ), . . . , u(en )) = det u.
B
Remarque Tout problème de calcul de déterminant d’un endomorphisme, ou d’une famille de vecteurs
dans une base, se ramène à un problème de calcul de déterminant d’une matrice carrée.
11.2.3.2 Propriétés
Proposition
det In = 1.
dém. :
det In = det IdE = 1
Proposition
dém. :
Soient B = (e1 , . . . , en ) une base de E et u ∈ L(E) de matrice A dans B. L’endomorphisme λu est alors
représenté par la matrice λA et donc
det(λA) = det(λu) = λn det u = λn det A.
Attention : En général
det(λ.A + µ.B) 6= λ. det A + µ. det B
L’application déterminant n’est pas linéaire.
Théorème
dém. :
Soient B = (e1 , . . . , en ) une base de E et u, v ∈ L(E) de matrices A, B dans B. L’endomorphisme u ◦ v
est alors représenté par la matrice AB et donc
det(AB) = det(u ◦ v) = det u × det v = det A × det B.
Corollaire
dém. :
Par récurrence simple.
Théorème
Soit A ∈ Mn (K).
On a équivalence entre :
(i) A est inversible ;
(ii) det A 6= 0.
De plus, si tel est le cas,
det A−1 = 1/det A
dém. :
Soient B = (e1 , . . . , en ) une base de E et u ∈ L(E) de matrice A dans B. Le résultat énoncé s’obtient
en exploitant le résultat analogue relatif aux endomorphismes sachant que la matrice A est inversible si,
et seulement si, u est un automorphisme de E et qu’alors A−1 est la matrice de u−1 .
Corollaire
L’application det : GLn (K) → K? est un morphisme de groupes.
dém. :
(GLn (K), ×) et (K? , ×) sont deux groupes et det(AB) = det A × det B pour tout A, B ∈ GLn (K).
Définition
Le noyau de ce morphisme de groupes est noté SLn (K), on l’appelle groupe spécial linéaire
d’ordre n.
SLn (K) = {A ∈ Mn (K)/ det A = 1}
Théorème
dém. :
A = (ai,j ), t A = (a0j,i ) avec a0j,i = ai,j .
Par définition
X n
Y X n
Y
det t A = ε(σ) a0σ(j),j = ε(σ) aj,σ(j)
σ∈Sn j=1 σ∈Sn j=1
En procédant au changement d’indice i = σ(j) dans le produit
X n
Y
det t A = ε(σ) aσ−1 (i),i
σ∈Sn i=1
Remarque Pour mettre en place ce dernier calcul, on peut exploiter la règle de Sarrus
- on reproduit les deux premières colonnes de la matrice à sa suite ;
- on somme les produits des coefficients diagonaux obliquant sur la gauche avec un signe moins, sur la
droite avec un signe plus.
Exemple Calculons
1 2 3
D = 4 5 6
7 8 9
Par la règle de Sarrus
D = (1 × 5 × 3 + 2 × 6 × 7 + 3 × 4 × 8) − (3 × 5 × 7 + 1 × 6 × 8 + 2 × 4 × 9) = 0
dém. :
Puisque A est triangulaire supérieure on a ai,j = 0 pour tout (i, j) tel que i > j.
Par définition
X Yn
det A = ε(σ) aσ(i),i
σ∈Sn i=1
n
Y
Soit σ ∈ Sn . S’il existe 1 6 i 6 n tel que σ(i) > i alors aσ(i),i = 0 car le produit contient un facteur
i=1
nul.
Après simplification des termes correspondants dans la somme définissant det A, il ne reste plus dans
celle-ci que les termes associés aux permutations σ vérifiant
∀1 6 i 6 n, σ(i) 6 i
Remarque Par transposition, on peut aussi énoncer que le déterminant d’une matrice triangulaire
inférieure est le produit de ses coefficients diagonaux.
Remarque En particulier le déterminant d’une matrice diagonale est le produit de ses coefficients
diagonaux.
f (P ) = ((X + 1)P )0
Théorème
Soit A ∈ Mn (K) de colonnes C1 , . . . , Cn .
Si l’une des colonnes de A est nulle alors det A = 0.
Si les colonnes de A sont liées alors det A = 0.
Si on permute les colonnes de A selon une permutation σ alors det A est multiplié par ε(σ).
Si on multiplie une colonne de A par un scalaire λ alors det A est multiplié par λ.
Si on scinde une colonne Cj de A en Cj0 + Cj00 alors det A est la somme des deux déterminants
obtenus.
Si on ajoute à une colonne de A une combinaison linéaire des autres colonnes de A, le
déterminant de A est inchangé.
dém. :
Puisque det A = det(C1 , ..., Cn ), A 7→ det A est une application n-linéaire alternée en les colonnes
B
de A.
Corollaire
Par transposition, le théorème ci-dessus se généralise à la manipulation de lignes au lieu de
colonnes.
Par l’opération L2 ↔ L3
5 2 1 1 1 1
10 4 3 = −10 × 0
1 −3 = −10 × 1 × 1 × 1 = −10
15 8 1 0 0 1
Exemple Calculons
1 a+b ab
1 b+c bc
1 c+a ca
Par les opérations L2 ← L2 − L1 et L3 ← L3 − L1
1 a + b ab 1 a+b ab
1 b + c bc = 0
c−a b(c − a)
1 c + a ca 0 c−b a(c − b)
Par l’opération L3 ← L3 − L2
1 a + b ab 1 a+b ab
1 b + c bc = (c − a)(c − b) 0 1 b = (c − a)(c − b)(a − b)
1 c + a ca 0 0 a−b
Exemple Calculons
1 1 1
... 1
1 2 2
... 2
1 2 3
... 3
.. .. ..
.. ..
. . .
. .
1 2 3 ... n
A chaque ligne, retirons la précédente en commençant par la dernière
1 1 1 ... 1
1 2 2 ... 2 1 1
1 2 3 ... 3
= .. =1
.. .. .. . . .. .
. . .
. . 0 1
1 2 3 ... n
Attention : Il faut être attentif à l’ordre des opérations élémentaires, chacune modifiant la matrice sur
laquelle opère l’opération élémentaire suivante. Dans l’exemple précédent, on retirait à chaque ligne la
précédente et ce en commençant de la dernière et absolument dans cet ordre pour obtenir la matrice
proposée..
dém. :
Posons A = (ai,j )16i,j6n+1 ∈ Mn+1 (K) avec ai,j = 0 pour 1 6 i 6 n, j = n + 1 et an+1,n+1 = 1.
Par définition du déterminant
X n+1
Y
det A = ε(σ) aσ(i),i
σ∈Sn+1 i=1
Soit σ ∈ Sn+1 .
n+1
Y
Si σ(n + 1) 6= n + 1 alors aσ(i),i = 0 car le dernier facteur de ce produit est nul.
i=1
n+1
Y n
Y
Si σ(n + 1) = n + 1 alors aσ(i),i = aσ(i),i car le dernier facteur de ce produit vaut 1.
i=1 i=1
Par suite
X n
Y
det A = ε(σ) aσ(i),i
σ∈Sn+1 ,σ(n+1)=n+1 i=1
Or l’application qui prolonge une permutation σ ∈ Sn en posant σ(n + 1) = n + 1 est une bijection de
Sn vers {σ ∈ Sn+1 /σ(n + 1) = n + 1}. De plus cette bijection conserve la signature car elle conserve
le nombre d’inversions. On en déduit
X n
Y
det A = ε(σ) aσ(i),i
σ∈Sn i=1
n
X
det A = ai,j det(C1 , . . . , Cj−1 , Ei , Cj+1 , . . . , Cn )
B
i=1
n
X
soit encore det A = ai,j Ai,j avec
i=1
a1,1
··· 0 ··· a1,n
..
.
Ai,j = 1 où le 1 est en position (i, j).
..
.
an,1 ··· 0 ··· an,n
Finalement
n
X n
X
det A = ai,j Ai,j = (−1)i+j ai,j ∆i,j
i=1 i=1
avec
a1,1
··· a1,n
∆i,j = ... .. .
âi,j .
an,1 ··· an,n
[n−1]
Définition
Cette relation est appelée développement de det A selon la jème colonne.
Le coefficient ∆i,j est appelé mineur d’indice (i, j) de A.
Le coefficient Ai,j = (−1)i+j ∆i,j est appelé cofacteur d’indice (i, j) de A.
Remarque Cette formule transforme le calcul d’un déterminant d’ordre n à celui de n déterminants
d’ordre n − 1.
(−1)n+1
+ − + ···
− + −
+ − + .
.. ..
. .
(−1)n+1 +
Exemple Calculons
1 2 3
∆ = 4 5 6
7 8 9
En développant selon la première colonne
5 6
−4× 2 3
2 3
∆ = 1 × + 7 × = −3 + 24 − 21 = 0
8 9 8 9 5 6
Par transposition, le développement d’un déterminant selon une colonne devient le développement d’un
déterminant selon une ligne. Pour 1 6 i 6 n fixé, on obtient la relation :
n
X n
X
det A = ai,j Ai,j = (−1)i+j ai,j ∆i,j
j=1 j=1
Exemple Calculons
1 2 3
∆ = 4 5 6
7 8 9
En développant selon la troisième ligne
2 3 1 3 1 2
∆=7× − 8 × + 9 × = −21 + 48 − 27 = 0
5 6 4 6 4 5
Puis en développant
−1 1 1 2
∆ = −3 + 3 ×
−1 = 12 + 12 = 24
1 3 2
Exemple Calculons
2 1 (0)
.. ..
1 . .
Dn =
.. ..
. . 1
(0) 1 2 [n]
Dn = 2Dn−1 − Dn−2
Ainsi (Dn ) est une suite récurrente linéaire d’ordre 2 d’équation caractéristique r2 − 2r + 1 = 0 de
racine double 1.
On peut donc écrire
Dn = (λn + µ) × 1n
D1 = 2 et D2 = 3 donne λ = µ = 1 et ainsi Dn = n + 1 pour tout n ∈ N?
Ainsi (Dn ) est une suite récurrente linéaire d’ordre 2 d’équation caractéristique r2 − 2 cos θ.r + 1 = 0
de racines eiθ et e−iθ (distinctes car θ ∈ ]0, π[ )
Pour n = 1, V1 (x1 ) = 1.
Pour n = 2,
1 x1
V2 (x1 , x2 ) = = x2 − x1
1 x2
Pour n = 3. En procédant aux opérations élémentaires C3 ← C3 − x1 C2 et C2 ← C2 − x1 C1 on obtient
1 x1 x21 1
0 0
V3 (x1 , x2 , x3 ) = 1 x2 x22 = 1 x2 − x1 x22 − x1 x2
1 x3 x2 1 x3 − x1 x2 − x1 x3
3 3
et donc
V3 (x1 , x2 , x3 ) = (x2 − x1 )(x3 − x1 )(x3 − x2 ).
Plus généralement, pour n > 2, en procédant aux opérations élémentaires
Cn ← Cn − x1 Cn−1 , . . . , C2 ← C2 − x1 C1
1 x1 x21 · · · xn−1
1
1 x2 x22 · · · xn−1
2
Vn (x1 , ..., xn ) = .
.. .. ..
.. . . .
1 xn x2 · · · xn−1
n n
1 0 0 ··· 0
1 x2 − x1 x22 − x1 x2 · · · xn−1 x1 xn−2
2 − 2
= .
. .
. .
. .
.
. . . .
1 xn − x1 x2 − x1 xn · · · xn−1 − x1 xn−2
n n n
Autrement dit
n
Y
Vn (x1 , . . . , xn ) = (xi − x1 )Vn−1 (x2 , . . . , xn )
i=2
En répétant le processus
n
Y n
Y
Vn (x1 , . . . , xn ) = (xi − x1 ) (xi − x2 )Vn−2 (x3 , . . . , xn )
i=2 i=3
Remarque La matrice sous-jacente est inversible si, et seulement si, les xi sont 2 à 2 distincts.
d’équation matricielle AX = B.
Le système Σ est de Cramer si, et seulement si, det A 6= 0.
De plus, si tel est le cas, son unique solution est le n uplet (x1 , ..., xn ) avec
a1,1 · · · b1 · · · a1,n
.. .. ..
. . .
an,1 · · · bn · · · an,n
∀1 6 j 6 n, xj =
a1,1 · · · a1,n
.. ..
. .
an,1 · · · an,n
dém. :
Le système Σ est de Cramer si, et seulement si, la matrice A inversible i.e. det A 6= 0.
Supposons que tel est le cas. Σ admet une unique solution (x1 , . . . , xn ).
Si on note C1 , . . . , Cn les colonnes de A, on a
n
X
B = x1 C1 + · · · + xn Cn = xi Ci
i=1
Or
det(C1 , . . . , Cj−1 , Ci , Cj+1 , . . . , Cn ) = 0
B
si i 6= j (car deux colonnes égales) et
det(C1 , . . . , Cj−1 , Cj , Cj+1 , . . . , Cn ) = det A
B
donc
det(C1 , . . . , Cj−1 , B, Cj+1 , . . . , Cn ) = xj det A
B
Exemple Considérons le système (
ax + by = c
a0 x + b0 y = c0
Ce système est de Cramer si, et seulement si, ab0 − a0 b 6= 0.
Si tel est le cas, sa solution est
cb0 − c0 b ac0 − a0 c
x= 0 , y =
ab − a0 b ab0 − a0 b
11.4.2 Comatrice
Soit A = (ai,j ) ∈ Mn (K).
Pour 1 6 i, j 6 n, on note Ai,j le cofacteur d’indice (i, j) de la matrice A.
a11 · · · a1n
Ai,j = (−1) ∆i,j = (−1) ...
i+j i+j ..
.
âij .
an1 · · · ann
Définition
On appelle comatrice de A la matrice des cofacteurs de A, on la note
Exemple Pour
a b
A=
c d
on obtient
d −c
comA =
−b a
Exemple Pour
1 2 3
A= 4 5 6
7 8 9
on obtient
−3 6 −3
comA = 6 −12 6
−3 6 −3
Théorème
dém. :
Notons ai,j les coefficients de la matrice A.
comA = (Ai,j ), t (comA) = (A0j,i ) avec A0j,i = Ai,j .
t
(comA) A = (bi,j ) avec
Xn n
X
bi,j = A0i,k ak,j = ak,j Ak,i
k=1 k=1
Si i = j alors en développant le déterminant de la matrice A selon la j-ème colonne
a1,1 · · · a1,j · · · a1,n
n
det A = ... .. .. = X a A = b
. .
k,j k,j j,j
an,1 · · · an,j · · · an,n k=1
Or ce dernier déterminant est nul car la matrice considérée possède deux colonnes identiques.
Finalement bi,j = det(A)δi,j puis t (comA) A = det(A)In .
L’identité At (comA) = det(A)In s’obtient de façon semblable en considérant les coefficients de la
matrice produit At (comA) comme des développements de déterminants selon des lignes.
Corollaire
Si det A 6= 0 alors
1 t
A−1 = (comA)
det A
Exemple Pour
a b
A= ∈ M2 (K)
c d
A est inversible si, et seulement si, ad − bc 6= 0. Si tel est le cas
1 d −b
A−1 =
ad − bc −c a
Proposition
Toute matrice extraite de A ∈ Mn,p (K) est de rang inférieur à celui de A.
dém.
Notons C1 , . . . , Cp les colonnes de A. On a rgA = rg(C1 , . . . , Cp ).
Si on retire des colonnes à la matrice A, la matrice B obtenue est de rang inférieur.
Notons L1 , . . . , Ln les colonnes de B. On a rgB = rg(L1 , . . . , Ln ).
Si on retire des lignes de B, la matrice extraite C obtenue est de rang inférieur au rang de B et donc de
rang inférieur à celui de A.
Définition
On appelle déterminant extrait de A ∈ Mn,p (K) d’ordre r, tout déterminant d’une matrice
carrée d’ordre r extraite de A.
1 2 1 1 2
Exemple = −2 est déterminant extrait de via Ĉ2
1 0 0 1 0
Exemple Les mineurs de A ∈ Mn (K) sont exactement ses déterminants extraits d’ordre n − 1.
Théorème
Le rang d’une matrice non nulle A ∈ Mn,p (K) est l’ordre maximal des déterminants non nuls
extraits de A.
dém. :
Si A possède un déterminant extrait d’ordre r non nul alors rgA > r car A admet une matrice extraite de
rang r.
Inversement, posons r > 1 le rang de A ∈ Mn,p (K).
A possède r colonnes indépendantes.
Notons B la matrice extraite formée par ces colonnes. B ∈ Mn,r (K) et B est de rang r.
B possède r lignes indépendantes.
Notons C la matrice extraite de B constituée pas ces lignes. C ∈ Mr (K) et C est de rang r.
La matrice C est une matrice carrée inversible donc det C 6= 0 et par suite A possède un déterminant
extrait d’ordre r non nul.
Proposition
Soient B et B 0 deux bases de E.
Si B a même orientation que B 0 alors B 0 a même orientation que B.
On dit alors que B et B 0 ont même orientation.
dém. :
det B 0 × det
0
B = 1 > 0 donc det
0
B et det B 0 ont même signe.
B B B B
Proposition
Soient B, B 0 , B 00 trois bases de E.
B 0 et B 00 ont même orientation si, et seulement si, elles ont toutes les deux la même orientation
que B ou sont toutes les deux d’orientation opposée à celle de B.
dém. :
Par formule de changement de base det
0
B 00 = det
0
B × det B 00 .
B B B
Par suite det
0
B 00 > 0 si, et seulement si, det
0
B et det B 00 ont même signe.
B B B
Définition
Orienter le R-espace vectoriel E à partir du choix d’une base B c’est adopter le vocabulaire
suivant :
Toute base de E de même orientation que B est dite directe.
Toute base de E d’orientation opposée à celle de B est dite indirecte.
La base B est dite base orientée de référence.
Exemple En général, on oriente Rn par l’intermédiaire de sa base canonique. Si tel est le cas, on dit que
l’espace Rn est canoniquement orienté.
Définition
Une droite vectoriel orientée est appelé un axe vectoriel.
Exemple Soit E un R-espace vectoriel orienté par une base B = (e1 , ..., en ).
Pour tout σ ∈ Sn , notons Bσ = (eσ(1) , ..., eσ(n) ).
On a det Bσ = ε(σ).
B
Si la permutation σ est paire alors Bσ est directe.
Si la permutation σ est impaire alors Bσ est indirecte.
En particulier, dans l’espace géométrique orienté B = (~i, ~j, ~k)
- les bases (~i, ~j, ~k), (~k,~i, ~j), (~j, ~k,~i) sont directes ;
- les bases (~i, ~k, ~j), (~k, ~j,~i), (~j,~i, ~k) sont indirectes.
Dans ce chapitre on redéfinit la notion de produit scalaire dans un cadre plus général qui ne sera pas
nécessairement géométrique. A partir de cette notion, on redéfinit les notions de distance, d’orthogonalité,
d’angles,...
E désigne un R-espace vectoriel.
n et p désignent des entiers naturels.
12.1 Produit scalaire
12.1.1 Définition
Définition
On appelle produit scalaire sur E toute application ϕ : E × E → R vérifiant
1) ϕ est bilinéaire ;
2) ϕ est symétrique i.e.
∀x, y ∈ E, ϕ(x, y) = ϕ(y, x)
3) ϕ est positive i.e.
∀x ∈ E, ϕ(x, x) > 0
4) ϕ est définie i.e.
∀x ∈ E, ϕ(x, x) = 0 ⇒ x = 0E
On dit qu’un produit scalaire est un forme bilinéaire symétrique définie positive.
Remarque Dans la pratique pour montrer que ϕ : E × E → R est bilinéaire symétrique (1. et 2.) on se
contente d’établir la linéarité par rapport à une variable (par exemple, la deuxième) et la symétrie ce qui
est suffisant pour conclure.
Exemple Le produit scalaire défini sur l’ensemble des vecteurs du plan (resp. de l’espace) est un
produit scalaire au sens précédent.
Exemple Considérons E = Rn .
Pour x = (x1 , . . . , xn ) ∈ Rn et y = (y1 , . . . , yn ) ∈ Rn on pose
n
X
ϕ(x, y) = x1 y1 + · · · + xn yn = xk yk
k=1
371
12.1. PRODUIT SCALAIRE
n
X
Remarque ϕ(x, y) = kxk yk définit aussi un produit scalaire sur Rn .
k=1
2 2
ϕ(z, z) = Re(z̄z) = Re(|z| ) = |z| > 0
2
Si ϕ(z, z) = 0 alors |z| = 0 et donc z = 0.
ϕ est un produit scalaire sur le R-espace vectoriel C.
ϕ(B, A) = tr t BA = trt t
BA = tr(t AB) = ϕ(A, B)
p
n X
X
Si ϕ(A, A) = 0 alors a2i,j = 0.
i=1 j=1
Or la somme de quantités positives n’est nulle que si chacune des quantité est nulle et donc ai,j = 0
pour tous i, j. Ainsi A = On,p .
Finalement ϕ est un produit scalaire sur E.
Ce produit scalaire est appelé produit scalaire canonique sur Mn,p (R).
∀x, y ∈ E, (x | y) = (y | x)
∀x ∈ E, (x | x) > 0 et (x | x) = 0 ⇒ x = 0
Théorème
(λx + y | λx + y) = λ2 (x | x) + 2λ(x | y) + (y | y)
(x | y)2 6 (x | x)(y | y)
De plus, s’il y a égalité dans cette inégalité, le discriminant est nul et donc il existe λ ∈ R tel que
(λx + y | λx + y) = 0
dém. :
Il suffit d’appliquer l’inégalité de Cauchy-Schwarz au produit scalaire canonique sur
12.1.2.2 Norme euclidienne
Définition
On appelle norme euclidienne (ou longueur) d’un vecteur B le réel
p
kxk = (x | x)
Exemple La norme euclidienne associée au produit scalaire du plan ou de l’espace géométrique est la
norme usuelle.
kzk = |z|
Proposition
∀x, y ∈ E, ∀λ ∈ R,
et
|(x | y)| 6 kxk . kyk
avec égalité si, et seulement si, x et y sont colinéaires.
dém. : p
kxk = (x p | x) > 0.
kxk = 0 ⇔ p (x | x) = p 0 ⇔ (x | x) = 0 ⇔px = 0E
2
kλ.xk = (λx | λx) = λ (x | x) = |λ| (x | x) = |λ| kxk
2 2
et enfin |(x | y)| 6 kxk . kyk ⇔ (x | y)2 6 kxk kyk qui est l’inégalité de Cauchy-Schwarz.
Théorème
dém. :
Soient x, y ∈ E.
kxk = k(x − y) + yk 6 kx − yk + kyk
donc
kxk − kyk 6 kx − yk
De façon symétrique, on a aussi
kyk − kxk 6 ky − xk = kx − yk
Proposition
2 2 2
∀x, y ∈ E, kx + yk = kxk + 2(x | y) + kyk
2 2 2
∀x, y ∈ E, kx − yk = kxk − 2(x | y) + kyk
2 2
∀x, y ∈ E, (x + y | x − y) = kxk − kyk .
dém. :
Soient x, y ∈ E.
2
kx + yk = (x + y | x + y)
Par bilinéarité du produit scalaire.
2
kx + yk = (x | x + y) + (y | x + y) = (x | x) + (x | y) + (y | x) + (y | y)
(x + y | x − y) = (x | x) − (x | y) + (y | x) − (y | y)
Proposition
2 2 2 2
∀x, y ∈ E, kx + yk + kx − yk = 2 kxk + kyk
dém. :
Il suffit de sommer les deux premières identités remarquables précédentes
Remarque L’identité du parallélogramme signifie que, dans un parallélogramme donné, la somme des
carrés des longueurs des diagonales est égale à la somme des carrés des longueurs des côtés.
Proposition
2 2
∀x, y ∈ E, kx + yk − kx − yk = 4(x | y)
dém. :
Il suffit de faire la différence des deux premières identités remarquables précédentes
Remarque Par l’identité de polarisation, on peut calculer un produit scalaire à partir de la norme
euclidienne associée.
Définition
On appelle distance euclidienne séparant deux vecteurs x et y de E le réel
d(x, y) = ky − xk
Proposition
∀x, y ∈ E, d(x, y) = 0 ⇔ x = y [séparation]
∀x, y ∈ E, d(x, y) = d(y, x) [symétrie]
∀x, y, z ∈ E, d(x, z) 6 d(x, y) + d(y, z) [inégalité triangulaire]
∀x, y, z ∈ E, d(x + z, y + z) = d(x, y) [invariance par translation]
dém. :
Soient x, y, z ∈ E.
d(x, y) = 0 ⇔ ky − xk = 0 ⇔ y − x = 0E ⇔ y = x.
d(y, x) = kx − yk = ky − xk = d(x, y).
d(x, z) = kz − xk = k(z − y) + (y − x)k 6 kz − yk + ky − xk = d(y, z) + d(x, y),
d(x + z, y + z) = k(y + z) − (x + z)k = ky − xk = d(x, y).
Définition
Le réel θ ainsi défini est appelé écart angulaire entre les vecteurs u et v.
On note
θ = Ecart(u, v)
Remarque Nous avons ici une définition rigoureuse de la notion d’écart angulaire, définition réalisée à
partir de la notion de produit scalaire. Dans le cas du plan ou de l’espace géométrique, on retrouve la
notion d’écart angulaire usuelle. Cette notion angulaire est définie en dimension quelconque : 2,3 voire
supérieure. . .
Remarque Cette notion n’est à pas confondre avec la notion d’angle orientée qui sera introduite
ultérieurement, dans le cadre des plans euclidiens orientés.
Un écart angulaire entre deux vecteurs est figuré par un arc de cercle (non fléché) d’amplitude inférieure
à π.
Proposition
Ecart(u, v) = Ecart(v, u)
Ecart(−u, v) = π − Ecart(u, v)
Ecart(u, v) = 0 si, et seulement si, u et v ont même direction et même sens.
Ecart(u, v) = π si, et seulement si, u et v ont même direction et sont de sens opposés.
dém. :
Ecart(u, v) = Ecart(v, u) car (u | v) = (v | u).
Ecart(−u, v) = π − Ecart(u, v) car (−u | v) = −(u | v) et arccos(−x) = π − arccos(x).
Ecart(u, v) = 0 si, et seulement si, (u | v) = kuk kvk ce qui signifie (u | v) > 0 et |(u | v)| = kuk kvk.
En vertu du cas d’égalité dans l’inégalité de Cauchy-Schwarz, cela revient à u et v colinéaire et de même
sens.
Ecart(u, v) = π si, et seulement si, (u | v) = − kuk kvk ce qui signifie (u | v) 6 0 et |(u | v)| = kuk kvk
et on peut conclure comme ci-dessus.
Définition
On dit que les vecteurs u et v forment un angle aigu si Ecart(u, v) ∈ [0, π/2].
On dit que les vecteurs u et v forment un angle obtus si Ecart(u, v) ∈ [π/2, π].
On dit que les vecteurs u et v forment un angle droit si Ecart(u, v) = π/2.
Définition
Deux vecteurs x et y de E sont dits orthogonaux si
(x | y) = 0
∀x ∈ E, (x | 0E ) = 0
Inversement, puisqu’un vecteur orthogonal à tout vecteur est orthogonal à lui-même et puisque
(x | x) = 0 ⇒ x = 0E , on peut affirmer que le vecteur nul est le seul vecteur orthogonal à tout vecteur.
Définition
On dit qu’une famille F = (e1 , . . . , en ) de vecteurs de E est orthogonale si F est constituée
de vecteurs deux à deux orthogonaux i.e.
∀1 6 i 6= j 6 n, (ei | ej ) = 0
Exemple Dans Rn muni du produit scalaire canonique, la base canonique est une famille orthogonale.
Théorème
Si F = (e1 , . . . , en ) une famille orthogonale alors
2 2 2
ke1 + · · · + en k = ke1 k + · · · + ken k
dém. :
Par récurrence sur n ∈ N? .
Pour n = 1 : ok
Supposons la propriété établie au rang n > 1.
Soit (e1 , . . . , en , en+1 ) une famille orthogonale.
En exploitant
2 2 2
ka + bk = kak + 2(a | b) + kbk
car (a | b) = 0.
Par hypothèse de récurrence
2 2 2 2
ke1 + · · · + en + en+1 k = ke1 k + · · · + ken k + ken+1 k
Récurrence établie.
Corollaire
Toute famille orthogonale ne comportant pas le vecteur nul est libre.
dém. :
Soit (e1 , . . . , en ) une famille orthogonale ne comportant pas le vecteur nul.
Supposons λ1 e1 + · · · + λn en = 0E .
Puisque la famille (λ1 e1 , . . . , λn en ) est elle aussi orthogonale, la formule de Pythagore donne
2 2 2
kλ1 e1 + · · · + λn en k = kλ1 e1 k + · · · + kλn en k
2
Or kλ1 e1 + · · · + λn en k = 0 donc, par somme nulle de quantités positives, on a
2
∀1 6 k 6 n, kλk ek k = 0
puis
∀1 6 k 6 n, λk ek = 0E
∀1 6 k 6 n, λk = 0
Définition
On dit qu’un vecteur x de E est unitaire (ou normé) si kxk = 1.
Définition
On dit qu’une famille F = (e1 , . . . , en ) de vecteurs de E orthonormée si F est constituée de
vecteurs unitaires deux à deux orthogonaux i.e.
∀1 6 i, j 6 n, (ei | ej ) = δi,j
Définition
Normer un vecteur non nul x, c’est considérer le vecteur unitaire u = x/kxk.
Exemple Si F = (e1 , . . . , en ) est une famille orthogonale ne comportant pas le vecteur nul alors, en
normant chacun de ses vecteurs, on forme une famille orthonormée G = (e1 /ke1 k, . . . , en /ken k).
Proposition
Toute famille orthonormée est libre.
dém. :
Car une famille orthonormée et est orthogonale et ne comporte pas le vecteur nul.
Théorème
Soit F = (e1 , . . . , en ) une famille libre de vecteurs de E.
On peut construire une famille orthonormée (v1 , . . . , vn ) de vecteurs de E vérifiant
∀1 6 k 6 n, Vect(e1 , . . . , ek ) = Vect(v1 , . . . , vk )
dém. :
Par récurrence sur n ∈ N? .
Pour n = 1.
Soit (e1 ) une famille libre.
On a e1 6= 0. Le vecteur v1 = e1 /ke1 k convient
Supposons la propriété établie au rang n ∈ N? .
Soit (e1 , ..., en , en+1 ) une famille libre.
Par hypothèse de récurrence, il existe (v1 , . . . , vn ) famille orthonormée telle que
∀1 6 k 6 n, Vect(e1 , . . . , ek ) = Vect(v1 , . . . , vk )
Il reste à déterminer un vecteur vn+1 de sorte que la famille (v1 , . . . , vn+1 ) est orthonormée et
Analyse :
Si vn+1 convient alors vn+1 ∈ Vect(e1 , . . . , en+1 ) et on peut donc écrire
vn+1 = λ1 e1 + · · · + λn en + λen+1
∀1 6 i 6 n, (vi | vn+1 ) = 0
On en déduit
∀1 6 i 6 n, µi = −λ(vi | en+1 )
et par suite !
n
X
vn+1 = λ en+1 − (vi | en+1 )vi = λw
i=1
avec
n
X
w = en+1 − (vi | en+1 )
i=1
Le vecteur w est non nul car la famille (e1 , . . . , en , en+1 ) est supposé libre et donc le vecteur en+1 n’est
pas combinaison linéaire des vecteurs e1 , . . . , en .
Posons vn+1 = w/kwk.
Par construction, on vérifie aisément que la famille a (v1 , . . . , vn+1 ) est orthonormée.
De plus, Vect(v1 , . . . , vn , vn+1 ) ⊂ Vect(e1 , . . . , en , en+1 ) et par égalité des dimensions (les deux familles
considérées étant libres), on a Vect(v1 , . . . , vn , vn+1 ) = Vect(e1 , . . . , en , en+1 )
Récurrence établie.
Remarque Dans la pratique pour orthonormaliser une famille libre (e1 , . . . , en ) :
- on pose V1 = e1 ;
- pour 1 6 p 6 n − 1, lorsque V1 , . . . , Vp sont trouvés, on cherche Vp+1 de la forme :
Vp+1 = ep+1 + λ1 V1 + · · · + λp Vp de sorte que ∀1 6 k 6 p, (Vp+1 | Vk ) = 0 ce qui fournit la valeur
de λk .
- une fois obtenue la famille (V1 , . . . , Vn ), on normalise chaque vecteur en posant vk = Vk /kVk k.
La famille ainsi formée est appelée famille orthonormalisée de F = (e1 , . . . , en ) selon le procédé de
Schmidt.
A⊥ = {x ∈ E/∀a ∈ A, (a | x) = 0}
⊥
Exemple {0E } = E et E ⊥ = {0E }.
Exemple
Proposition
Soit A une partie de E.
A⊥ est un sous-espace vectoriel de E
dém. :
A⊥ ⊂ E.
0E ∈ A⊥ car 0E est orthogonal à tout vecteur de E et en particulier à tout vecteur de A.
Soient λ, µ ∈ R et x, y ∈ A⊥ .
Pour tout a ∈ A, (a | λx + µy) = λ(a | x) + µ(a | y) = 0.
Ainsi λx + µy ∈ A⊥ .
Proposition
Soient A et B deux parties de E.
1) A ⊂ A⊥⊥ ;
2) A ⊂ B ⇒ B ⊥ ⊂ A⊥ ;
3) A⊥ = Vect(A)⊥ .
dém. :
1) Soit a ∈ A. Pour tout x ∈ A⊥ , on a (x | a) = (a | x) = 0 donc a ∈ A⊥⊥ . Ainsi A ⊂ A⊥⊥ .
2) Supposons A ⊂ B.
Soit x ∈ B ⊥ . Pour tout a ∈ A, (a | x) = 0 car a ∈ B et x ∈ B ⊥ . Ainsi B ⊥ ⊂ A⊥ .
3) Enfin A ⊂ Vect(A) donc Vect(A)⊥ ⊂ A⊥ .
Inversement A ⊂ A⊥⊥ donc VectA ⊂ A⊥⊥ (car A⊥⊥ est un sous-espace vectoriel) puis A⊥ ⊂ A⊥⊥⊥ ⊂
Vect(A)⊥ .
Définition
Deux sous-espaces vectoriels F et G de E sont dits orthogonaux si
∀(x, y) ∈ F × G, (x | y) = 0
Proposition
Soient F et G deux sous-espaces vectoriels de E.
Si F et G sont orthogonaux alors F ∩ G = {0E }.
dém. :
Soit x ∈ F ∩ G.
Puisque F et G sont orthogonaux, (x | x) = 0 et donc x = 0E .
Ainsi F ∩ G ⊂ {0E } puis l’égalité car F et G sont des sous-espaces vectoriels et donc contiennent le
vecteur nul.
Proposition
Soient F et G deux sous-espaces vectoriels de E.
On a équivalence entre :
(i) F et G sont orthogonaux ;
(ii) F ⊂ G⊥ ;
(iii) G ⊂ F ⊥ .
dém. :
(i) ⇒ (ii) Supposons F et G orthogonaux.
Soit x ∈ F . Pour tout y ∈ G, on a (y | x) = 0 donc x ∈ G⊥ .
Ainsi F ⊂ G⊥ .
(ii) ⇒ (iii) Supposons F ⊂ G⊥ .
On a alors G⊥⊥ ⊂ F ⊥ or G ⊂ G⊥⊥ donc G ⊂ F ⊥ .
(iii) ⇒ (i) Supposons G ⊂ F ⊥ .
Soient x ∈ F et y ∈ G. On a (x | y) = 0 car x ∈ F et y ∈ F ⊥ .
Ainsi les espaces F et G sont orthogonaux.
Exemple L’ensemble des vecteurs du plan (resp. de l’espace) géométrique est un espace vectoriel
euclidien.
Exemple Rn muni du produit scalaire canonique est un espace vectoriel euclidien. On dit alors que Rn
est muni de sa structure vectorielle euclidienne canonique.
Exemple Si F est un sous-espace vectoriel d’un espace vectoriel euclidien E alors F est un espace
vectoriel euclidien lorsqu’on le munit de la restriction du produit scalaire existant sur E.
Théorème
Tout espace vectoriel euclidien E possède une base orthonormée.
dém. :
Soit B = (e1 , . . . , en ) une base de E.
La famille B est libre, on peut donc l’orthonormalisée selon le procédé de Schmidt et la famille obtenue
est une famille orthonormée, donc aussi libre, formée de n = dim E vecteurs de E, c’est donc une base
orthonormée de E.
Corollaire
Tout sous-espace vectoriel d’un espace euclidien possède une base orthonormée.
dém. :
Un sous-espace vectoriel d’un espace euclidien est un espace euclidien pour le produit scalaire défini par
restriction.
dém. :
n
X
Puisque B est une base de E, on peut écrire x = λi ei et par bilinéarité du produit scalaire,
i=1
n
X n
X
(ek | x) = λi (ek | ei ) = λi δk,i = λk
i=1 i=1
Exemple Si A = (ai,j ) ∈ Mn (R) est la matrice dans la base B d’un endomorphisme f de E alors pour
tout i, j ∈ {1, . . . , n}, ai,j = (ei | f (ej )).
En effet ai,j est la i-ème composante dans la base B de l’image du j-ème vecteur de base.
Théorème
Si x et y sont de vecteurs de E de composantes respectives x1 , . . . , xn et y1 , . . . , yn dans la
base orthonormée B alors
q
(x | y) = x1 y1 + · · · + xn yn et kxk = x21 + · · · + x2n
dém. :
On a
n
X n
X
x= xk ek et y = y` e`
k=1 `=1
En particulier
n
X
2
kxk = (x | x) = x2k .
k=1
x1 y1
Remarque Si on introduit les matrices composantes X = ... , Y = .. des vecteurs x, y,
.
xn yn
on peut écrire
2
(x | y) = t XY et kxk = t XX
Corollaire
Toute famille orthonormée de vecteurs de E peut être complétée en une base orthonormée
de E.
dém. :
Soit (e1 , . . . , em ) une famille orthonormée de E.
Posons F = Vect(e1 , . . . , em ) et considérons (em+1 , . . . , en ) une base orthonormée de l’espace F ⊥ .
Puisque F et F ⊥ sont supplémentaires, la famille (e1 , . . . , em , em+1 , . . . , en ) est une base de E et on
vérifie aisément qu’elle est orthonormée.
Corollaire
dim F ⊥ = dim E − dim F et F ⊥⊥ = F .
dém. :
Puisque F et F ⊥ sont supplémentaires dans E, on a dim F + dim F ⊥ = dim E.
On en déduit dim F ⊥ = dim E − dim F puis dim F ⊥⊥ = dim F . Or F ⊂ F ⊥⊥ donc F = F ⊥⊥
Proposition
Si F et G sont deux sous-espaces vectoriels d’un espace vectoriel euclidien E alors
(F + G)⊥ = F ⊥ ∩ G⊥ et (F ∩ G)⊥ = F ⊥ + G⊥
dém. :
Puisque F ⊂ F +G et G ⊂ F +G, on a (F +G)⊥ ⊂ F ⊥ , (F +G)⊥ ⊂ G⊥ et donc (F +G)⊥ ⊂ F ⊥ ∩G⊥ .
Inversement, soit x ∈ F ⊥ ∩ G⊥ . Pour tout y ∈ F + G, on peut écrire y = a + b avec a ∈ F et b ∈ G et
alors (x | y) = (x | a) + (x | b) = 0. Ainsi F ⊥ ∩ G⊥ ⊂ (F + G)⊥ puis l’égalité (F + G)⊥ = F ⊥ ∩ G⊥ .
En appliquant cette relation à F ⊥ et G⊥ au lieu de F et G, on obtient (F ⊥ + G⊥ )⊥ = F ∩ G puis en
passant à l’orthogonal on obtient F ⊥ + G⊥ = (F ∩ G)⊥ .
12.2.5 Vecteur normal à un hyperplan
⊥
Remarque Si a est vecteur normal à H alors H ⊥ = Vect(a) et donc H = Vect(a)⊥ = {a} .
Proposition
Soient B = (e1 , . . . , en ) une base orthonormée de E et H un hyperplan de E.
Un vecteur a de composantes a1 , . . . , an est normal à H si, et seulement si, a1 x1 +· · ·+an xn =
0 est une équation de H dans B (en notant x1 , . . . , xn les composantes dans B d’un vecteur
générique x ∈ E).
dém. :
Si n est un vecteur normal à H de composantes a1 , . . . , an dans B alors
x ∈ H ⇔ (a | x) = 0 ⇔ a1 x1 + · · · + an xn = 0
Exemple Dans R3 muni de sa structure canonique, le plan de vecteur normal n = (1, 2, −1) a pour
équation x + 2y − z = 0.
∀x ∈ E, ϕa (x) = (a | x)
Proposition
⊥
ϕa est une forme linéaire sur E de noyau {a} .
dém. :
ϕa est une forme linéaire sur E car ϕa : E → R et, avec des notations immédiates
Aussi
⊥
x ∈ ker ϕa ⇔ (a | x) = 0 ⇔ x ∈ {a}
Théorème
∀f ∈ E ? , ∃!a ∈ E, f = ϕa .
dém. :
Considérons l’application Φ : E → E ? définie par Φ(a) = ϕa .
Montrons que Φ est un isomorphisme de R-espace vectoriel ce qui permettra de conclure.
Pour commencer, notons que E et E ? sont des espaces de même dimension finie.
Avec des notation immédiates, on a Φ(λa + µb) = λΦ(a) + µΦ(b) puisque pour tout x ∈ E,
ϕλa+µb (x) = (λa + µb | x) = λ(a | x) + µ(b | x) = (λϕa + µϕb )(x).
De plus, l’application Φ est injective car si a ∈ ker Φ alors ϕa = 0̃ et en particulier ϕa (a) = (a | a) = 0
ce qui entraîne a = 0.
Par le théorème d’isomorphisme, on peut alors affirmer que Φ est un isomorphisme de R-espace vectoriel.
12.2.7 Produit mixte
Soit E un espace vectoriel euclidien orienté de dimension n ∈ N? .
Proposition
Si B = (e1 , . . . , en ) et B 0 = (e01 , . . . , e0n ) sont deux bases orthonormées de E alors a det B 0 =
B
±1.
dém. :
Notons P = (pi,j ) = MatB B 0 = MatB (e01 , . . . , e0n ).
Le coefficient d’indice (i, j) de P est la ième composante dans B du jème vecteur de B 0 . Ainsi pi,j =
(ei | e0j ).
Puisque P −1 = (qi,j ) = MatB0 B = MatB0 (e1 , ..., en ), on a aussi qi,j = (e0i | ej ) = (ej | e0i ) = pj,i .
Par suite P −1 = t P et donc 1/det P = det P d’où (det P )2 = 1.
Remarque Si B et B 0 sont deux bases orthonormées directes alors det B 0 = 1.
B
Théorème
Si (x1 , ..., xn ) est une famille de n = dim E vecteurs de E et si B est une base
orthonormée directe de E alors la quantité det(x1 , . . . , xn ) ne dépend pas du choix de la base
B
orthonormée B.
dém. :
Si B 0 désigne une autre base orthonormée directe de E alors la formule de changement de base relative
aux déterminants donne det(x1 , ..., xn ) = det B 0 det
0
(x1 , ..., xn ) = det
0
(x1 , ..., xn ) car det B 0 = 1.
B B B B B
Définition
Cette quantité est appelée produit mixte des vecteurs (x1 , . . . , xn ), on la note Det(x1 , ..., xn )
ou [x1 , ..., xn ].
Proposition
L’application produit mixte (x1 , ..., xn ) ∈ E n 7→ [x1 , ..., xn ] ∈ R est une forme n linéaire
alternée et antisymétrique.
De plus
[x1 , ..., xn ] = 0 ⇔ (x1 , ..., xn ) est liée.
[x1 , ..., xn ] > 0 ⇔ (x1 , . . . , xn ) base directe.
[x1 , ..., xn ] < 0 ⇔ (x1 , . . . , xn ) base indirecte.
dém. :
Les propriétés affirmées découlent de ce que le produit mixte est un déterminant dans une base directe.
f (x) = Det(u, v, x)
Définition
Ce vecteur w est appelé produit vectoriel de u par v, on le note u ∧ v.
Proposition
L’application produit vectoriel (u, v) ∈ E × E 7→ u ∧ v ∈ E est bilinéaire antisymétrique.
dém. :
Soient u, v, w ∈ E et λ, µ ∈ R.
Pour tout x ∈ E,
((λu + µv) ∧ w | x) = Det(λu + µv, w, x)
Par linéarité du produit mixte en la première variable
et ainsi
∀x ∈ E, (a | x) = (b | x)
Proposition
∀u, v ∈ E, (u ∧ v | u) = (u ∧ v | v) = 0.
dém. :
Det(u, v, u) = Det(u, v, v) = 0 car le produit mixte d’une famille liée est nul.
Proposition
∀u, v ∈ E, (u, v) est libre si, et seulement si, u ∧ v 6= 0.
De plus, si tel est le cas, la famille (u, v, u ∧ v) est une base directe.
dém. :
Si (u, v) liée alors ∀x ∈ E, Det(u, v, x) = 0 = (0 | x) et donc u ∧ v = 0.
Si (u, v) est libre, complétons cette famille en une base (u, v, w).
(u ∧ v | w) = Det(u, v, w) 6= 0 donc u ∧ v 6= 0.
2
De plus ku ∧ vk = Det(u, v, u ∧ v) > 0 donc la famille (u, v, u ∧ v) est une base directe.
Proposition
Si (i, j, k) est une base orthonormée directe de E alors
i ∧ j = k, j ∧ k = i et k ∧ i = j.
dém. :
Calculons les composantes de du vecteur i ∧ j dans la base (i, j, k).
(i | i ∧ j) = (i ∧ j | i) = 0, (j | i ∧ j) = (i ∧ j | j) = 0 et (k | i ∧ j) = (i ∧ j | k) = Det(i, j, k) = 1.
On en déduit i ∧ j = 0.i + 0.j + 1.k = k.
Les calculs sont semblables pour j ∧ k et k ∧ i en exploitant Det(j, k, i) = Det(k, i, j) = 1.
Proposition
Soit (i, j, k) une base orthonormée directe de E.
Si u = xi + yj + zk et v = x0 i + y 0 j + z 0 k alors
dém. :
Il suffit de calculer les composantes du vecteur i ∧ j dans la base (i, j, k).
x x0 1
(i | u ∧ v) = (u ∧ v | i) = Det(u, v, i) = y y 0 0 = yz 0 − y 0 z
z z0 0
Remarque Par coïncidence de la formule, on peut affirmer que le produit vectoriel dans l’espace
géométrique précédemment présenté se confond avec le produit vectoriel en cours d’étude.
Proposition
∀u, v, w ∈ E, u ∧ (v ∧ w) = (u | w)v − (u | v)w.
dém. :
Soit (i, j, k) une base orthonormée directe de E.
Soient v = xi + yj + zk et w = x0 i + y 0 j + z 0 k deux vecteurs quelconques de E. On a v ∧ w =
(yz 0 − y 0 z)i + (zx0 − z 0 x)j + (xy 0 − x0 y)k.
Pour u = i, on obtient
i ∧ (v ∧ w) = (x0 y − xy 0 )j + (zx0 − x0 z)k
et (i | w)v − (i | v)w = x0 v − xw = (x0 y − xy 0 )j + (zx0 − x0 z)k.
De même, on vérifie que la formule du double produit vectoriel est aussi valable pour u = j et pour
u = k, puis par linéarité du produit vectoriel et du produit scalaire en leur première variable, on peut
affirmer que la formule énoncée est valable pour tout u ∈ E.
Théorème
2 2 2
∀u, v ∈ E, (u | v)2 + ku ∧ vk = kuk kvk .
dém. :
2
ku ∧ vk = Det(u, v, u ∧ v)
Puisque le produit mixte est une application antisymétrique
2
ku ∧ vk = Det(v, u ∧ v, u) = (v ∧ (u ∧ v) | u)
Par la formule
du double produit vectoriel,
on obtient
2 2 2 2
ku ∧ vk = kvk u − (v | u)v | u = kvk kuk − (v | u)2
Corollaire
Soient u, v ∈ E non nuls et θ = Ecart(u, v).
On a
ku ∧ vk = kuk kvk sin θ
dém. :
(u | v) = kuk kvk cos θ donc par l’identité de Lagrange,
2 2 2 2 2 2 2
ku ∧ vk = kuk kvk − kuk kvk cos2 θ = kuk kvk sin2 θ
puis ku ∧ vk = kuk kvk sin θ car θ ∈ [0, π] et donc sin θ > 0.
Exemple Si (u, v) est une famille orthonormée de vecteurs de E alors (u, v, u ∧ v) est une base
orthonormée directe de E.
Proposition
pF est un endomorphisme de E vérifiant p2F = pF , ImpF = F et ker pF = F ⊥ .
De plus Id − pF est la projection orthogonale sur F ⊥ .
dém. :
Puisque pF est la projection sur F parallèlement à F ⊥ , pF est un projecteur de E, c’est-à-dire un
endomorphisme de E vérifiant p2F = pF . Aussi ImpF = F (espace sur lequel on projette) et ker pF = F ⊥
(espace parallèlement auquel on projette).
Enfin Id − pF est la projection complémentaire de pF c’est-à-dire la projection sur F ⊥ parallèlement à
F = F ⊥⊥ , autrement dit, c’est la projection orthogonale sur F ⊥ .
Théorème
Si B = (e1 , . . . , ep ) est une base orthonormée de F alors
p
X
∀x ∈ E, pF (x) = (ej | x)ej
j=1
dém. :
Complétons la famille orthonormée B = (e1 , . . . , ep ) en une base orthonormée (e1 , . . . , en ).
Xn Xn
Puisque x = (ek | x)ek , on a par linéarité pF (x) = (ek | x)pF (ek ).
k=1 k=1
Or pF (ek ) = ek pour k ∈ {1, . . . , p} car ek ∈ F et pF (ek ) = 0 pour k > p car ek ∈ F ⊥ .
Xp
On en déduit pF (x) = (ek | x)ek
k=1
(a | x)
∀x ∈ E, pH (x) = x − 2 a
kak
Exemple Soit E un espace vectoriel euclidien de dimension 3 muni d’une base orthonormée
B = (i, j, k).
Soit p la projection orthogonale sur le plan P : −x + y + z = 0.
Formons la matrice A de p dans la base B.
a = −i + j + k est vecteur normal à P .
Pour tout x ∈ E, on a
(a | x)
p(x) = x − 2 a
kak
On en déduit
1 1 1
p(i) = i + (−i + j + k), p(j) = j − (−i + j + k) et p(k) = k − (−i + j + k)
3 3 3
Ainsi
2 1 1
1
A= 1 2 −1
3
1 −1 2
Théorème
Soit p ∈ L(E). On a équivalence entre :
(i) p est une projection orthogonale ;
(ii) p2 = p et ∀x, y ∈ E, (p(x) | y) = (x | p(y)).
dém. :
(i) ⇒ (ii) Supposons que p est une projection orthogonale.
On sait déjà que p2 = p.
Soit x, y ∈ E
On a
(p(x) | y) = (p(x) | y − p(y)) + (p(x) | p(y))
Or (p(x) | y − p(y)) = 0 car p(x) ∈ F et y − p(y) ∈ F ⊥
donc
(p(x) | y) = (p(x) | p(y))
De façon semblable
(x | p(y)) = (p(x) | p(y))
et donc
(p(x) | y) = (x | p(y))
Définition
On appelle distance d’un vecteur x de A à un sous-espace vectoriel F de E le réel
Théorème
∀y ∈ F, kx − yk > kx − pF (x)k avec égalité si, et seulement si, y = p(x).
dém. :
x − y = (x − pF (x)) + (pF (x) − y) avec x − pF (x) ∈ F ⊥ et pF (x) − y ∈ F .
2 2 2 2
Par Pythagore kx − yk = kx − pF (x)k + kpF (x) − yk > kx − pF (x)k avec égalité si, et seulement
si, y = pF (x).
Corollaire
d(x, F ) = kx − pF (x)k.
dém. :
d(x, F ) = inf kx − yk = min kx − yk = kx − pF (x)k.
y∈F y∈F
Exemple Soit D = Vect(a) avec a 6= 0.
(a | x)
Pour tout x ∈ E, pD (x) = 2 a donc
kak
(a | x)
d(x, D) =
x − 2 a
kak
Proposition
Si B = (e1 , ..., en ) est une base orthonormée de E et si H est un hyperplan d’équation a1 x1 +
· · ·+an xn = 0 (avec (a1 , . . . , an ) 6= (0, . . . , 0)) alors pour tout vecteur x de E de composantes
x1 , . . . , xn dans B on a
|a1 x1 + · · · + an xn |
d(x, H) = p 2
a1 + · · · + a2n
dém. :
Le vecteur a = a1 e1 +· · ·+an en est vecteur normal à H et la formule proposée est alors la concrétisation
|(a | x)|
de la formule d(x, H) =
kak
Exemple Soit E un espace vectoriel euclidien de dimension 3 muni d’une base orthonormée
B = (i, j, k).
Soient P : x + 2y − 3z = 0 et D = Vect(u) avec u = i + k.
Soit x = i + 2j + 3k. Calculons d(x, P ) et d(x, D).
|1 + 4 − 9| 4 √
Par les formules précédentes d(x, P ) = √ = √ et d(x, D) = k−i + 2j + kk = 6
1+4+9 14
Exemple Calculons
Z 1 2
m= inf t2 − (at + b) dt
(a,b)∈R2 0
Z 1
Considérons E = R [X] muni du produit scalaire : (P, Q) 7→ P (t)Q(t) dt.
0
2 2
On a m = d(X , R1 [X]) .
2
En introduisant la projection orthogonale p = pR1 [X] , on a m =
X 2 − p(X 2 )
.
Proposition
sF est un endomorphisme vérifiant s2F = Id, ker(sF − I) = F et ker(sF + I) = F ⊥ .
De plus −sF = sF ⊥ et sF = 2pF − Id.
dém. :
Puisque sF est la symétrie par rapport à F et parallèlement à F ⊥ , sF est un endomorphisme de E vérifiant
s2F = Id. Aussi ker(sF − Id) = F (espace par rapport auquel a lieu la symétrie) et ker(sF + Id) = F ⊥
(espace parallèlement auquel a lieu la symétrie).
De plus −sF est la symétrie complémentaire de sF c’est-à-dire la symétrie par rapport à F ⊥ parallèlement
à F = F ⊥⊥ , autrement dit la symétrie par rapport à F ⊥ .
Enfin sF = 2pF − Id car pF est la projection sur F parallèlement à F ⊥ .
Théorème
Si B = (e1 , . . . , ep ) est une base orthonormée de F alors
p
X
∀x ∈ E, sF (x) = 2 (ej | x)ej − x
j=1
dém. :
p
X
sF = 2pF − Id et pF (x) = (ej | x)ej .
j=1
(a | x)
∀x ∈ E, sD (x) = 2 2 a−x
kak
(a | x)
∀x ∈ E, sH (x) = x − 2 2 a
kak
Théorème
Soit s ∈ L(E). On a équivalence entre :
(i) s est un symétrie orthogonale ;
(ii) s2 = Id et ∀x, y ∈ E, (s(x) | y) = (x | s(y)).
dém. :
(i) ⇒ (ii) Supposons que s est une symétrie orthogonale.
On sait déjà s2 = Id.
1
Soit p = (s + I) la projection associée à la symétrie s.
2
Pour tout x, y ∈ E. On a
(s(x) | y) = (2p(x) − x | y) = 2 (p(x) | y) − (x | y).
Or (p(x) | y) = (x | p(y)) car la projection p est orthogonale
donc
(s(x) | y) = 2 (x | p(y)) − (x | y) = (x | 2p(y) − y) = (x | s(y))
(ii) ⇒ (i) Supposons (ii)
Puisque s2 = Id, les espaces F = ker(s − Id) et G = ker(s + Id) sont supplémentaires dans E et q est
la symétrie par rapport à F et parallèlement à G. Pour conclure, il suffit de montrer que G = F ⊥ .
Soient x ∈ F et y ∈ G.
(x | y) = (s(x) | y) = (x | s(y)) = (x | −y) = − (x | y) donc (x | y) = 0.
On en déduit que les espaces F et G sont orthogonaux.
Ainsi G ⊂ F ⊥ , or dim G = dim E − dim F = dim F ⊥ donc G = F ⊥ .
Corollaire
La matrice d’une symétrie orthogonale dans une base orthonormée est symétrique.
dém. :
Notons A = (ai,j ) la matrice d’une symétrie orthogonale s dans une base orthonormée B = (e1 , ..., en ).
Le coefficient d’indice (i, j) de A est la ième composante dans B de l’image du jème vecteur de base par
s. Ainsi ai,j = (ei | s(ej )).
Or s est une symétrie orthogonale donc ai,j = (s(ei ) | ej ) = (ej | s(ei )) = aj,i .
Par suite la matrice A est symétrique.
Corollaire
Les symétries orthogonales conservent le produit scalaire
∀x ∈ E, ks(x)k = kxk
dém. :
Soient x, y ∈ E.
(s(x) | s(y)) = x | s2 (y) = (x | y) car s2 = Id.
Proposition
On (R) est un sous-groupe de GLn (R).
dém. :
On (R) ⊂ GLn (R), In ∈ On (R).
Soient A, B ∈ On (R).
AB est inversible et (AB)−1 = B −1 A−1 = t B t A = t (AB) donc AB ∈ On (R).
Soit A ∈ On (R).
A−1 est inversible et (A−1 )−1 = (t A)−1 = t (A−1 ) donc A−1 ∈ On (R).
Définition
(On (R), ×) est appelé groupe orthogonal d’ordre n.
Proposition
∀A ∈ On (R), det A = ±1.
dém. :
−1
t
A = A−1 donc det(t A) = det(A−1 ) i.e. det A = (det A) d’où (det A)2 = 1.
Définition
Les matrices orthogonales de déterminant 1 (resp. −1) sont qualifiées de positives (resp.
négatives).
Proposition
SOn (R) = {A ∈ On (R)/ det A = 1} est un sous-groupe de (GLn (R), ×).
dém. :
SOn (R) = On (R) ∩ SLn (R) est l’intersection de deux sous-groupes de (GLn (R), ×)
Définition
(SOn (R), ×) est appelé groupe spécial orthogonal d’ordre n.
xn yn
(X | Y ) = t XY = x1 y1 + · · · + xn yn
On vérifie aisément qu’on définit ainsi un produit scalaire sur l’espace Mn,1 (R) des matrices colonnes.
Considérons aussi l’espace vectoriel réel M1,n (R).
Exemple Pour θ ∈ R,
1 0 0
cos θ − sin θ
∈ SO2 (R) et 0 cos θ − sin θ ∈ SO3 (R)
sin θ cos θ
0 sin θ cos θ
Or par calcul du produit scalaire de deux vecteurs par ses composantes dans une base orthonormée, on a
aussi
n
X
(e0i | e0j ) = pk,i pk,j
k=1
Exemple Les symétries orthogonales, et en particulier les réflexions, sont des endomorphismes
orthogonaux.
Théorème
Soit f un endomorphisme de E.
On a équivalence entre :
(i) f est orthogonal ;
(ii) f conserve la norme i.e. ∀x ∈ E, kf (x)k = kxk.
dém. :
(i) ⇒ (ii) Immédiat car la conservation du produit scalaire entraîne la conservation de la norme.
(ii) ⇒ (i) Supposons que f conserve la norme.
Soient x, y ∈ E.
Par polarisation
1 2 2
(f (x) | f (y)) = kf (x) + f (y)k − kf (x) − f (y)k
4
par linéarité de f
1 2 2
(f (x) | f (y)) = kf (x + y)k − kf (x − y)k
4
et puisque f conserve la norme
1 2 2
(f (x) | f (y)) = kx + yk − kx − yk = (x | y)
4
Ainsi f conserve le produit scalaire.
Corollaire
Un endomorphisme orthogonal de E est un automorphisme de E.
On parle indifféremment d’endomorphisme ou d’automorphisme orthogonal voire d’isométrie.
dém. :
Si f ∈ O(E) alors par conservation de la norme f (x) = 0 ⇒ x = 0 et donc ker f = {0}.
Proposition
O(E) est un sous-groupe de (GL(E), ◦).
dém. :
O(E) ⊂ GL(E) et Id ∈ O(E).
Soient f, g ∈ O(E).
Pour tout x ∈ E, k(g ◦ f )(x)k = kg(f (x))k.
Or g conserve la norme donc k(g ◦ f )(x)k = kf (x)k et puisque f converse la norme k(g ◦ f )(x)k = kxk.
Par suite g ◦ f ∈ O(E).
Soit f ∈ O(E).
Pour tout x ∈ E,
f (f −1 (x))
=
f −1 (x)
car f conserve la norme et donc kxk =
f −1 (x)
.
Théorème
Soient f ∈ L(E) et B = (e1 , . . . , en ) une base orthonormée de E.
On a équivalence entre :
(i) f ∈ O(E) ;
(ii) f (B) est une base orthonormée ;
(iii) MatB f ∈ On (R).
dém. :
(i) ⇒ (ii) Supposons f orthogonal.
Par conservation du produit scalaire (f (ei ) | f (ej )) = (ei | ej ) = δi,j et donc (f (e1 ), . . . , f (en ))
est une famille orthonormée. Puisque celle-ci est formée de n = dim E vecteurs de E, c’est une base
orthonormée de E.
(ii) ⇒ (iii) Si f (B) est une base orthonormée alors MatB f = MatB f (B) est orthogonal car cette matrice
s’interprète comme la matrice de passage entre deux bases orthonormées de E.
(iii) ⇒ (i) Supposons A = MatB f ∈ On (R).
Soient x, y ∈ E et notons X et Y leurs matrices composantes dans B.
Les vecteurs f (x) et f (y) ont pour matrices composantes AX et AY dans B.
On a alors (f (x) | f (y)) = t (AX)AY = t X t AAY = t XY = (x | y) et donc f conserve le produit
scalaire.
Corollaire
Etant donné deux bases orthonormées B et B 0 , il existe un unique automorphisme orthogonal
transformant B et B 0 .
dém. :
L’existence et l’unicité d’un endomorphisme transformant B en B 0 est assurée par le fait que le choix de
l’image d’une base détermine entièrement un endomorphisme. Celui-ci est nécessairement orthogonal en
vertu de (ii) ⇒ (i).
Corollaire
Si f ∈ O(E) alors det f = ±1.
dém. :
Le déterminant de f est celui d’une matrice orthogonale.
Définition
Les automorphismes orthogonaux de déterminant 1 (resp. −1) sont qualifiés de positifs (resp.
négatifs).
Proposition
SO(E) = {f ∈ O(E)/ det f = 1} est un sous-groupe de (GL(E), ◦).
dém. :
SO(E) = O(E) ∩ SL(E) est l’intersection de deux sous-groupes de (GL(E), ◦).
Définition
(SO(E), ×) est appelé groupe des isométries positives de E.
1 0 −1 0 0 −1
Exemple R(0) = = I2 , R(π) = = −I2 et R(π/2) = .
0 1 0 −1 1 0
Proposition
∀θ, θ0 ∈ R, R(θ) = R(θ0 ) ⇔ θ = θ0 [2π]
dém. :
Car (
cos θ = cos θ0
⇔ θ = θ0 [2π]
sin θ = sin θ0
Proposition
∀θ, θ0 ∈ R, R (θ) R(θ0 ) = R(θ + θ0 ) = R(θ0 )R(θ)
En particulier, les matrices de rotation commutent entre elles.
dém. :
Par le calculs et en exploitant les formules de développement de cos(θ + θ0 ) et sin(θ + θ0 ).
Proposition
∀θ ∈ R R(θ)−1 = t R(θ) = R(−θ).
dém. :
R(θ)−1 se détermine aisément sachant R(θ) ∈ O2 (R)
Théorème
Pour toute matrice M ∈ SO2 (R), il existe un réel θ unique à 2π près vérifiant
cos θ − sin θ
M=
sin θ cos θ
dém. :
Unicité à 2π près car R(θ) = R(θ0 ) ⇔ θ = θ0 [2π].
Existence :
Soit
a b
M= ∈ SO2 (R)
c d
Puisque a2 + c2 = 1, il existe θ ∈ R tel que a = cos θ et b = sin θ.
On a (a − d)2 + (b + c)2 = a2 + d2 − 2ad + b2 + c2 − 2bc.
Or a2 + c2 = b2 + d2 = 1 et det M = ad − bc = 1 donc (a − d)2 + (b + c)2 = 0
On en déduit a = d, c = −b puis M = R(θ).
Corollaire
SO2 (R) = {R(θ)/θ ∈ R} est un groupe commutatif.
dém. :
Car les matrices de rotation commutent entre elles.
dém. :
Soient B et B 0 deux bases orthonormées directes de E et P la matrice de passage de B à B 0 .
Puisque B et B 0 sont orthonormée directe P ∈ SO2 (R).
Notons A et A0 les matrices de l’endomorphisme r dans les bases B et B 0 .
Ces matrices appartiennent à SO2 (R).
Par la formule de changement de base, A0 = P −1 AP .
Or A, P ∈ SO2 (R) et le groupe (SO2 (R), ×) est commutatif donc A0 = P −1 P A = A.
Ainsi, la représentation de l’endomorphisme r est la même dans toute base orthonormée directe choisie
et puisque celle-ci est une matrice de SO2 (R), c’est une matrice R(θ) avec θ déterminé de façon unique
à 2π près.
Définition
L’automorphisme orthogonale positif représenté par la matrice R(θ) dans les bases
orthonormées directes du plan E est appelée rotation d’angle θ et est noté Rotθ .
Proposition
∀θ, θ0 ∈ R, Rotθ = Rotθ0 ⇔ θ = θ0 [2π]
∀θ, θ0 ∈ R, Rotθ ◦ Rotθ0 = Rotθ+θ0 = Rotθ0 ◦ Rotθ
∀θ ∈ R, Rot−1
θ = Rot−θ .
dém. :
Il suffit de transposer matriciellement les énoncés.
Corollaire
SO(E) = {Rotθ /θ ∈ R} est un groupe abélien.
V = Rotθ (U )
x2 + y 2 = 1
Remarque Nous avons ici une définition rigoureuse de la notion d’angle orienté formé par deux
vecteurs non nuls d’un plan. Cette définition a été possible grâce à l’introduction d’un produit scalaire et
d’une orientation du plan.
Attention : La notion d’angle orienté ne peut être introduite que dans un plan euclidien et celui-ci doit
être préalablement orienté.
Remarque Si l’on inverse l’orientation du plan, les bases directes deviennent indirectes et on peut
montrer que l’angle d’une rotation est transformée en son opposé. En conséquence, les angles orientés
sont eux aussi transformés en leur opposé.
Exemple Pour tout vecteur non nul u du plan E, on a (u, Rotθ (u)) = θ [2π].
En particulier (u, u) = 0 [2π] et (u, −u) = π [2π].
12.5.3.2 Propriétés
Proposition
∀u, v ∈ E\ {0}, ∀λ, µ ∈ R+? , (λu, µv) = (u, v) [2π].
dém. :
Les vecteurs U et V sont les mêmes dans le cas où l’on étudie l’angle (u, v) ou dans le cas où on étudie
l’angle (λu, λv).
Remarque La notion d’angle orientée est liée à la direction et au sens des vecteurs en jeux et non à leur
longueur.
Théorème
∀u, v, w ∈ E\ {0}, (u, v) = (u, w) + (w, v) [2π]
dém. :
Posons U = u/kuk , V = v/kvk , W = w/kwk.
Notons α = (u, w) [2π] et β = (w, v) [2π].
On a W = Rotα (U ) et V = Rotβ (W ) donc V = (Rotβ ◦ Rotα )(U ) = Rotβ+α (U ).
On en déduit (u, v) = α + β [2π].
Corollaire
∀u, v ∈ E\ {0}, (v, u) = −(u, v) [2π].
dém. :
(u, v) + (v, u) = (u, u) = 0 [2π]
Proposition
Soient u, v ∈ E\ {0} et θ = (u, v) [2π]
On a (u | v) = kuk kvk cos θ et Det(u, v) = kuk kvk sin θ.
De plus ces deux relations déterminent θ à 2π près.
dém. :
Posons U = u/kuk, V = v/kvk.
Notons θ = (u, v) [2π] de sorte que V = Rotθ (U ).
Remarque Dans le cadre du plan géométrique, la notion d’angle orienté ci-dessus se confond avec la
notion usuelle précédemment présentées.
Au final un écart angulaire, ou son opposé, est une mesure de l’angle orienté de deux vecteurs.
D0 = Rotθ (D)
Définition
Ce réel θ, défini à π près, est appelé mesure de l’angle orienté de D à D0 .
On note θ = (D, D0 ) [π] et on visualise cet angle de droite comme dans l’une des quatre
figures suivantes
Remarque Pour déterminer θ, on mesure à π près l’angle orienté entre deux vecteurs directeurs de D
et D0 .
Proposition
Soient D, D0 , D00 des droites vectorielles de E.
(D, D0 ) + (D0 , D00 ) = (D, D00 ) [π],
(D0 , D) = −(D, D0 ) [π],
D⊥D0 ⇔ (D, D0 ) = π/2 [π],
D = D0 ⇔ (D, D0 ) = 0 [π].
dém. :
Soient u, v, w des vecteurs directeurs des droites D, D0 , D00 respectivement. On a
(D, D0 ) + (D0 , D00 ) = (u, v) + (v, w) = (u, w) = (D, D00 ) [π]
(D0 , D) = (v, u) = −(u, v) = (D, D0 ) [π]
D⊥D0 ⇔ (u | v) = 0 ⇔ (u, v) = π/2 [π] ⇔ (D, D0 ) = π/2 [π]
et
D = D0 ⇔ (u, v) liée ⇔ (u, v) = 0 [π] ⇔ (D, D0 ) = 0 [π]
De plus s correspond alors à la réflexion par rapport à la droite vectorielle dirigée par le vecteur
u = cos(ϕ/2)i + sin(ϕ/2)j.
dém. :
Soit
a b
M = MatB (s) = ∈ O2 (R)\SO2 (R)
c d
Comme a2 + b2 = 1, il existe ϕ ∈ R tel que a = cos ϕ et b = sin ϕ.
Or (a + d)2 + (b − c)2 = a2 + b2 + c2 + d2 + 2(ad − bc)
avec a2 + b2 = 1, c2 + d2 = 1 et ad − bc = det M = −1 donc
(a + d)2 + (b − c)2 = 0.
On en déduit c = sin ϕ, d = − cos ϕ puis
cos ϕ sin ϕ
M=
sin ϕ − cos ϕ
De plus
Considérons σ la réflexion par rapport à la droite vectorielle engendrée par le vecteur unitaire u =
cos(ϕ/2)i+sin(ϕ/2)j. Pour tout vecteur x de E, on a σ(x) = 2(x | u)u−x donc σ(i) = 2 cos2 (ϕ/2) − 1 i+
2 cos (ϕ/2) sin(ϕ/2)j = cos(ϕ)i + sin(ϕ)j
et σ(j) = 2 cos (ϕ/2) sin(ϕ/2)i + 2 sin2 (ϕ/2) − 1 j = sin(ϕ)i − cos(ϕ)j.
On en déduit que les applications linéaires σ et s prennent les mêmes valeurs sur i et j et sont donc égales.
12.5.5 Classification des automorphismes orthogonaux du plan
Les résultats qui précèdent se synthétisent de la façon suivante
Théorème
Les automorphismes orthogonaux positifs du plan sont les rotations vectorielles, celles-ci
commutent entres elles et ont même représentation dans toute base orthonormée directe.
Les automorphismes orthogonaux négatifs du plan sont les réflexions.
Corollaire
La composée de deux rotations est une rotation.
La composée de deux réflexions est une rotation.
La composée d’une rotation et d’une réflexion est une réflexion.
dém. :
La composée de deux automorphismes orthogonaux et un automorphisme orthogonal et le signe de
son déterminant s’obtient par le produit des signes des déterminants des automorphismes orthogonaux
composés.
Corollaire
Toute rotation du plan peut s’écrire comme produit de deux réflexions, l’une d’elle étant choisie
de manière quelconque.
dém. :
Soient r une rotation et σ une réflexion quelconque.
Posons σ 0 = r ◦ σ et σ 00 = σ ◦ r.
σ 0 et σ 00 sont des réflexions et on a r = σ 0 ◦ σ −1 = σ 0 ◦ σ et r = σ −1 ◦ σ 00 = σ ◦ σ 00 ..
Corollaire
Tout automorphisme orthogonal du plan peut s’écrire comme un produit d’au plus deux
réflexions.
dém. :
Un automorphisme orthogonal du plan est :
- soit une réflexion ;
- soit une rotation, et cette dernière peut s’écrire comme produit de deux réflexions.
12.5.6 Composition d’automorphismes orthogonaux.
Théorème
Les rotations du plan conservent les angles orientés tandis que les réflexions du plan les
changent en leur opposé.
dém. :
Soient u, v deux vecteur unitaires de E et θ = (u, v) [2π]. On a v = Rotθ (u).
Soit r une rotation du plan.
r(v) = (r ◦ Rotθ )(u) = (Rotθ ◦ r)(u) donc (r(u), r(v)) = θ [2π].
Soit σ une réflexion du plan.
Posons σ 0 = σ ◦ Rotθ . σ 0 est une réflexion et Rotθ = σ ◦ σ 0 .
σ(v) = σ ◦ Rotθ (u) = σ 0 (u) = (σ 0 ◦ σ)(σ(u)).
Or σ 0 ◦ σ = (σ 0−1 ◦ σ −1 ) = (σ ◦ σ 0 )−1 = Rot−1
θ = Rot−θ .
donc (σ(v), σ(u)) = −θ [2π].
Proposition
Soient σ et σ 0 deux réflexions par rapport à deux droites D et D0 .
On a σ 0 ◦ σ = Rot2θ avec θ = (D, D0 ) [π].
dém. :
σ 0 ◦ σ est une rotation, reste à déterminer son angle.
Soient u et v des vecteurs directeurs de D et D0 .
On a (u, v) = θ [π].
Calculons l’angle de la rotation σ 0 ◦ σ en évaluant
(u, σ 0 ◦ σ(u)) = (u, σ 0 (u)) [2π]
Par la relation de Chasles
(u, σ 0 ◦ σ(u)) = (u, v) + (v, σ 0 (v)) [2π]
Or
(v, σ 0 (u)) = (σ 0 (v), σ 0 (u)) = −(v, u) [2π]
donc
(u, σ 0 ◦ σ(u)) = 2(u, v) = 2θ [2π].
Proposition
Soient r une rotation d’angle θ et σ une réflexion par rapport à D.
r ◦ σ est la réflexion par rapport à D0 = Rotθ/2 (D)
σ ◦ r est la réflexion par rapport à D00 = Rot−θ/2 (D).
dém. :
Posons σ 0 et σ 00 les réflexions par rapport aux droites D0 et D00 respectivement.
Puisque (D, D0 ) = θ/2 [π], σ 0 ◦ σ = Rotθ = r et donc σ 0 = r ◦ σ.
Puisque (D00 , D) = θ/2 [π], σ ◦ σ 00 = Rotθ = r et donc σ 00 = σ ◦ r.
on dit qu’on a muni le plan P de l’orientation induite de celle de D. En effet on peut montrer que cette
orientation est indépendante de la manière dont on a complété u en une base orthonormée directe.
Remarque Si l’on inverse l’orientation sur D, l’orientation induite sur P est-elle aussi inversée.
Définition
L’application f ainsi définie est appelée rotation d’axe dirigé et orienté par u et d’angle θ.
On note f = Rotu,θ .
Proposition
f est un endomorphisme vérifiant fD = IdD et fP = Rotθ .
dém. :
f est linéaire par opération sur les applications linéaires.
Les restrictions affirmées sont immédiates sachant pD = IdD , pP = 0̃, qD = 0̃ et qP = IdP .
Proposition
Si θ = 0 [2π] alors f = Id.
Si θ 6= 0 [2π] alors les vecteurs invariants par f sont ceux de D.
dém. :
Si θ = 0 [2π] alors Rotθ = IdP donc f (x) = p(x) + q(x) = x pour tout x ∈ E.
Si θ 6= 0 [2π] alors pour x ∈ E,
f (x) = x ⇔ Rotθ (q(x)) = q(x).
Or le vecteur nul est le seul vecteur invariant par Rotθ donc
f (x) = x ⇔ q(x) = 0 ⇔ x ∈ D
Théorème
La matrice de l’endomorphisme f dans une base orthonormée directe de E de la forme B =
(u, v, w) est
1 0 0
0 cos θ − sin θ
0 sin θ cos θ
dém. :
f (u) = u, f (v) = Rotθ (v) et f (w) = Rotθ (w).
Or (v, w) est une base orthonormée directe du plan P donc la matrice de Rotθ dans la base (v, w) est
cos θ − sin θ
sin θ cos θ
Proposition
∀θ, θ0 ∈ R, Rotu,θ = Rotu,θ0 ⇔ θ = θ0 [2π]
∀θ, θ0 ∈ R, Rotu,θ ◦ Rotu,θ0 = Rotu,θ+θ0 = Rotu,θ0 ◦ Rotu,θ .
∀θ, θ0 ∈ R, Rot−1
u,θ = Rotu,−θ .
dém. :
Immédiat par calcul matriciel.
Remarque Si on inverse l’orientation de D, l’orientation induite sur P l’est aussi et les mesures
angulaires dans P sont alors changées en leur opposée. Par suite Rotu,θ = Rot−u,−θ .
La représentation matricielle précédente de l’endomorphisme f = Rotu,θ a été obtenue dans une base
adaptée à f , plus précisément une base orthonormée directe dont le premier vecteur est u. Voyons un
résultat permettant d’obtenir la matrice de f dans une base orthonormée différente.
Proposition
Soit f la rotation d’axe D dirigé et orienté par un vecteur unitaire u et d’angle θ. ∀x ∈
D⊥ , f (x) = cos(θ)x + sin(θ)u ∧ x.
dém. :
Cas x = 0 : ok.
Cas x 6= 0 :
x u∧x
Posons i = et j = u ∧ i = .
kxk kxk
La famille B = (i, j) est une base orthonormée directe du plan P = D⊥ .
Pour x ∈ P , f (x) = Rotθ (x) = kxk Rotθ (i) = kxk (cos θ.i + sin θ.j) = cos θ.x + sin θ.(u ∧ x).
Exemple Soient B = (i, j, k) une base orthonormée directe de E et f la rotation d’axe D dirigé et
1
orienté par u = √ (i + j − k) et d’angle θ = π/3.
3
Formons la matrice de f dans la base B.
Notons p la projection orthogonale sur D et q celle sur D⊥ .
Puisque
f (x) = f (p(x)) + f (q(x)) = p(x) + f (q(x))
puis
f (x) = cos(θ)x + (1 − cos θ)(x | u)u + sin(θ)u ∧ x
et au final
1 1 1
f (x) = x + (x | i + j + k)(i + j + k) + (i + j − k) ∧ x
2 6 2
On en déduit
2 2 1
1
A = −1 2 −2
3
−2 1 2
12.6.2.3 Retournement
Définition
On appelle retournement (ou demi-tour) autour d’une droite vectorielle D la rotation d’axe D
et d’angle π. On la note RetD .
Proposition
RetD est aussi la symétrie orthogonale par rapport à la droite D.
dém. :
Soit B une base orthonormée directe adaptée à la supplémentarité de D et D⊥ .
Le retournement autour de la droite D et la symétrie considérée ont tous deux la même matrice dans B
1 0 0
0 −1 0
0 0 −1
Exemple Montrons que Toute rotation f d’axe D et d’angle θ peut s’écrire comme un produit de deux
retournements autour de droites orthogonales à D.
Considérons P = D⊥ muni de l’orientation induite.
Dans le plan P , la rotation d’angle θ peut s’écrire Rotθ = σ2 ◦ σ1 où σ1 et σ2 sont des réflexions du plan
P par rapport à des droites D1 et D2 de ce plan.
Notons s1 et s2 les retournements de l’espaces autour de ces deux droites.
Pour tout x ∈ D, f (x) = x et (s2 ◦ s1 )(x) = s2 (−x) = x.
Pour tout x ∈ P , f (x) = Rotθ (x) et (s2 ◦ s1 )(x) = s2 (σ1 (x)) = σ2 (σ1 (x)) = Rotθ (x).
Puisque tout vecteur x de E peut s’écrire a + b avec a ∈ D et b ∈ P , on a
f (x) = f (a) + f (b) = (s2 ◦ s1 )(a) + (s2 ◦ s1 )(b) = (s2 ◦ s1 )(x).
Lemme
Soient F et G deux sous-espaces vectoriels supplémentaires d’un K-espace vectoriel E et
f, g ∈ L(E).
Si ∀x ∈ F, f (x) = g(x) et ∀x ∈ G, f (x) = g(x) alors f = g.
dém. :
Pour tout x ∈ E, on peut écrire x = a + b avec a ∈ F et b ∈ G.
On a alors f (x) = f (a) + f (b) = g(a) + g(b) = g(x).
Ainsi f = g.
Lemme
Soient f un automorphisme orthogonal d’un espace euclidien E et F = ker(f − Id) le sous-
espace vectoriel formé des vecteurs invariants par f .
L’espace F ⊥ est stable par f et fF ⊥ : F ⊥ → F ⊥ est un automorphisme orthogonal de F ⊥
dont le vecteur nul est le seul vecteur invariant.
dém. :
Affirmer que F ⊥ est stable par f signifie f (F ⊥ ) ⊂ F ⊥ .
Soit y ∈ f (F ⊥ ). Il existe x ∈ F ⊥ tel que y = f (x).
Pour tout a ∈ F , on a alors (y | a) = (f (x) | f (a)) = (x | a) = 0 car x ∈ F ⊥ et a ∈ F .
Ainsi f (F ⊥ ) ⊂ F ⊥ et donc F ⊥ est stable par f .
L’application restreinte fF ⊥ : F ⊥ → F ⊥ est alors un endomorphisme de F ⊥ qui conserve le produit
scalaire donc f|F ⊥ ∈ O(F ⊥ ).
Enfin, si x ∈ F ⊥ est un vecteur invariant par fF ⊥ alors x = f|F ⊥ (x) = f (x) donc x ∈ F puis
x ∈ F ∩ F ⊥ = {0}.
Lemme
Tout automorphisme orthogonal positif d’un espace vectoriel euclidien de dimension 3 admet
au moins un vecteur unitaire invariant.
dém. :
Soit f ∈ SO(E). Il suffit de montrer ker(f −Id) 6= {0} pour conclure à l’existence d’au moins un vecteur
unitaire invariant. Pour montrer ker(f − Id) 6= {0}, il suffit de vérifier det(f − Id) = 0 ce que nous allons
justifier matriciellement.
Soient B une base orthonormée de E et A la matrice de f dans B, A ∈ SO3 (R).
La matrice de f − Id est M = A − I3 .
On a t AM = t AA − t A = I − t A = −t M donc det(t AM ) = det(−t M ).
Or det(t AM ) = det A det M = det M et det(−t M ) = (−1)3 det M = − det M
donc det M = 0.
Par suite M n’est pas inversible et donc ker(f − Id) 6= {0}.
12.6.3.2 Classification des automorphismes orthogonaux de l’espace
Théorème
Soit f ∈ O(E) et F = ker(f − Id) le sous-espace vectoriel formé des vecteurs invariants
par f .
Si dim F = 3 alors f = Id.
Si dim F = 2 alors f est la réflexion de plan P = F .
Si dim F = 1 alors f est une rotation vectorielle autour de D = F .
Si dim F = 0 alors f est la composée commutative d’une réflexion par rapport à un plan P et
d’une rotation autour de sa droite normale D = P ⊥
dém. :
Puisque F est formé des vecteurs invariants par f , on a fF = IdF .
D’autre part fF ⊥ ∈ O(F ⊥ ) dont le seul vecteur invariant est le vecteur nul.
Cas dim F = 3.
On a F = E et donc f = Id.
Cas dim F = 2.
P = F est un plan et D = F ⊥ est une droite vectorielle.
Pour tout x ∈ D, f (x) appartient à la droite D et kf (x)k = kxk. On en déduit f (x) = x ou f (x) = −x.
Or, dans D = F ⊥ , seul le vecteur nul est invariant. On en déduit que f (x) = −x pour tout x ∈ D.
Puisque de plus, f (x) = x pour tout x ∈ P , on peut affirmer que f est la réflexion de plan P .
Cas dim F = 1.
D = F est une droite et P = F ⊥ est un plan vectoriel.
Puisque fP est un automorphisme orthogonal du plan P qui ne possède pas de vecteur invariant autre
que le vecteur nul, on peut affirmer que fP est une rotation du plan P (rappelons que les automorphismes
orthogonaux d’un plan euclidien sont les réflexions et les rotations)
Puisque de plus, f (x) = x pour tout x ∈ D, on peut affirmer que f est une rotation autour de la droite D.
Cas dim F = 0.
L’automorphisme orthogonal f ne peut être positif car un automorphisme orthogonal positif possède
au moins un vecteur invariant unitaire. Puisque det(−f ) = (−1)3 det f = − det f , l’endomorphisme
orthogonal −f est quant à lui positif et donc il existe un vecteur x ∈ E unitaire tel que f (x) = −x.
Considérons alors σ la réflexion par rapport au plan P = Vect(x)⊥ .
On a σ ◦ f ∈ SO(E) et (σ ◦ f )(x) = x.
De par l’étude ci-dessus, on peut affirmer :
- σ ◦ f = IdE (exclu car alors f = σ et F 6= {0}) ;
- σ ◦ f est une réflexion (exclu car alors f ∈ SO(E)) ;
- ou σ ◦ f est une rotation autour de la droite D = Vect(x).
Les deux premiers cas étant exclus, on obtient f = σ ◦ r avec r une rotation autour de D.
Enfin, puisque pour tout x ∈ D, (σ ◦ r)(x) = σ(x) = (r ◦ σ)(x) et, pour tout x ∈ P , (σ ◦ r)(x) =
r(x) = (r ◦ σ)(x), on peut affirmer σ ◦ r = r ◦ σ et donc f est la composée commutative d’une réflexion
par rapport à P et d’une rotation autour de D = P ⊥ .
Corollaire
Les automorphismes orthogonaux positifs de l’espace E sont les rotations.
Les automorphismes orthogonaux négatifs possédant d’autres vecteurs invariants que le
vecteur nul sont les réflexions.
Corollaire
La composée de deux rotations de l’espace est une rotation.
La composée de deux réflexions distinctes de l’espace est une rotation autour de la droite
intersection des plans de réflexion.
dém. :
La composée de deux automorphismes orthogonaux positifs est positive donc la composée de deux
rotations est une rotation.
La composée de deux automorphisme orthogonaux négatifs est positive donc la composée de deux
réflexions distinctes est une rotation. Puisque la droite intersection des deux plans de réflexion est invariante,
cette rotation opère autour de cette droite.
Corollaire
Toute rotation f d’axe D peut s’écrire comme produit de deux réflexions par rapport à des
plans contenant D l’une d’elles pouvant être choisie de manière quelconque.
dém. :
Soit σ une réflexion par rapport à un plan contenant l’axe D.
Posons σ 0 = σ ◦ f et σ 00 = f ◦ σ.
σ 0 et σ 00 sont des automorphismes orthogonaux négatifs vérifiant ∀x ∈ D, σ 0 (x) = x = σ 00 (x).
σ 0 et σ 00 sont donc des réflexions par rapport à des plans contenant D.
Puisque f = σ ◦ σ 0 et f = σ 00 ◦ σ, f apparaît comme la composée de deux réflexions par rapport à des
Les colonnes de A sont unitaires et deux à deux orthogonales donc A ∈ O3 (R) puis f ∈ O(E).
Soit u = xi + yj + zk ∈ E. Après résolution
f (u) = u ⇔ x + y − z = 0.
L’ensemble des vecteurs invariants par f est un plan, on en déduit que f est la réflexion par rapport au
plan d’équation x + y − z = 0.
Exemple Soit
0 0 1
A= 1 0 0
0 1 0
Les colonnes de A sont unitaires et deux à deux orthogonales donc A ∈ O3 (R) puis f ∈ O(E).
Soit u = xi + yj + zk ∈ E. Après résolution
f (u) = u ⇔ x = y = z
L’ensemble des vecteurs invariants par f est la droite D dirigé par le vecteur unitaire
1
u = √ (i + j + k)
3
f est une rotation autour de la droite D.
Orientons la droite D par le vecteur u et déterminons l’angle θ de cette rotation.
Puisque trA = 2 cos θ + 1 et trA = 0, on obtient cos θ = −1/2.
Déterminons le signe de Det(u, i, f (i)).
1 1 0
1 1
Det(u, i, f (i)) = √ 1 0 1 = √
3 1 0 0 3
Exemple Soit
−2 2 1
1
A= 2 1 2
3
1 2 −2
Les colonnes de A sont unitaires et deux à deux orthogonales donc A ∈ O3 (R) puis f ∈ O(E).
Soit u = xi + yj + zk ∈ E. Après résolution
f (u) = u ⇔ x = z et y = 2z
L’ensemble des vecteurs invariants par f est la droite D dirigé par le vecteur unitaire
1
u = √ (i + 2j + k).
6
f est une rotation autour de la droite D.
Orientons la droite D par le vecteur u et déterminons l’angle θ de cette rotation.
Puisque trA = 2 cos θ + 1 et trA = −1, on obtient cos θ = −1.
Il est alors inutile de déterminer le signe de sin θ, on peut directement affirmer θ = π [2π] et conclure
que f est le retournement autour de la droite D = Vect(i + 2j + k).
Analyse
425
Chapitre 13
R×R→R R×R→R
et
(x, y) 7→ x + y (x, y) 7→ x × y
Ces opérations présentent des propriétés calculatoires qu’il est important de souligner.
Propriétés de l’addition :
Pour tout a, b, c ∈ R,
- a + b = b + a (commutativité) ;
- (a + b) + c = a + (b + c) noté a + b + c (associativité) ;
- a + 0 = 0 + a = a (0 est élément neutre) ;
- Pour tout a ∈ R il existe un unique d ∈ R tel que a + d = d + a = 0 (tout élément est symétrisable).
Cet élément d est noté −a et cela permet de définir l’opération de soustraction.
Propriétés de la multiplication :
Pour tout a, b, c ∈ R,
- ab = ba (commutativité) ;
- (ab)c = a(bc) noté abc (associativité) ;
- a × 1 = 1 × a = a (1 est élément neutre) ;
- a(b + c) = ab + ac (la multiplication est distributive sur l’addition) ;
- Pour tout a 6= 0 il existe un unique d ∈ R tel que ad = da = 1 (tout élément non nul est inversible).
Cet élément d est noté 1/a et cela permet de définir l’opération de division.
Attention : Il faut acquérir le réflexe : étudier la non nullité de ce par quoi on divise.
Remarque Les propriétés élémentaires précédentes permettent de retrouver les propriétés calculatoires
usuelles connues. Par exemple :
427
13.1. NOMBRES RÉELS
∀a ∈ R, a × 0 = 0 car a × 0 = a × (0 + 0) = a × 0 + a × 0 donc a × 0 = 0.
∀a, b ∈ R, (−a)b = −(ab) car (−a)b + (ab) = (−a + a)b = 0b = 0.
La relation 6 est compatible avec les opérations + et × dans le sens où pour tout a, b, c ∈ R,
a 6 b ⇔ a + c 6 b + c et (a 6 b et c > 0) ⇒ ac 6 bc
Remarque Les propriétés élémentaires précédentes permettent de retrouver les propriétés calculatoires
usuelles connues. Par exemple :
Si a 6 b alors −b 6 −a.
En effet −a = a − (a + b) 6 b − (a + b) = −a.
Si a > 0 alors 1/a > 0.
En effet a > 0 et 1/a 6 0 donne 1 6 0 qui est absurde.
Si c 6 0 alors −c > 0 donc −ac 6 −bc puis bc 6 ac.
Attention : Il faut acquérir le réflexe : étudier le signe de la quantité par laquelle on multiplie une
inégalité.
Proposition
1 1
Pour tout a, b ∈ R, si 0 < a 6 b ou si a 6 b < 0 alors 6 .
b a
dém. :
Si 0 < a 6 b ou a 6 b < 0 alors ab > 0 et donc 1/ab > 0.
Par suite
1 a b 1
= 6 =
b ab ab a
Attention : Le passage à l’inverse de quantité de même signe, renverse les inégalités : c’est la
décroissance de la fonction inverse.
Proposition
∀a ∈ R, a2 > 0.
dém. :
Si a > 0 alors a2 > a × 0 = 0 via multiplication d’une inégalité par un facteur positif.
Remarque En mathématique, il est usuel de manipuler des inégalités larges (car plus sûres) et de
réserver la manipulation d’inégalités strictes au cas où celles-ci sont significatives.
Proposition
Pour a ∈ R+ , (∀ε > 0, a 6 ε) ⇒ a = 0
dém. :
Par contraposée.
Supposons a 6= 0. On a a > 0.
Pour ε = a/2, on a ε > 0 et a > ε.
Ainsi, il existe ε > 0 tel que a > ε.
Proposition
Pour x, y ∈ R,
|x| > 0, |−x| = |x|, x 6 |x|,
|x| = 0 ⇔ x = 0,
|xy| = |x| |y| et si x 6= 0, |1/x| = 1/|x|.
dém. :
Les propriétés énoncés sont vraies que x soit positif ou non.
Proposition
Or
2xy 6 2 |xy| = 2 |x| |y|
donc
2 2 2
|x + y| 6 |x| + 2 |x| |y| + |y|
Ainsi
2 2
|x + y| 6 (|x| + |y|)
Cette comparaison de carrés engageant des quantités positives, on en déduit |x + y| 6 |x| + |y|.
De plus il y a égalité si, et seulement si, xy = |xy| i.e. xy > 0.
Corollaire
∀x, y ∈ R, ||x| − |y|| 6 |x − y|.
dém. :
|x| = |x − y + y| 6 |x − y| + |y| donc |x| − |y| 6 |x − y|.
Un raisonnement symétrique donne |y| − |x| 6 |y − x| = |x − y|.
On en déduit que ||x| − |y|| 6 |x − y|.
Attention : |x − y| n’est pas inférieur à |x| − |y|.
En revanche |x − y| = |x + (−y)| 6 |x| + |−y| 6 |x| + |y|.
Cette majoration a transformé le signe − en le signe +.
Définition
On appelle distance de x à y le réel d(x, y) = |y − x| ∈ R+ .
Proposition
Pour tout x, y, z ∈ R,
d(x, y) = 0 ⇔ x = y [séparation]
d(y, x) = d(x, y) [symétrie]
d(x, y) 6 d(x, z) + d(z, y) [inégalité triangulaire]
dém. :
d(x, y) = 0 ⇔ |x − y| = 0 ⇔ x − y = 0 ⇔ x = y,
d(y, x) = |x − y| = |y − x| = d(x, y),
d(x, y) = |y − x| = |y − z + z − x| 6 |y − z| + |z − x| = d(z, y) + d(x, z).
Définition
On appelle valeur approchée de a ∈ R à ε ∈ R+ près tout réel x vérifiant |x − a| 6 ε.
On note a = x à ε près.
Si x 6 a on dit que x est une valeur approchée par défaut.
Si x > a on dit que x est une valeur approchée par excès.
Remarque On notera que ce qui vient d’être écris est plus pertinent qu’écrire π ' 3, 14.
Proposition
La fonction x 7→ E(x) est croissante.
dém. :
Supposons x 6 y.
Puisque E(x) 6 x on E(x) 6 y.
Ainsi E(x) est un entier inférieur à y.
Or E(y) est le plus grand entier inférieur à y donc E(x) 6 E(y).
Proposition
Soient x ∈ R et n ∈ Z.
On a équivalence entre :
(i) n = E(x) ;
(ii) n 6 x < n + 1 ;
(iii) x − 1 < n 6 x.
dém. :
(i) ⇒ (ii) Supposons n = E(x).
Puisque n est le plus grand entier inférieur à x, on a d’une part n 6 x et d’autre part n + 1 qui n’est pas
inférieur à x donc n + 1 > x.
(ii) ⇒ (iii) Supposons n 6 x < n + 1.
On a n 6 x et x − 1 < (n + 1) − 1 = n donc x − 1 < n 6 x.
(iii) ⇒ (i) Supposons x − 1 < n 6 x.
L’entier n est inférieur à x et pour tout m ∈ Z, si m > n alors m > n + 1 > (x − 1) + 1 = x.
Ainsi n est le plus grand entier inférieur à x et donc n = E(x).
Proposition
Pour tout n ∈ Z et tout x ∈ R,
1 1 1
E(10n x) 6 x < n E(10n x) + n
10n 10 10
dém. :
Il suffit d’appliquer la propriété E(y) 6 y < E(y) + 1 avec y = 10n x.
1 1 1
Remarque Les réels n E(10n x) et n E(10n x) + n sont appelés des nombres décimaux car ils
10 10 10
correspondent au rapport d’un entier par une puissance de 10 ; les nombres décimaux correspondent aux
rationnels dont l’écriture décimale est finie.
Définition
1 1 1
Les nombres décimaux E(10n x) et n E(10n x) + n sont appelés parties décimales
10n 10 10
1
par défaut et par excès du réel x à la précision n = 10−n .
10
13.1.5 Intervalles de R
Définition
Soient a, b ∈ R tels que a 6 b.
On appelle intervalles de R les ensembles suivants :
[a, b] = {x ∈ R/a 6 x 6 b}, ]a, b] = {x ∈ R/a < x 6 b},
[a, b[ = {x ∈ R/a 6 x < b}, ]a, b[ = {x ∈ R/a < x < b},
]−∞, a] = {x ∈ R/x 6 a}, ]−∞, a[ = {x ∈ R/x < a},
[a, +∞[ = {x ∈ R/x > a}, ]a, +∞[ = {x ∈ R/x > a},
R et ∅.
Les intervalles du type [a, b] , [a, +∞[ , ]−∞, a] , R et ∅ sont dits des intervalles fermés.
Les intervalles du type ]a, b[ , ]−∞, a[ , ]a, +∞[ , R et ∅ sont dits des intervalles ouverts.
Les intervalles du type [a, b[ et ]a, b] sont dits semi-ouverts.
Les intervalles du type [a, b] sont appelés segments.
Théorème
Soit I ⊂ R. On a équivalence entre :
(i) I est un intervalle de R ;
(ii) ∀a, b ∈ I tels que a 6 b, on a [a, b] ⊂ I.
dém. :
(i) ⇒ (ii) C’est immédiat
(ii) ⇒ (i) Supposons (ii)
Si I = ∅ alors I est un intervalle.
Supposons désormais I 6= ∅ et considérons un élément x ∈ I.
Posons ensuite I + = I ∩ [x, +∞[ et I − = I ∩ ]−∞, x] de sorte que I = I + ∪ I − .
Etudions la partie I + .
Cas I + n’est pas majoré :
Nous allons montrer que I + = [x, +∞[.
On a déjà I + ⊂ [x, +∞[.
Inversement, soit t ∈ [x, +∞[.
Comme I + n’est pas majoré par t, il existe y ∈ I + tel que t < y.
Mais on a alors x ∈ I, y ∈ I avec x 6 y donc [x, y] ⊂ I.
Or t ∈ [x, y], donc t ∈ I puis t ∈ I + .
Ainsi [x, +∞[ ⊂ I + ce qui permet, par double inclusion de conclure I + = [x, +∞[.
Cas I + est majoré :
Posons b = sup I + et montrons que I + = [x, b[ ou I + = [x, b].
Puisque I + est majoré par b, on a déjà I + ⊂ [x, b].
Montrons maintenant que [x, b[ ⊂ I + .
Soit t ∈ [x, b[. Comme t < b, t n’est pas un majorant de I + et donc il existe y ∈ I + tel que t < y.
Mais on a alors x ∈ I, y ∈ I avec x 6 y donc [x, y] ⊂ I.
Or t ∈ [x, y], donc t ∈ I puis t ∈ I + . Ainsi [x, b[ ⊂ I + ⊂ [x, b].
Selon que b appartient ou non à I + on a : I + = [x, b[ ou I + = [x, b].
Finalement on a montré que I + est de l’une des trois formes suivantes : [x, +∞[ , [x, b[ ou [x, b] (avec
b ∈ R ).
En procédant de manière symétrique, on montre que I − est de l’une des trois formes suivantes :
]−∞, x] , ]a, x] ou [a, x] (avec a ∈ R ).
Dans chacun des neuf cas alors possibles, I = I + ∪ I − est un intervalle.
Remarque Les intervalles correspondent aux parties de R « sans trous » ; on dit que les intervalles de
R sont ses parties convexes.
Définition
Un intervalle I est dit non singulier s’il contient au moins deux points, i.e. qu’il n’est ni vide,
ni réduit à un point.
Proposition
Tout intervalle non singulier contient des nombres rationnels et irrationnels.
dém. :
Soit I un intervalle non singulier et a < b deux points de I.
Déterminer r = p/q ∈ Q tel que a < r < b revient à déterminer q tel que l’intervalle ]qa, qb[ contient un
entier.
Soit q ∈ N? tel que q(b − a) > 1 et p = E(qa) + 1.
On a qa < p < qb donc r = p/q ∈ ]a, b[ ⊂ I.
Ainsi, l’intervalle I contient un nombre rationnel. √
Pour montrer l’existence d’irrationnels dans I, exploitons l’irrationalité connue de 2. √
0 0
√ même raisonnement qu’au dessus, on peut affirmer qu’il existe r ∈ Q tel que a + 2 < r <
Par le
b + 2. √
En considérant s = r0 − 2 on a a < s < b donc s ∈ I avec s ∈ R\Q.
Exemple Les mesures d’angles orientés sont des réel égaux modulo 2π.
Proposition
Soient x, y, z ∈ R.
On a x = x [α]
Si x = y [α] alors y = x [α].
Si x = y [α] et y = z [α] alors x = z [α].
dém. :
x = x + 0.α donc x = x [α].
Si x = y [α] alors on peut écrire x = y + kα avec k ∈ Z et alors y = x − kα avec −k ∈ Z donc
y = x [α].
Si x = y [α] et y = z [α] alors on peut écrire x = y + kα et y = z + `α avec k, ` ∈ Z et alors
x = z + (k + `)α avec k + ` ∈ Z donc x = z [α].
Proposition
Soient x, y, x0 , y 0 ∈ R.
Si x = x0 [α] et y = y 0 [α] alors
dém. :
On peut écrire x = x0 + kα et y = y 0 + `α avec k, ` ∈ Z.
On a alors x + y = x0 + y 0 + (k + `)α avec k + ` ∈ Z donc x + y = x0 + y 0 [α].
Aussi −x = −x0 + (−k)α avec −k ∈ Z donc −x = −x0 [α].
Enfin λx = λx0 + k(λα) avec k ∈ Z donc λx = λx0 [λα].
Attention : On ne peut pas multiplier entre elles les relations de congruences réelles.
5x = x − 2 [4] ⇔ 4x = −2 [4]
∀x ∈ R, −∞ 6 x, x 6 +∞ et − ∞ 6 +∞
Définition
L’écriture z = a + i.b est appelée forme algébrique du complexe z.
Les réels a et b sont respectivement appelés parties réelle et imaginaire de z.
On note a = Re(z) et b = Im(z).
Proposition
∀z, z 0 ∈ C, Re(z + z 0 ) = Re(z) + Re(z 0 ) et Im(z + z 0 ) = Im(z) + Im(z 0 ).
∀z, z 0 ∈ C, Re(zz 0 ) = Re(z)Re(z 0 ) − Im(z)Im(z 0 ) et Im(zz 0 ) = Re(z)Im(z 0 ) + Re(z 0 )Im(z).
dém. :
On peut écrire z = a + ib et z 0 = a0 + ib0 avec a, b, a0 , b0 ∈ R.
On a alors z + z 0 = (a + a0 ) + i(b + b0 ) avec a + a0 , b + b0 ∈ R.
On en déduit Re(z + z 0 ) = Re(z) + Re(z 0 ) et Im(z + z 0 ) = Im(z) + Im(z 0 ).
On a aussi zz 0 = (aa0 − bb0 ) + i(ab0 + a0 b) avec aa0 − bb0 , ab0 + a0 b ∈ R.
On en déduit Re(zz 0 ) = Re(z)Re(z 0 ) − Im(z)Im(z 0 ) et Im(zz 0 ) = Re(z)Im(z 0 ) + Re(z 0 )Im(z).
Remarque Par la notion d’affixe, à tout nombre complexe correspond un point du plan et à tout point
correspond un nombre complexe. Cela permet de visualiser C tel un plan :
Définition
On appelle vecteur d’affixe z le vecteur ~u de composantes (a, b) avec a = Re(z) et b = Im(z).
On note ~u(z) pour signifier que ~u est le vecteur d’affixe z.
Proposition
Si ~u est d’affixe z et ~v d’affixe z 0 alors ~u + ~v est d’affixe z + z 0 .
Si ~u est d’affixe z et λ un réel alors λ.~u est d’affixe λz.
−−→
Si M est d’affixe est z alors OM est d’affixe z et inversement.
−−−→
Si M est d’affixe z et M 0 d’affixe z 0 alors M M 0 est d’affixe z 0 − z.
dém. :
C’est immédiat en raisonnant via les composantes.
Proposition
Si M est d’affixe z alors le point M 0 d’affixe −z est le symétrique de M par rapport à O.
dém. : −−−→
−−→
Par les affixes, OM = −OM 0 .
Proposition
Si M est d’affixe z et a ∈ C alors le point M 0 est l’image de M par la translation de vecteur ~u
d’affixe a.
13.2.3 Conjugaison
Définition
On appelle conjugué de z = a + ib ∈ C (avec a, b ∈ R ) le complexe z̄ = a − i.b.
Proposition
Si M est d’affixe z alors le point M 0 d’affixe z̄ est le symétrique de M par rapport à l’axe (Ox).
dém. :
Le point M a pour coordonnées (a, b) et le point M 0 a pour coordonnées (a, −b).
Proposition
∀z ∈ C, z̄¯ = z.
dém. :
On peut écrire z = a + ib avec a, b ∈ R.
On a alors z̄ = a − ib = a + i(−b) avec a, −b ∈ R et donc z̄¯ = a + ib = z.
Proposition
0 0 0 1 1
∀z, z ∈ C, z + z0 = z̄ + z̄ , zz 0 6 0,
= z̄ z̄ et, si z = = .
z z̄
dém. :
On peut écrire z = a + ib et z 0 = a0 + ib0 avec a, b, a0 , b0 ∈ R.
On a z + z 0 = (a + a0 ) + i(b + b0 ) avec a + a0 ∈ R et b + b0 ∈ R,
donc z + z 0 = (a + a) − i(b + b0 ) = z̄ + z¯0 .
On a zz 0 = (aa0 − bb0 ) + i(a0 b + ab0 ) avec aa0 − bb0 ∈ R et ab0 + a0 b ∈ R,
donc zz 0 = (aa0 − bb0 ) − i(a0 b + ab0 ) = (a − ib)(a0 − ib0 ) = z̄ z̄ 0 .
1 1 1 1
Enfin, puisque z × = 1, on a z̄ × = 1̄ = 1 donc = .
z z z z̄
Proposition
∀z ∈ C,
1 1
Re(z) = (z + z̄) et Im(z) = (z − z̄)
2 2i
dém. :
Si z = a + ib avec a, b ∈ R alors z̄ = a − ib et donc z + z̄ = 2a et z − z̄ = 2ib.
Remarque Pour montrer qu’un complexe z est réel, on peut montrer que z̄ = z.
Pour montrer qu’un complexe z est imaginaire pur, on peut montrer que z̄ = −z.
13.2.4 Module
Définition
On appelle module d’un complexe z = a + ib (avec a, b ∈ R ) le réel positif
p
|z| = a2 + b2
Remarque La notion de module d’un complexe prolonge celle de valeur absolue d’un réel, il n’y a donc
pas de conflit dans les notations.
Proposition
∀z ∈ C, |z| = 0 ⇔ z = 0.
dém. :
On peut écrire z = a + ib avec a, b ∈ R et on a alors
p
|z| = 0 ⇔ a2 + b2 = 0 ⇔ a2 + b2 = 0 ⇔ a = b = 0 ⇔ z = 0
Proposition
0 2 2 0 0
1 1
∀z, z ∈ C, |z| = z z̄ = |z̄| , |zz | = |z| |z | et, si z =
6 0, = .
z |z|
dém. :
On peut écrire z = a + ib avec a, b ∈ R.
2 2
On a alors z z̄ = (a + ib)(a − ib) = a2 + b2 = |z| et aussi z z̄ = z̄ z̄¯ = |z̄| .
2 2
Ainsi |z| = z z̄ = |z̄| .
0 2 2 2
Par suite |zz | = zz z̄ z̄ 0 = z z̄z 0 z̄ 0 = |z| |z 0 | .
0
0 0
Cette égalité de carrés engageant des quantités positives, on en déduit |zz | = |z| |z |.
1 1 1 1
De plus, si z 6= 0, z × = 1 donne |z| × = 1 et donc = .
z z z |z|
Proposition
∀z, z 0 ∈ C, |z + z 0 | 6 |z| + |z 0 |
De plus, il y a égalité si, et seulement si, les points d’affixe z et z 0 figurent sur une même
demi-droite d’origine O.
dém. :
Commençons par établir la propriété particulière :
∀u ∈ C, |1 + u| 6 1 + |u| avec égalité si, et seulement si, u ∈ R+
Soit u ∈ C.
On peut écrire u = a + ib avec a, b ∈ R.
On a alors
2 2
|1 + u| = (1 + a)2 + b2 = 1 + 2a + a2 + b2 + 2a + 1 = 1 + 2a + |u|
2 2 2
Puisque a = Reu 6 |Re(u)| 6 |u|, on obtient |1 + u| 6 1 + 2 |u| + |u| = (1 + |u|) .
Cette comparaison de carrés engageant des quantités positives, on en déduit |1 + u| 6 1 + |u|.
De plus il y a égalité si, et seulement si, Re(u) = |Re(u)| et |Re(u)| = |u| c’est-à-dire u ∈ R+ .
Démontrons maintenant la propriété de façon générale.
Soient z, z 0 ∈ C.
Cas z = 0 :
On a |z + z 0 | = |z 0 | = |z| + |z 0 |.
L’inégalité est donc vraie.
De plus c’est une égalité et les points d’affixes z et z 0 figurent sur une même demi-droite d’origine O.
Cas z 6= 0 :
En introduisant u = z 0 /z, on a
z 0
0
|z + z | = |z| 1 + = |z| |1 + u| 6 |z| (1 + |u|) = |z| + |z 0 |
z
Corollaire
∀z, z 0 ∈ C, ||z| − |z 0 || 6 |z − z 0 |
dém. :
Par l’inégalité triangulaire,
|z| = |z − z 0 + z 0 | 6 |z − z 0 | + |z 0 |
donc |z| − |z 0 | 6 |z − z 0 |. De façon symétrique, |z 0 | − |z| 6 |z 0 − z| = |z − z 0 |.
Définition
On appelle distance entre deux complexes z et z 0 le réel positif d(z, z 0 ) = |z 0 − z|.
Remarque Si M et M 0 sont les points d’affixes z et z 0 alors la distance entre z et z 0 est égale à la
longueur M M 0 .
Proposition
Soient z, z 0 , z 00 ∈ C.
d(z, z 0 ) = 0 ⇔ z = z 0 [séparation],
d(z 0 , z) = d(z, z 0 ) [symétrie],
d(z, z 0 ) 6 d(z, z 00 ) + d(z 00 , z 0 ) [inégalité triangulaire].
dém. :
d(z, z 0 ) = 0 ⇔ |z − z 0 | = 0 ⇔ z − z 0 = 0 ⇔ z = z 0 .
d(z 0 , z) = |z − z 0 | = |z 0 − z| = d(z, z 0 ).
d(z, z 0 ) = |z 0 − z| = |z 0 − z 00 + z 00 − z| 6 |z 0 − z 00 | + |z 00 − z| = d(z 00 , z 0 ) + d(z, z 00 ).
Définition
On appelle valeur approchée d’un complexe z0 à ε ∈ R+ près tout complexe z vérifiant
|z − z0 | 6 ε.
Remarque Si z = z0 à ε près alors le point d’affixe z appartient au disque de centre le point Ω d’affixe
z0 et de rayon ε.
13.2.5 Argument
13.2.5.1 Exponentielle imaginaire
Définition
On appelle exponentielle imaginaire d’angle θ ∈ R le complexe : eiθ = cos θ + i. sin θ.
Remarque Le point M d’affixe eiθ est le point du cercle trigonométrique déterminé par
−−→
(~i, OM ) = θ [2π].
Proposition
1
∀θ ∈ R, eiθ = 1 et iθ = e−iθ = eiθ .
e
dém. :
iθ 2
e = cos2 θ + sin2 θ = 1
et
1 eiθ iθ −iθ
eiθ
= 2 = e = cos θ − i sin θ = e
|eiθ |
Proposition
0
∀θ, θ0 ∈ R, eiθ = eiθ ⇔ θ = θ0 [2π]
dém. :
(
iθ 0 cos θ = cos θ0
e iθ
=e ⇔ ⇔ θ = θ0 [2π]
sin θ = sin θ0
Proposition
0 0
∀θ, θ0 ∈ R, eiθ .eiθ = ei(θ+θ ) .
dém. :
0
eiθ .eiθ = (cos θ + i sin θ)(cos θ0 + i sin θ0 )
En développant
0
eiθ .eiθ = (cos θ cos θ0 − sin θ sin θ0 ) + i(cos θ sin θ0 + sin θ cos θ0 )
puis
0 0
eiθ .eiθ = cos(θ + θ0 ) + i sin(θ + θ0 ) = ei(θ+θ )
Proposition
n
∀n ∈ Z, ∀θ ∈ R, eiθ = einθ i.e.
n
(cos θ + i. sin θ) = cos nθ + i. sin nθ
dém. : n
Par récurrence, montrons que pour n ∈ N, einθ = eiθ .
0
Pour n = 0, ei0 = 1 = eiθ .
Supposons la propriété établie au rang n > 0.
n+1 n
eiθ = eiθ eiθ = einθ eiθ = ei(n+1)θ
Récurrence établie.
Pour n ∈ Z− , n = −p avec p ∈ N.
n −p 1 1
eiθ = eiθ = p = = e−ipθ = einθ
(eiθ ) eipθ
Définition
On note U l’ensemble des complexes de module 1. Ainsi
U = {z ∈ C/ |z| = 1}
Exemple ∀θ ∈ R, eiθ ∈ U .
Théorème
Pour tout z ∈ U , il existe un unique réel θ unique à 2π près tel que z = eiθ .
dém. :
Unicité à 2π près :
0 0
Si z = eiθ et z = eiθ alors eiθ = eiθ et donc θ = θ0 [2π].
Existence :
Soit z ∈ U .
On peut écrire z = a + i.b avec a, b ∈ R.
2
Puisque |z| = a2 + b2 = 1, on a a2 6 1 et donc a ∈ [−1, 1].
Par suite, il existe α ∈ R tel que a = cos α.
Puisque b2 = 1 − a2 = sin2 α donc b = sin α ou b = − sin α.
Si b = sin α alors z = eiθ avec θ = α.
Si b = − sin α alors z = eiθ avec θ = −α.
Théorème
Pour tout z ∈ C? , il existe un réel θ unique à 2π près tel que
z = |z| eiθ
Définition
Tout réel θ tel que z = |z| eiθ est appelé argument du complexe z non nul.
On note arg(z) = θ [2π].
−−→
Remarque Si M est le point d’affixe z 6= 0 alors arg(z) = (~i, OM ) [2π].
iθ
Exemple arg(e iθ) =iθθ [2π].
iθ
En effet e = e e
√ Déterminons un argument de z = 1 + i.
Exemple
|z| = 2 donc
√ √ π √ iπ/4
1 1 π
1 + i = 2 √ + i√ = 2 cos + i sin = 2e
2 2 4 4
On en déduit
π
arg(1 + i) = [2π]
4
√
Exemple Déterminons un argument de z = 1 − i 3.
|z| = 2 donc
√ !
√ 1 3 π π
1−i 3=2 −i = 2 cos − + i sin − = 2e−iπ/3
2 2 3 3
√ π
On en déduit arg(1 + i 3) = − [2π].
3
Exemple Pour z ∈ C? ,
Par suite
z ∈ R? ⇔ arg(z) = 0 [π]
Proposition
Soient z, z 0 ∈ C? .
arg(z̄) = − arg(z) [2π],
arg(zz 0 ) = arg(z) + arg(z 0 ) [2π],
arg(−z) = arg(z) + π [2π],
arg(1/z) = − arg(z) [2π] et
∀n ∈ Z, arg(z n ) = n arg(z) [2π].
dém. : 0
Soient θ = arg(z) et θ0 = arg(z 0 ) [2π] de sorte que z = |z| eiθ et z 0 = |z 0 | eiθ .
z̄ = |z|eiθ = |z| e−iθ = |z̄| e−iθ donc arg(z̄) = −θ [2π].
0 0
zz 0 = |z| |z 0 | eiθ eiθ = |zz 0 | ei(θ+θ ) donc arg(zz 0 ) = θ + θ0 [2π].
−z = − |z| eiθ = |z| ei(θ+π) = |−z| ei(θ+π) donc arg(−z) = θ + π [2π].
1 1 1 1
= iθ
= e−iθ donc arg(1/z) = −θ [2π].
z |z| e z
n n
z n = |z| eiθ = |z n | einθ donc arg(z n ) = nθ [2π]
Théorème
Soient z, z 0 ∈ C.
exp(z) = exp(z̄), exp(z + z 0 ) = exp(z) exp(z 0 ),
exp(z) 6= 0 et 1/exp(z) = exp(−z).
dém. :
On peut écrire z = a + ib et z 0 = a0 + ib0 avec a, b, a0 , b0 ∈ R.
exp(z) = ea .eib = ea e−ib = exp(z̄).
0 0 0 0 0
exp(z + z 0 ) = exp((a + a0 ) + i(b + b0 ) = ea+a ei(b+b ) = ea eib ea eib = ez ez .
On en déduit 1 = exp(0) = exp(z) exp(−z) et donc exp(z) 6= 0 avec 1/exp(z) = exp(−z).
Théorème
Soient z, z 0 ∈ C.
exp(z) = exp(z 0 ) ⇔ ∃k ∈ Z, z = z 0 + 2ikπ
dém. :
( ⇐ ) Si z = z 0 + 2ikπ avec k ∈ Z alors exp(z) = exp(z 0 ) exp(2ikπ) = exp(z 0 ) car exp(2ikπ) = 1.
( ⇒ ) Supposons exp(z) = exp(z 0 ).
On peut écrire z = a + ib et z 0 = a0 + ib0 avec a, b, a0 , b0 ∈ R.
0 0
On a alors ea eib = ea eib . 0
En passant cette relation au module, on obtient ea = ea et donc a = a0 car l’exponentielle réelle prend
des valeurs deux0 à deux distinctes. 0 0 0
Sachant ea = ea 6= 0, la relation ea eib = ea eib donne eib = eib et donc b = b0 [2π].
Ainsi, il existe k ∈ Z tel que b = b0 + 2kπ et donc z = z 0 + 2ikπ.
p h √ √ i
Exemple Résolvons l’équation x = 2 − x2 d’inconnue x ∈ − 2, 2 .
p
Erreur à ne pas commettre, écrire x = 2 − x2 ⇔ x2 = 2 − x2 .
En effet l’élévation est au carré donne une implication ⇒ et non une équivalence.
1ère méthode : Démarche par implications.
p
x = 2 − x2 ⇒ x2 = 2 − x2
⇔ 2x2 = 2
⇔ x2 = 1
⇔ x = 1 ou x = −1
Vérification : x = 1 est solution mais x = −1 ne l’est pas.
2ème méthode : Démarche par équivalences :
p
x = 2 − x2 ⇒ x2 = 2 − x2 et x > 0
⇔ 2x2 = 2 et x > 0
⇔ x2 = 1 et x > 0
⇔x=1
z+i
Exemple Résolvons l’équation = i d’inconnue z ∈ C\ {1}.
z−1
z+i
=i ⇔ z + i = iz − i
z−1
⇔ z(1 − i) = −2i
−2i
⇔z= =1−i
1−i
az + b
La résolution d’une équation de la forme = Z est analogue, une telle équation est appelée
cz + d
équation homographique.
Remarque Pour rédiger la résolution d’une équation, il est parfois plus habile de rédiger verbalement
celle-ci plutôt que d’enchaîner les symboles ⇒ et ⇔. Voyons un exemple proposant une telle mise en
forme :
d’inconnue (x, y) ∈ R2 .
( (
x2 + y 2 = 1 x2 + y 2 = 1
⇔
xy + y 2 = 0 (x + y)y = 0
( (
x2 + y 2 = 1 x2 + y 2 = 1
⇔ ou
x+y =0 y=0
( (
2x2 = 1 x2 = 1
⇔ ou
y = −x y=0
( √ √ (
x = 1/ 2 ou x = −1/ 2 x = 1 ou x = −1
⇔ ou
y = −x y=0
d’inconnue (x, y, z) ∈ R3 .
Procédons par substitution.
x+y+z =1
x = 1 − y − z
2x − y + z = 2 ⇔ −3y − z = 0
x+y−z =3 −2z = 2
x = 1 − y − z
⇔ y = −z/3
z = −1
x = 5/3
⇔ y = 1/3
z = −1
d’inconnue (x, y) ∈ C2 .
Proposition
Si z ∈ Un alors |z| = 1, z̄ ∈ Un et ∀k ∈ Z, z k ∈ Un .
dém. :
n
z n = 1 donne |z| = 1 or |z| ∈ R+ donc |z| = 1.
z = 1 donne z n = 1 et donc z̄ n = 1.
n
Proposition
Pour tout k ∈ Z, les complexes ωk sont des racines n-ième de l’unité.
dém. :
ω n = e2iπ donc ω ∈ Un puis pour tout k ∈ Z, ωk = ω k ∈ Un .
Rqω0 = 1, ω1 = ω, ω2 = ω 2 , ..., ωn−1 = ω n−1 , puis
ωn = 1, ωn+1 = ω, ωn+2 = ω 2 , . . . , ω2n−1 = ω n−1 ,. . .
Proposition
∀k, ` ∈ Z, ωk = ω` ⇔ k = ` [n].
Par suite {ωk /k ∈ Z} = {ω0 , . . . , ωn−1 } et les ω0 , ..., ωn−1 sont deux à deux distincts.
dém. :
2kπ 2`π
ωk = ω` ⇔ = [2π] ⇔ k = ` [n]
n n
Théorème
Les racines n-ième de l’unité sont exactement les n complexes deux à deux distincts
ω0 , ω1 , ..., ωn−1
dém. :
Les ω0 , ω1 , . . . , ωn−1 sont des racines de l’unité deux à deux distinctes.
Inversement, soit z ∈ Un et θ un argument de z.
Comme |z| = 1, on a z = eiθ .
La relation z n = 1 donne alors einθ = 1 = ei0 donc nθ = 0 [2π] puis θ = 0 [2π/n].
2kπ
Ainsi il existe k ∈ Z tel que θ = puis z ∈ {ωk /k ∈ Z} = {ω0 , . . . , ωn−1 }.
n
Remarque Pour n > 3 les racines n-ième de l’unité sont les n sommets d’un polygone régulier inscrit
dans le cercle trigonométrique.
Proposition
Pour tout n > 2, la somme des racines n-ième de l’unité est nulle.
dém. :
Posons S = ω0 + · · · + ωn−1 .
ωS = ω1 + · · · + ωn = S car ωn = ω0 donc S = 0 puisque ω 6= 1.
2π
Exemple Calculons α = cos .
5
ème
Puisque la somme des racines 5 de l’unité est nulle, on a
√
−1 ± 5
On en déduit α = .
4
2π
Sachant cos > 0, on conclut
5 √
2π −1 + 5
cos =
5 4
Définition
Comme vu précédemment, on note j la racine cubique de l’unité e2iπ/3 .
Proposition
√
1 3 3
j =− +i , j = 1, j̄ = j 2 et 1 + j + j 2 = 0.
2 2
dém. : √
2iπ/3 2π 2π 1 3
j=e = cos + i sin =− +i .
3 3 2 2
3
j = 1 car j est racine cubique de l’unité.
2
j j̄ |j| 1 j3
j̄ = = = = = j 2 et enfin 1 + j + j 2 = 0 car la somme des racines cubiques de l’unité est
j j j j
nulle.
1+j
Exemple Simplifions
1 + j̄
1+j 1+j −j 2
= = = j.
1 + j̄ 1 + j2 −j
Théorème
Soit n ∈ N? et Z ∈ C? .
L’équation z n = Z possède exactement n solutions distinctes.
dém. :
On peut écrire
p Z = |Z| eiθ avec |Z| =
6 0 et θ = arg Z [2π].
Pour z0 = |Z|eiθ/n 6= 0, on a z0n = Z.
n
Soit z ∈ C.
z n = Z ⇔ z n = z0n
n
⇔ (z/z0 ) = 1
⇔ ∃k ∈ {0, 1, . . . n − 1} , z = z0 ωk
Notons zk = z0 ωk pour k ∈ {0, 1, . . . , n − 1}
Les solutions de l’équation z n = Z sont les complexes z0 , z1 , ..., zn−1 et ces derniers sont deux à deux
distinctes car z0 6= 0 et les ω0 , . . . , ωn−1 sont deux à deux distincts.
avec ωk = e2ikπ/n .
Les solutions de l’équation étudiée sont les ei(2k+1)π/n avec k ∈ {0, 1, . . . , n − 1}.
Ce système est délicat à résoudre sans faire intervenir une troisième équation. . .
2
L’équation z 2 = Z donne |z| = |Z| puis l’équation
p
x2 + y 2 = a2 + b2 (3)
On écrit z = x + iy avec x, y ∈ R.
z est solution de l’équation étudiée si, et seulement si,
2
x − y 2 = −3 (1)
2xy = 4 (2)
2
x + y2 = 5 (3)
avec ∆ = b2 − 4ac.
Si ∆ = 0 alors
b
z=−
2a
est la seule solution à l’équation étudiée, on dit que c’est une solution double.
Si ∆ 6= 0 alors, en considérant δ ∈ C tel que ∆ = δ 2 , l’équation possède deux solutions qui sont
−b + δ −b − δ
z1 = et z2 =
2a 2a
Proposition
Soient S et P deux nombres complexes.
Les couples (x, y) ∈ C2 solution du système
(
x+y =S
xy = P
sont ceux tels que x et y sont les deux racines de l’équation du second degré
z 2 − Sz + P = 0
dém. :
S−δ
Si x et y sont les deux solutions de l’équation z 2 − Sz + P = 0 alors, à l’ordre près, x = et
2
S+δ
y= avec δ 2 = S 2 − 4P . On en déduit x + y = S et xy = P .
2 (
x+y =S
Inversement, si (x, y) est solution du système alors (z − x)(z − y) = z 2 − Sz + P et donc
xy = P
x et y sont les deux solutions de l’équation z 2 − Sz + P = 0.
n
X n(n + 1)
Exemple i = 1 + 2 + ··· + n = .
i=1
2
En effet (1 + 2 + · · · + n) + (n + (n − 1) + · · · + 1) = (n + 1) + (n + 1) + · · · + (n + 1) = n(n + 1)
n(n + 1)
donc 1 + 2 + · · · + n =
2
X X X
Remarque Dans l’écriture ai , l’indice i joue un rôle muet. Ainsi ai = aj .
i∈I i∈I j∈I
n n n
X X X n(n + 1)
Exemple k= i= i= .
i=0 i=1
2
k=0
Proposition
Avec des notations immédiates,
X X X X X
(ai + bi ) = ai + bi et (λai ) = λ ai
i∈I i∈I i∈I i∈I i∈I
dém. : X X X
La relation (ai + bi ) = ai + bi s’obtient en réorganisant l’ordre des termes sommés.
i∈I i∈I i∈I
X X
La relation (λai ) = λ ai se justifie en factorisant par λ les termes de la première somme.
i∈I i∈I
Proposition
Si I et J sont des ensembles d’indices disjoints
X X X
ai = ai + ai
i∈I∪J i∈I i∈J
dém. : X X X
La relation ai = ai + ai se justifie en regroupant les termes sommés par paquets.
i∈I∪J i∈I i∈J
! !
X X X
Attention : En général ai bi 6= ai bi .
i∈I i∈I i∈I
dém. :
Soit u0 , . . . , un les termes consécutifs d’une suite arithmétique de raison r.
Pour k ∈ {0, 1, . . . , n}, uk = u0 + kr donc
n n n
X X X n(n + 1) u0 + un
uk = (u0 + kr) = (n + 1)u0 + r k = (n + 1)u0 + r = (n + 1)
2 2
k=0 k=0 k=0
Proposition
La somme des termes consécutifs d’une suite géométrique de raison q ∈ C\ {1} se détermine
par
1 − q (nb de termes)
(1er terme) ×
1−q
dém. :
Soit u0 , . . . , un les termes consécutifs d’une suite géométrique de raison q.
Pour k ∈ {01, . . . , n}, uk = u0 q k .
n
X n
X n
X
(1 − q) uk = u0 q k − u0 q k+1 = u0 − u0 q n+1
k=0 k=0 k=0
donc
n
X 1 − q n+1
uk = u0
1−q
k=0
Exemple Pour q ∈ C,
n 1 − q n+1
X
k si q 6= 1
q = 1−q
n+1 si q = 1
k=0
Exemple Pour x ∈ R,
n n
X X k 1 + (−1)n x2(n+1)
(−1)k x2k = −x2 =
1 + x2
k=0 k=0
car −x2 6= 1.
En effet ! !
n
X n
X
ikθ ikθ
Cn = Re e et Sn = Im e
k=0 k=0
k=0
eiθ − 1 eiθ/2 2i sin θ2 sin θ2
donc
(n+1)θ (n+1)θ
nθ sin 2 nθ sin 2
Cn = cos et Sn = sin
2 sin θ2 2 sin θ2
pour tout n ∈ N.
Pour n = 0, la propriété est vérifiée (sachant qu’une somme vide est nulle).
Supposons la propriété vérifiée au rang n > 0.
n+1 n
X
2
X n(n + 1)(2n + 1) (n + 1)(2n2 + n + 6n + 6)
k = k 2 + (n + 1)2 = + (n + 1)2 =
6 6
k=1 k=1
puis en factorisant
n+1
X (n + 1)(n + 2)(2n + 3)
k2 =
6
k=1
Récurrence établie.
1 1 1
Exemple Calculons + + ··· + .
1.2 2.3 n(n + 1)
n n n n
1 1 1 X 1 X 1 1 X 1 X 1
+ + ··· + = = − = −
1.2 2.3 n(n + 1) k(k + 1) k k+1 k k+1
k=1 k=1 k=1 k=1
Après simplification des termes communs aux deux sommes (on parle de télescopage)
1 1 1 1 n
+ + ··· + =1− =
1.2 2.3 n(n + 1) n+1 n+1
Proposition
Avec les notations qui précèdent
!
X X X X X
ai,j = ai,j = ai,j
(i,j)∈I×J i∈I j∈J j∈J i∈I
dém. :
Les trois membres de cette identité somment exactement les mêmes termes, ils sont donc égaux.
X
Exemple Pour m, n ∈ N? , calculons (i + j).
16i6n,16j6m
X n X
X m Xn X
m n X
X m
(i + j) = (i + j) = i + j
16i6n,16j6m i=1 j=1 i=1 j=1 i=1 j=1
m
X
Or i = i + i + · · · + i = mi donc
j=1
n X
m n n
X X X mn(n + 1)
i= mi = m i=
i=1 j=1 i=1 i=1
2
De même
n X
m
X nm(m + 1)
j=
i=1 j=1
2
On en déduit
X mn(m + n + 2)
(i + j) =
2
16i6n,16j6m
X
Exemple Pour n ∈ N? , calculons ij.
16i,j6n
X n
X Xn
ij = ij
16i,j6n i=1 j=1
n
X n
X
Or ij = i j donc
j=1 j=1
X n
X n
X
ij = i j
16i,j6n i=1 j=1
Or !
n
X n
X n
X n
X
te
i C te
i j = i×C =
i=1 j=1 i=1 i=1
donc ! n !2
n n
X X X X n2 (n + 1)2
ij = i j = i =
i=1 j=1 i=1
4
16i,j6n
X
Exemple Calculons ij.
16i6=j6n
X X X
ij = ij − ij
16i6=j6n 16i,j6n 16i=j6n
Or
n
X n2 (n + 1)2 X X n(n + 1)(2n + 1)
ij = et ij = i2 =
4 i=1
6
16i,j6n 16i=j6n
donc X 1
ij = (n − 1)n(n + 1)(3n + 2)
12
16i6=j6n
X
Exemple Calculons (i + j).
16i6j6n
Les indices (i, j) sur lesquels la sommation est réalisée correspondent au couple suivant
Ces couples peuvent être décrits en faisant varier j de 1 à n puis en faisant varier i de 1 à j.
Ainsi
X Xn X j
(i + j) = (i + j)
16i6j6n j=1 i=1
Or
j i j
X X X j(j + 1) 3j 2 + j
(i + j) = i+ j= + j2 =
i=1 i=1 i=1
2 2
donc
n n n
X X 3j 2 + j 3X 2 1X n(n + 1)2
(i + j) = = j + j=
j=1
2 2 j=1 2 j=1 2
16i6j6n
X n X
X n
Remarque La somme ... aurait aussi pu être réorganisée en ...
16i6j6n i=1 j=i
car les couples (i, j) peuvent être obtenus en faisant varier i de 1 à n puis en faisant varier j de i à n.
En revanche, on ne pouvait par réorganiser la somme
Xn X n
- en ... car il y a adjonction de nouveaux termes ;
i=1 j=1
j X
X n
- ni en ... car celle-ci n’a pas de sens à cause de l’indice j extérieur à la somme en j.
i=1 j=1
n
Y
Exemple n! = 1 × 2 × 3 × · · · × n = i.
i=1
En particulier, 1! = 1, 2! = 2, 3! = 6, 4! = 24, 5! = 120, 6! = 720.
Aussi 0! = 1.
Proposition
Avec des notations immédiates,
! ! !α
Y Y Y Y Y
ai bi = ai bi et aα
i = ai
i∈I i∈I i∈I i∈I i∈I
dém. : ! !
Y Y Y
La relation a i bi = ai bi s’obtient en réorganisant l’ordre des facteurs multipliés.
i∈I i∈I !α i∈I
Y Y
La relation aα
i = ai s’obtient en exploitant la propriété aα bα = (ab)α .
i∈I i∈I
Y Y Y
Attention : En général (ai + bi ) 6= ai + bi .
i∈I i∈I i∈I
n
Y n
Y n
Y n
Y
Exemple (λai ) = λ ai = λn ai .
i=1 i=1 i=1 i=1
n
Y k
Exemple Calculons P = (1 + a2 ) pour a ∈ C\ {1}.
k=0
n
P = (1 + a)(1 + a2 )(1 + a4 )(1 + a8 ) . . . (1 + a2 )
En répétant le procédé
n+1
(1 − a)P = 1 − a2
n+1
1 − a2
et finalement P = car a 6= 1.
1−a
n
Y
Exemple Exprimons (n + k) à l’aide de nombres factoriels
k=1
n
Y
(n + k) = (n + 1)(n + 2) . . . (2n)
k=1
n
Y (2n)!
Exemple Exprimons (2k + 1) = à l’aide de nombres factoriels
2n n!
k=0
n
Y
(2k + 1) = 1 × 3 × 5 × . . . × (2n + 1)
k=0
Or
n
Y n
Y
n
2 × 4 × . . . × (2n) = (2k) = 2 k = 2n n!
k=1 k=1
et donc
n
Y (2n)!
(2k + 1) =
2n n!
k=0
Définition
On appelle fonction réelle définie sur I toute application f : I → K.
On note F(I, R) l’ensemble des applications de I vers K.
Exemple f : x 7→ sin(1/x) est une fonction réelle définie sur ]0, +∞[.
Définition
On appelle alors graphe (ou courbe représentative) de f la courbe du plan géométrique
d’équation cartésienne y = f (x).
Définition
Une fonction f : I → R est dite paire (resp. impaire) si
Remarque Le graphe d’une fonction paire est symétrique par rapport à l’axe des ordonnées alors que le
graphe d’une fonction impaire est symétrique par rapport à l’origine du repère.
Définition
Une fonction f : I → R est dite T périodique (avec T ∈ R ) si
∀x ∈ I, x + T ∈ I et f (x + T ) = f (x)
x
Exemple La fonction x 7→ cos est 4π périodique.
2
Définition
Une fonction f : I → R est dite croissante si
13.5.1.2 Limite
Soient une fonction f : I → R et a un point de I ou une extrémité, éventuellement infinie, de I.
On définira ultérieurement la notion de limite finie ou infinie de f en a.
Retenons qu’on note indifféremment ` = lim f , ` = lim f (x) ou f (x) −−−→ ` pour signifier que ` ∈ R̄
a x→a x→a
est la limite de f en a.
Nous admettons, pour le moment, les résultats « intuitifs »d’opérations et de comparaison de limite.
13.5.1.3 Continuité et dérivabilité
Définition
Une fonction f : I → R est dite continue si pour tout a ∈ I, lim f (x) existe et vaut f (a).
x→a
Remarque Le graphe d’une fonction continue sur un intervalle peut être tracé « sans lever le crayon ».
Théorème
Soient f : I → R une fonction continue et a 6 b ∈ I.
Tout réel compris entre f (a) et f (b) possède un antécédent par f .
Définition
Une fonction f : I → R est dite dérivable si pour tout a ∈ I, la limite quand x → a de
f (x) − f (a)
x−a
existe dans R. On la note f 0 (a) ce qui permet de définir la fonction f 0 : I → R.
u0 √ u0
(eu )0 = u0 eu , (ln u)0 = , (cos u)0 = −u0 sin u, (sin u)0 = u0 cos u et ( u)0 = √
u 2 u
Proposition
Soit f : I → R une fonction continue.
Si pour tout x ∈ I, f 0 (x) > 0 (resp. f 0 (x) 6 0 ) alors f est croissante (resp. décroissante).
Si pour tout x ∈ I, f 0 (x) > 0 (resp. f 0 (x) < 0 ) sauf pour un nombre fini de valeurs alors f
est strictement monotone.
Définition
En itérant le processus de dérivation, on définit la notion de dérivée d’ordre k ∈ N? de f : I →
R par f (k) = ((f 0 )0 . . .)0 ( k fois). On note aussi f (0) = f appelée dérivée d’ordre 0 de f .
Définition
Pour k ∈ N, on dit que f : I → R est de classe C k si f (k) existe et est continue.
On dit que f est de classe C ∞ si f est indéfiniment dérivable.
Définition
On appelle primitive d’une fonction f : I → R, s’il en existe, toute fonction F : I → R
dérivable telle que F 0 = f .
Remarque Si F est primitive de f alors les autres primitives de f sont les fonctions de la forme
t 7→ F (t) + C te . On note Z
f (t) dt = F (t) + C te
Théorème
Toute fonction f : I → R continue, possède au moins une primitive F .
Définition
Soient f : I → R continue et a, b ∈ I. On appelle intégrale de f de a à b le réel
Z b
b
f (t)dt = [F (t)]a = F (b) − F (a)
a
Exemple On a
Z 1 1
n 1 1
x dx = xn+1 =
0 n+1 0 n+1
Z b
Remarque Le réel f (t)dt se comprend comme l’aire algébrique comprise entre la courbe Γf et
a
l’axe des abscisses (Ox).
Théorème
Soient f, g : I → R continues et a, b ∈ I.
Z b Z b Z b
f (t) + g(t) dt = f (t)dt + g(t)dt
a a a
Z b Z b
λf (t) dt = λ f (t) dt
a a
Si f 6 g et a 6 b alors
Z b Z b
f (t) dt 6 g(t) dt
a a
Définition
On appelle fonction complexe définie sur I toute application f : I → C.
On note F(I, C) l’ensemble des fonctions complexes définies sur I.
eit
Exemple f : t 7→ est une fonction complexe définie sur R.
t+i
Définition
Pour étudier une fonction f : I → C, on introduit les fonctions réelles Re(f ) : I → R et
Im(f ) : I → R définie par
Définition
On appelle conjuguée d’une fonction complexe f : I → C, la fonction f¯ : I → C définie par
f¯(t) = f (t).
Remarque Pour les fonctions complexes, on peut aussi définir les notions de parité et de périodicité
mais on ne peut parler de monotonie.
13.5.2.2 Limite
Soit f : I → C une fonction complexe et a un point de I, ou une extrémité éventuellement infinie de I.
Définition
On dit que f tend vers ` ∈ C en a si |f (t) − `| −−−→ 0.
t→a
On note alors f (t) −−−→ `, ` = lim f (t) ou ` = lim f .
t→a t→a a
eit
Exemple On a lim = 0.
t→+∞ t + i
En effet it
e
= √ 1
t + i − 0 →0
t2 + 1
Proposition
On a
Re(f (t)) −−−→ Re(`)
t→a
f (t) −−−→ ` ⇔
t→a Im(f (t)) −−−→ Im(`)
t→a
eit − 1
Exemple On a lim = i.
itt→0 t it
e −1 cos t − 1 e −1 sin t
En effet Re = −−−→ (cos)0 (0) = 0 et Im = −−−→ (sin)0 (0) = 1.
t t t→0 t t t→0
Proposition
Une fonction complexe f : I → C est dérivable si, et seulement si, les deux fonctions réelles
Re(f ) et Im(f ) le sont.
De plus, si tel est le cas,
f 0 (t) = (Ref )0 (t) + i.(Imf )0 (t)
Proposition
Une fonction f : I → C est de classe C k (avec k ∈ N ∪ {∞} ) si, et seulement si, les deux
fonctions réelles Re(f ) et Im(f ) le sont.
Définition
On appelle primitive d’une fonction f : I → C, s’il en existe, toute fonction F : I → C
dérivable telle que F 0 = f .
Remarque Si F est primitive de f alors les autres primitives de f sont les fonctions de la forme
t 7→ F (t) + C te . On note :
Z
f (t) dt = F (t) + C te
Exemple Pour a ∈ C? , Z
1 at
eat dt = e + C te
a
Proposition
Toute fonction f : I → C continue, possède au moins une primitive F .
Définition
Soient f : I → C continue et a, b ∈ I. On appelle intégrale de f de a à b le complexe
Z b
b
f (t)dt = [F (t)]a
a
Z 2π 2π
1 it
Exemple eit dt = e = 0.
0 i 0
∀x ∈ I, f (x) = an xn + · · · + a1 x + a0
Proposition
Soient n ∈ N, a0 , a1 , . . . , an ∈ C et b0 , b1 , . . . , bn ∈ C.
Si
∀x ∈ I, a0 + a1 x + · · · + an xn = b0 + b1 x + · · · + bn xn
alors
∀k ∈ {0, 1, . . . , n} , ak = bk
Par suite, il n’y a qu’une seule manière de décrire une fonction polynomiale par ses coefficients.
Définition
On appelle degré d’une fonction polynomiale non nulle, la plus grande puissance de la variable
intervenant dans sont expression. On le note deg f .
Définition
Une fonction f : I → K est dite rationnelle s’il existe deux fonctions polynomiales g, h : I →
K telles que
g(x)
∀x ∈ I, h(x) 6= 0 et f (x) =
h(x)
x3 − 1
Exemple x 7→ est une fonction rationnelle réelle définie sur R.
x2 + 1
Fonctions usuelles
14.1 Bijection
I et J désignent des intervalles non singuliers de R.
14.1.1 Définition
Définition
On dit qu’une fonction f : I → J est une bijection si tout y ∈ J admet un unique antécédent
par f dans I. En notant f −1 (y) cet antécédent, on définit une application f −1 : J → I appelée
bijection réciproque de f .
Proposition
Si f est une bijection de I vers J alors
∀x ∈ I, f −1 (f (x)) = x et ∀y ∈ J, f (f −1 (y)) = y
dém. :
Pour x ∈ I, x est antécédent de f (x) ∈ J par f et donc f −1 (f (x)) = x.
Pour y ∈ J, f −1 (y) est antécédent de y par f et donc f (f −1 (y)) = y.
Proposition
Si f est une bijection de I vers J alors f −1 réalise une bijection de J vers I et
(f −1 )−1 = f
dém. :
Soit x ∈ I. Montrons que x possède un unique antécédent par f −1 .
Unicité : Si y ∈ J est antécédent de x par f −1 alors x = f −1 (y) et donc y = f (x).
Existence : Pour y = f (x) ∈ J, f −1 (y) = f −1 (f (x)) = x.
Ainsi f −1 réalise une bijection de J vers I.
De plus, ce qui précède donne que pour tout x ∈ I, (f −1 )−1 (x) = f (x) et donc (f −1 )−1 = f .
473
14.1. BIJECTION
Remarque Une fonction continue strictement monotone réalise une bijection entre deux intervalles que
l’on peut déterminer à l’aide d’un tableau de variation.
Ainsi
f −1 : y 7→
p
y−1
14.1.2 Propriétés
Théorème
Si f est une bijection de I vers J alors les graphes de f et f −1 sont symétriques par rapport à
la droite d’équation y = x.
dém. :
Soient x ∈ I et y ∈ J.
Le point M de coordonnées (x, y) appartient au graphe de f si, et seulement si, y = f (x).
Ceci équivaut encore à l’équation x = f −1 (y) qui signifie que le point M 0 de coordonnées (y, x)
appartient au graphe de f −1 .
Puisque l’application qui transforme le point M en le point M 0 est la symétrie par rapport à la droite
d’équation y = x, les graphes de f et f −1 sont symétriques par rapport à cette droite.
Corollaire
Si f est impaire alors f −1 l’est aussi.
dém. :
« Par symétrie des graphes par rapport à l’origine ».
Corollaire
Si f est une bijection continue et strictement monotone alors f −1 est aussi continue et de même
monotonie que f .
dém. :
« Par symétries des graphes de f et f −1 ».
Remarque Le tableau de variation d’une bijection réciproque f −1 ce déduit de celui de f .
f (x) = x2 + 1
On a
x 0 +∞
f (x) 1 % +∞
On en déduit
x 1 +∞
−1
f (x) 0 % +∞
1
f (x) = +1
x
On a
x 0 +∞
f (x) +∞ & 1
On en déduit
x 1 +∞
f −1 (x) +∞ & 0
Proposition
Si f est une bijection de I vers J dérivable en x ∈ I et si f 0 (x) 6= 0 alors f −1 est dérivable en
y = f (x) et
1 1
(f −1 )0 (y) = 0 = 0 −1
f (x) f (f (y))
dém. :
La symétrie par rapport à la droite d’équation y = x transforme une droite de pente α en une droite de
pente 1/α.
Par suite la tangente en x au graphe de f qui est de pente f 0 (x) est transformée en une tangente en f (x)
au graphe de f −1 de pente 1/f 0 (x).
14.1.3 Radicaux
Soit n ∈ N tel que n > 2.
Posons I = R+ lorsque n est pair et I = R lorsque n est impair
Considérons la fonction f : I → R définie par f (x) = xn .
La fonction f est continue, dérivable et f 0 (x) > 0 sauf pour x = 0.
Ainsi la fonction f est strictement croissante et on a les tableaux de variations suivants :
Si n est pair
x 0 +∞
f (x) 0 % +∞
Si n est impair
x −∞ 0 +∞
f (x) −∞ % 0 % +∞
√
Attention : Ne pas simplifier trop rapidement : ∀x ∈ R, x2 = |x| et non = x !
Théorème √
x 7→ √
n
x est définie et continue sur I. √
x 7→ n x est strictement croissante, lim n x = +∞ et pour x 6= 0,
x→+∞
√
n
0 1
x = √ n−1
n ( x)
n
√
De plus, quand n est impair, x 7→ n
x est impaire.
dém. : √
Ces propriétés découlent de ce que la fonction x 7→ n x est la bijection réciproque
√ de la fonction x 7→ xn .
n 0 n−1 √ n
En particulier, pour t 6= 0, (t ) = nt 6= 0 donc n . est dérivable en x = t et
√
n
0 1 1 1
x = 0 = n−1
= √ n−1
n
(t ) nt n ( x)
n
Théorème
La fonction ln est définie, continue, strictement croissante sur ]0, +∞[ et
dém. :
Par définition, la fonction ln est dérivable sur ]0, +∞[ et (ln x)0 = 1/x > 0.
Proposition
∀x, y > 0, ln(xy) = ln x + ln y,
∀x > 0, ln(1/x) = − ln x,
∀x > 0, ∀n ∈ Z, ln(xn ) = n ln x.
dém. :
Soient y > 0 et la fonction f : x 7→ ln(xy) − ln y définie sur ]0, +∞[.
La fonction f est dérivable,
y 1
f 0 (x) = =
xy x
et f (1) = ln y − ln y = 0.
On en déduit que la fonction f est le logarithme népérien.
Ainsi, pour tout x > 0, f (x) = ln x et donc ln(xy) = ln x + ln y.
En appliquant cette relation à y = 1/x, on obtient ln 1 = ln x + ln(1/x).
Or ln 1 = 0 donc ln(1/x) = − ln x.
Enfin, par récurrence sur n ∈ N, on obtient facilement
ln(xn ) = n ln x
Exemple Soit n ∈ N tel que n > 2 et x > 0.
On a
√ 1 √ 1
ln n x = ln( n x)n = ln x
n n
Proposition
lim ln x = +∞ et lim ln x = −∞.
x→+∞ x→0+
dém. :
Puisque la fonction x 7→ ln x est croissante, celle-ci admet une limite ` ∈ R ∪ {+∞} en +∞.
D’une part ln 2n = n ln 2 → +∞ car ln 2 > ln 1 = 0.
D’autre part ln 2n → ` par composition de limites.
Par unicité de la limite, on obtient ` = +∞ et donc on peut affirmer lim ln x = +∞.
x→+∞
Quand x → 0+ , 1/x → +∞ or ln x = − ln(1/x) donc par composition de limites ln x → −∞.
x 0 1 +∞
ln x −∞ % 0 % +∞
Théorème
La fonction exp est définie, continue, strictement croissante sur R, lim exp x = +∞,
x→+∞
+
lim exp x = 0 et
x→−∞
(exp x)0 = exp x
dém. :
En tant qu’application réciproque de la bijection continue strictement croissante ln : ]0, +∞[ → R, on
peut affirmer que la fonction exponentielle est continue, strictement croissante et ses limites en −∞ et
+∞ sont respectivement 0 et +∞.
De plus, pour tout t > 0, la fonction ln est dérivable en t et (ln)0 (t) = 1/t 6= 0 donc la fonction exp est
dérivable en tout x = et et
1
(exp x)0 = = t = exp(x)
(ln)0 (t)
Proposition
∀x, y ∈ R, exp(x + y) = exp(x) exp(y),
1
∀x ∈ R, exp(−x) = ,
exp x
∀x ∈ R, ∀n ∈ Z, exp(nx) = exp(x)n .
dém. :
ln(exp(x) exp(y)) = ln(exp x) + ln(exp y) = x + y donc exp(x) exp(y) = exp(x + y).
Définition
On appelle nombre de Neper,
le nombre e = exp(1) = 2, 71828à 10−5 près.
Définition
Soit a ∈ ]0, +∞[ \ {1}. On appelle logarithme en base a l’application loga : ]0, +∞[ → R
définie par
ln x
loga (x) =
ln a
En particulier ln = loge .
Proposition
∀x, y > 0, loga (xy) = loga (x) + loga (y) et loga (a) = 1.
dém. :
ln(xy) ln x + ln y ln a
loga (xy) = = = loga x + loga y et loga (a) = = 1.
ln a ln a ln a
Définition
On appelle exponentielle en base a > 0 l’application expa : R → R définie par
y = loga x ⇔ ln x = y ln a ⇔ x = expa y
Définition
Pour x ∈ R et a > 0, on note ax = expa (x) = exp(x ln a).
√ √ 1
Exemple Pour n ∈ N tel que n > 2 et a > 0, n
a = exp(ln n
a) = exp( ln a) = a1/n .
n
Proposition
∀x, y ∈ R, ∀a, b > 0,
1
a0 = 1, 1x = 1, ax × ay = ax+y , = a−x , (ax )y = axy ,
ax
a x ax
(ab)x = ax bx et = x
b b
dém. :
a0 = exp(0 ln a) = exp(0) = 1.
1x = exp(x ln 1) = exp(0) = 1.
ax × ay = exp(x ln a) exp(y ln a) = exp((x + y) ln a) = ax+y .
1 1
= = exp(−x ln a) = a−x .
ax exp(x ln a)
(ax )y = exp(y ln ax ) = exp(xy ln a) = axy .
(ab)x = exp(x ln(ab)) = exp(x ln a + x ln b) = exp(x ln a) exp(x ln b) = ax bx .
a x ax
= exp(x ln a/b) = exp(x ln a − x ln b) = exp(x ln a) exp(−x ln b) = ax b−x = x .
b b
Définition
On appelle fonction puissance d’exposant α ∈ R l’application x 7→ xα = eα ln x de ]0, +∞[
vers R.
Proposition
Si α > 0 alors lim xα = +∞ et lim xα = 0.
x→+∞ x→0
Si α < 0 alors lim xα = 0 et lim xα = +∞.
x→+∞ x→0
dém. :
Pour α > 0.
Quand x → +∞, xα = exp(α ln x) → +∞ par composition de limites sachant α ln x → +∞.
Quand x → 0+ , xα = exp(α ln x) → 0 par composition de limites sachant α ln x → −∞.
Pour α < 0, c’est analogue
Remarque Il est usuel de poser 0α = 0 pour α > 0 afin de prolonger la fonction x 7→ xα par continuité
en 0.
dém. :
Quand x → +∞, posons y = xα → +∞.
ln x ln y 1/α 1 ln y
α
= = → 0 par composition de limites.
x y α y
Quand x → 0+ , posons y = 1/x → +∞.
ln(1/y) ln y
xα ln x = = − α → 0 par composition de limites.
yα y
Proposition
ex
∀α > 0, lim α = +∞ et lim xα e−x = 0+ .
x→+∞ x x→+∞
dém. :
Quand x → +∞,
ex
ln x
= exp(x − α ln x) = exp x 1 − α → +∞
xα x
et
ln x
xα e−x = exp(−x + α ln x) = exp −x 1 − α → 0+
x
Définition
L’abscisse et l’ordonnée du point Mt sont notées cos t et sin t.
On définit ainsi deux fonctions cos et sin de R vers [−1, 1].
Définition
La fonction tan est définie pour tout t 6= π/2 [π] par
sin t
tan t =
cos t
Proposition
La fonction tan est impaire, π périodique, de classe C ∞ et
1
(tan t)0 = = 1 + tan2 t
cos2 t
dém. :
sin(−x) − sin x
tan(−x) = = = − tan x.
cos(−x) cos x
sin(x + π) − sin x
tan(x + π) = = = − tan x.
cos(x + π) − cos x
∞
La fonction tan
est de0classe C2 comme rapport de deux fonctions qui le sont
0 sin t cos t + sin2 t 1
et (tan t) = = = ou = 1 + tan2 t.
cos t cos2 t cos2 t
Définition
La fonction cot est définie pour tout t 6= 0 [π] par
cos t π
cot t = = tan −t
sin t 2
Proposition
La fonction cot est une fonction impaire, π périodique, de classe C ∞ et
−1
(cot t)0 = = −1 − cot2 t
sin2 t
dém. :
Analogue à l’étude de la fonction tan.
1
Remarque Notons que ∀t 6= 0 [π/2] , cot t = et pour t 6= π/2 [π], cot t = tan(π/2 − t).
tan t
On a le tableau de valeurs
t 0 π/6
√ π/4 π/3
√ π/2
tan t 0 1/√ 3 1 √3 //
cot t // 3 1 1/ 3 0
cos(a + b) = cos a cos b − sin a sin b, cos(a − b) = cos a cos b + sin a sin b
sin(a + b) = sin a cos b + sin b cos a, sin(a − b) = sin a cos b − sin b cos a
En prenant a = b, on obtient
donc
cos 3a = 2 cos3 a − cos a − 2 sin2 a cos a
puis
cos 3a = 4 cos3 a − 3 cos a
Aussi
sin 3a = sin(2a + a) = sin(2a) cos a + cos(2a) sin a
donc
sin 3a = 2 sin a cos2 a + sin a − 2 sin3 a
puis
sin 3a = 3 sin a − 4 sin3 a
14.3.3.2 Factorisation
On a
cos(a + b) + cos(a − b) = 2 cos a cos b
p+q p−q
pour a = et b = on obtient,
2 2
p+q p−q
cos p + cos q = 2 cos cos
2 2
De même
p+q p−q
cos p − cos q = −2 sin sin
2 2
p+q p−q
sin p + sin q = 2 sin cos et
2 2
p−q p−q
sin p − sin q = 2 sin cos
2 2
En particulier, on retient
x x
1 + cos x = 2 cos2 et 1 − cos x = 2 sin2
2 2
Proposition
Soient x 6= π [2π] et t = tan x/2.
On a
1 − t2 2t
cos x = , sin x =
1 + t2 1 + t2
et quand x 6= π/2 [π]
2t
tan x =
1 − t2
dém. :
On a
x 1 1
cos2 = x =
2 1 + tan2 2
1 + t2
donc
x 1 − t2
cos x = 2 cos2 −1=
2 1 + t2
Aussi
x x x 2t
sin x = 2 sin cos = 2t cos2 =
2 2 2 1 + t2
Enfin x 2t
tan x = tan 2 × =
2 1 − t2
pour x 6= π/2 [π].
14.3.3.4 Formules d’Euler
eit + 1
Exemple Simplifions pour t 6= 0 [2π].
eit − 1
En factorisant par l’exponentielle équilibrée numérateur et dénominateur
n
∀n ∈ Z, ∀t ∈ R, eit = eint
donc
∀n ∈ Z, ∀t ∈ R, (cos t + i. sin t)n = cos(nt) + i sin(nt)
cos 3a + i sin 3a = (cos a + i sin a)3 = cos3 a + 3i cos2 a sin a − 3 cos a sin2 a − i sin3 a
et
sin 3a = 3 cos2 a sin a − sin3 a = 3 sin a − 4 sin3 a
14.3.3.6 Linéarisation
Linéariser une expression trigonométrique consiste à faire disparaître les produits de fonctions cosinus et
sinus. Pour cela :
- on réécrit, à l’aide des formules d’Euler, les cosinus et sinus en exponentielles imaginaires ;
- on développe les produits ;
- on recombine termes obtenus en cosinus et sinus.
Exemple Les expressions cos2 t et sin2 t se linéarisent plus rapidement en exploitant les formules
cos 2a = 2 cos2 a − 1 = 1 − 2 sin2 a
Ainsi on obtient
1 1 1 1
cos2 t = cos(2t) + et sin2 t = − cos(2t)
2 2 2 2
Exemple Les expressions cos a cos b et sin a sin b se linéarisent plus rapidement en exploitant les
formules
cos(a + b) + cos(a − b) = 2 cos a cos b et cos(a − b) − cos(a + b) = 2 sin a sin b.
Ainsi on obtient
1
cos a cos b = (cos(a + b) + cos(a − b))
2
et
1
sin a sin b = (cos(a − b) − cos(a + b))
2
Posons r = sin x.
2 cos2 x + sin x = 1 ⇔ 2r2 − r − 1 = 0
Les racines de l’équation 2r2 − r − 1 = 0 sont −1/2 et 1.
On en déduit
2 cos2 x + sin x = 1 ⇔ sin x = −1/2 ou sin x = 1
π 5π π
⇔x=− [2π] , x = − [2π] ou x = [2π]
6 6 2
√
Exemple Résolvons l’équation cos x + sin x = 2/2 d’inconnue x ∈ R.
On peut écrire
√ √
1 1 π
cos x + sin x = 2 √ cos x + √ sin x = 2 cos x −
2 2 4
Par suite
π π 7π
√
x − = [2π] x= [2π]
4 3
12
2 π 1
cos x + sin x = ⇔ cos x − = ⇔ ou ⇔ ou
2 4 2 π π x = − π
x − = −
[2π]
[2π]
4 3 12
√
Exemple Résolvons l’équation 3 cos(2x) − 2 sin x cos x = 1 d’inconnue x ∈ R.
On peut écrire
√ !
√ √ 3 1 π
3 cos(2x)−2 sin x cos x = 3 cos(2x)−sin(2x) = 2 cos(2x) − sin(2x) = 2 cos 2x +
2 2 6
Par suite
π π π
2x + = [2π] x=− [π]
√
6 3
12
π 1
3 cos(2x)−2 sin x cos x = 1 ⇔ cos 2x + = ⇔ ou ⇔ ou
6 2 π π x = − π [π]
2x + = −
[2π]
6 3 4
Définition
Pour tout x ∈ [−1, 1], on note arcsin x l’unique angle de l’intervalle [−π/2, π/2] donc le sinus
vaut x.
Ceci définit une application arcsin : [−1, 1] → [−π/2, π/2] qui est la bijection réciproque de
la restriction
sin : [−π/2, π/2] → [−1, 1].
On a le tableau de valeurs
√ √ √ √
x −1 − 3/2 − 2/2 −1/2 0 1/2 2/2 3/2 1
arcsin x −π/2 −π/3 −π/4 −π/6 0 π/6 π/4 π/3 π/2
Proposition
Pour x ∈ [−1, 1], on a les simplifications
p
sin(arcsin x) = x, cos(arcsin x) = 1 − x2
et quand x 6= ±1
x
tan(arcsin x) = √
1 − x2
dém. :
Soient x ∈ [−1, 1] et θ = arcsin x.
Par définition θ ∈ [−π/2, π/2] et sin θ = x
On a déjà
sin(arcsin x) = x
Enfin
sin(arcsin x) x
tan(arcsin x) = =√
cos(arcsin x) 1 − x2
dém. :
La bijection sin : [−π/2, π/2] → [−1, 1] est impaire continue et strictement croissante, il en est donc de
même de sa bijection réciproque arcsin.
La fonction sin : [−π/2, π/2] → [−1, 1] est dérivable et pour tout t ∈ ]−π/2, π/2[, (sin t)0 = cos t 6= 0
donc la fonction arcsin est dérivable sur ]−1, 1[ et
1 1
(arcsin x)0 = =√
cos(arcsin x) 1 − x2
1
Enfin, la fonction x 7→ √ étant indéfiniment dérivable sur ]−1, 1[, la fonction arcsin l’est encore,
1 − x2
c’est donc une fonction de classe C ∞ sur ]−1, 1[.
Attention : La fonction arcsin n’est pas dérivable en 1 et −1, en fait la fonction arcsin présente des
tangentes verticales en ces points.
Proposition
∀t ∈ [−π/2, π/2] , arcsin(sin t) = t.
dém. :
Pour t ∈ [−π/2, π/2], l’unique angle de [−π/2, π/2] dont le sinus vaut sin t est t.
Exemple Simplifions
2π
arcsin sin
3
2π π π h π πi
En effet sin = sin et ∈ − , donc
3 3 3 2 2
2π π
arcsin(sin )=
3 3
Or
π p
sin − arcsin x = cos(arcsin x) = 1 − x2
2
Ainsi
p
2x = 1 − x2
√
En élevant au carré et sachant
√ x > 0, on obtient x = 1/ 5.
Il reste à vérifier si x = 1/ 5 est, ou non, solution.
Pour cela considérons la fonction f : [−1/2, 1/2] → R définie par f (x) = arcsin x + arcsin 2x.
π
La fonction f est continue, strictement croissante et f (−1/2) 6 6 f (1/2).
2 √
Par suite l’équation étudiée possède une solution et une seule, à savoir 1/ 5.
Définition
Pour tout x ∈ [−1, 1], on note arccos x l’unique angle de l’intervalle [0, π] donc le cosinus
vaut x.
Ceci définit une application arccos : [−1, 1] → [0, π] qui est la bijection réciproque de la
restriction
cos : [0, π] → [−1, 1].
On a le tableau de valeurs
√ √ √ √
x −1 − 3/2 − 2/2 −1/2 0 1/2 2/2 3/2 1
arccos x π 5π/6 3π/4 2π/3 π/2 π/3 π/4 π/6 0
Proposition
Pour x ∈ [−1, 1], on a les simplifications
p
cos(arccos x) = x, sin(arccos x) = 1 − x2
et quand x 6= 0 √
1 − x2
tan(arccos x) =
x
dém. :
Soient x ∈ [−1, 1] et θ = arccos x.
Par définition θ ∈ [0, π] et cos θ = x
On a déjà
cos(arccos x) = x
2 2 2
Puisque sin θ = 1 − cos θ = 1 − x et sin θ > 0 car θ ∈ [0, π], on obtient
p
sin(arccos x) = 1 − x2
Enfin √
sin(arccos x) 1 − x2
tan(arccos x) = =
cos(arccos x) x
dém. :
La bijection cos : [0, π] → [−1, 1] est continue et strictement décroissante, il en est donc de même de sa
bijection réciproque arccos.
La fonction cos : [0, π] → [−1, 1] est dérivable et pour tout t ∈ ]0, π[, (cos t)0 = − sin t 6= 0 donc la
fonction arccos est dérivable sur ]−1, 1[ et
1 1
(arccos x)0 = = −√
− sin(arccos x) 1 − x2
1
Enfin, la fonction x 7→ − √ étant indéfiniment dérivable sur ]−1, 1[, la fonction arccos l’est
1 − x2
encore, c’est donc une fonction de classe C ∞ sur ]−1, 1[.
Attention : La fonction arccos n’est pas dérivable en 1 et −1 mais présente des tangentes verticales en
ces points.
Proposition
∀t ∈ [0, π] , arccos(cos t) = t.
dém. :
Pour t ∈ [0, π], l’unique angle de [0, π] dont le cosinus vaut cos t est t.
Proposition
∀x ∈ [−1, 1], arcsin x + arccos x = π/2.
dém. :
Posons t = π/2 − arcsin x.
On a t ∈ [0, π] et cos t = sin(arcsin x) = x donc t = arccos x.
Définition
Pour tout x ∈ R, on note arctan x l’unique angle de l’intervalle ]−π/2, π/2[ donc la tangente
vaut x.
Ceci définit une application arctan : R → ]−π/2, π/2[ qui est la bijection réciproque de la
restriction
tan : ]−π/2, π/2[ → R.
arcsin
Remarque La fonction arctan n’a pas de lien avec !
arccos
On a le tableau de valeurs
√ √ √ √
x −∞ − 3 −1 −1/ 3 0 1/ 3 1 3 +∞
arcsin x −π/2 −π/3 −π/4 −π/6 0 π/6 π/4 π/3 π/2
Proposition
Pour x ∈ R, on a les simplifications
x x
tan(arctan x) = x, cos(arctan x) = √ et sin(arctan x) = √
1+x 2 1 + x2
dém. :
Soient x ∈ R et θ = arctan x.
tan(arctan x) = x
1 1
Puisque cos2 θ = 2 = et cos θ > 0 car θ ∈ ]−π/2, π/2[, on obtient
1 + tan θ 1 + x2
1
cos(arctan x) = √
1 + x2
Enfin
sin(arctan x)
tan(arctan x) = =x
cos(arctan x)
donne
x
sin(arctan x) = √
1 + x2
Théorème
La fonction arctan est impaire, strictement croissante, continue et même C ∞ sur R et
1
(arctan x)0 =
1 + x2
dém. :
La bijection tan : ]−π/2, π/2[ → R est impaire continue et strictement croissante, il en est donc de
même de sa bijection réciproque arctan.
La fonction tan : ]−π/2, π/2[ → R est dérivable et pour tout t ∈ ]−π/2, π/2[, (tan t)0 = 1 + tan2 t 6= 0
donc la fonction arctan est dérivable sur R et
1 1
(arctan x)0 = =
1 + tan2 (arctan x) 1 + x2
1
Enfin, la fonction x 7→ 2
étant indéfiniment dérivable sur R, la fonction arctan l’est encore, c’est
1 + x∞
donc une fonction de classe C sur R.
Proposition
∀t ∈ ]−π/2, π/2[ , arctan(tan t) = t.
dém. :
Pour t ∈ ]−π/2, π/2[, l’unique angle de ]−π/2, π/2[ dont la tangente vaut tan t est t.
Proposition
1 1
∀x > 0, arctan x + arctan = π/2 et ∀x < 0, arctan x + arctan = −π/2.
x x
dém. :
Considérons la fonction f : R? → R définie par f (x) = arctan x + arctan 1/x.
La fonction f est dérivable et
1 1/x2
f 0 (x) = 2
− =0
1+x 1 + 1/x2
La fonction f est donc constante sur chaque intervalle formant R? .
Puisque f (1) = 2 arctan 1 = π/2, on obtient ∀x > 0, arctan x + arctan(1/x) = π/2.
Par imparité, on obtient ∀x < 0, arctan x + arctan(1/x) = −π/2
Exemple Calculons
1 1
θ = arctan + arctan
2 3
tan a + tan b
tan(a + b) =
1 − tan a tan b
donne tan θ = 1.
Pour déterminer θ, il n’y plus qu’à localiser cet angle dans un intervalle de longueur inférieure à π.
1 π 1 π
Puisque 0 < arctan < et 0 < arctan < , on a 0 < θ < π/2.
2 4 3 4
Par suite θ = π/4.
Définition
On définit la fonction cosinus hyperbolique ch : R → R et la fonction sinus hyperbolique
sh : R → R par
et + e−t et − e−t
cht = et sht =
2 2
Théorème
La fonction ch est paire, de classe C ∞ et (cht)0 = sht.
La fonction sh est impaire, de classe C ∞ et (sht)0 = cht.
Les tableaux de variation des fonctions ch et sh sont
t −∞ 0 +∞ t −∞ 0 +∞
et
cht +∞ & 1 % +∞ sht −∞ % 0 % +∞
dém. :
e−t + et e−t − et
ch(−t) = = cht et sh(−t) = = −sht.
2 2
Par opérations sur les fonctions, les fonctions ch et sh sont de classe C ∞ avec
et − e−t et + e−t
(cht)0 = = sht et (sht)0 = = cht.
2 2
La fonction ch étant positive, on en déduit la croissance de la fonction sh. Sachant que celle-ci s’annule
en 0, on obtient le signe de la fonction sh et donc les variations de la fonction ch. Enfin les limites des
fonctions ch et sh en ±∞ sont immédiates.
Remarque La fonction ch présente un minimum en 0 : ∀t ∈ R, cht > 1.
Remarque Pour représenter les fonctions ch et sh, on peut prendre appui sur le graphe de la fonction
f : t 7→ et /2.
En effet sht 6 f (t) 6 cht et cht − f (t) = f (t) − sht −−−−→ 0.
t→+∞
En réorganisant la somme
n n
1 X kt 1 X kt
e + e−kt =1 +
S= e
2 2
k=0 k=−n
Pour t = 0, S = n + 1.
Pour t 6= 0, par sommation géométrique et factorisation d’exponentielle équilibrée,
(2n+1)t
1 e(2n+1)t − 1 1 sh 2
S = 1 + e−nt =1+
2 et − 1 2 sh 2t
n
X
On aurait aussi pu mener le calcul en introduisant S 0 = shkt et en exprimant S + S 0 et S − S 0 .
k=0
dém. :
ch2 t − sh2 t = (cht + sht)(cht − sht) = et e−t = 1.
Corollaire
p
∀t ∈ R, cht = 1 + sh2 t.
dém. : p
Par ce qui précède ch2 t = 1 + sh2 t, or cht > 0 donc cht = 1 + sh2 t.
Proposition
Pour tout a, b ∈ R,
dém. :
n
Y
Exemple Calculons Pn = ch(2k t) pour t ∈ R.
k=1
n
Y
Pour t = 0, Pn = 1 = 1.
k=1
Pour t 6= 0, la formule sh2a = 2shacha donne
1 sh(2k+1 t)
ch(2k t) =
2 sh(2k t)
Définition
On définit la fonction tangente hyperbolique th : R → R par
sht
tht =
cht
Proposition
et − e−t e2t − 1
∀t ∈ R, tht = = .
et + e−t e2t + 1
dém. :
et − e−t et + e−t sht et − e−t
sht = et cht = donne tht = = t .
2 2 cht e + e−t
e2t − 1
En multipliant numérateur et dénominateur par et , on obtient tht = .
e2t + 1
Théorème
1
La fonction th est impaire, de classe C ∞ et (tht)0 = 1 − th2 t = .
ch2 t
Le tableaux de variation de la fonction th est
t −∞ 0 +∞
tht −1 % 0 % 1
dém. :
Par opérations sur les fonctions, la fonction th est impaire et de classe C ∞ .
De plus,
Cette deuxième formule de dérivation donne la croissance de la fonction th et les limites de cette fonction
en ±∞ s’obtiennent facilement par les écritures
e2t − 1 1 − e−2t
tht = =
2t
e +1 1 + e−2t
Définition
Pour tout x ∈ R, on note argshx l’unique réel t vérifiant sht = x.
Ceci définit une application argsh : R → R qui est la bijection réciproque de sh : R → R.
Proposition
Pour x ∈ R, on a les simplifications
p x
sh(argshx) = x, ch(argshx) = 1 + x2 et th(argshx) = √
1 + x2
dém. :
Soient x ∈ R et t = argshx.
Par définition, on a sht = x et donc
sh(argshx) = x
p
Puisque cht = 1 + sh2 t, on a p
ch(argshx) = 1 + x2
sht
Enfin tht = donne
cht
x
th(argshx) = √
1 + x2
Théorème
La fonction argsh est impaire, strictement croissante, de classe C ∞ sur R et
1
(argshx)0 = √
1 + x2
dém. :
La bijection sh : R → R est impaire et strictement croissante, il en est donc de même de sa bijection
réciproque argsh.
La fonction sh : R → R est dérivable et (sht)0 = cht 6= 0 donc la fonction argsh est dérivable sur R et
1 1
(argshx)0 = =√
ch(argshx) 1 + x2
1
Enfin, la fonction x 7→ √ étant indéfiniment dérivable sur R, la fonction argsh l’est encore, c’est
1 + x2
∞
donc une fonction de classe C sur R.
Proposition
p
∀x ∈ R, argsh(x) = ln(x + x2 + 1)
dém. :
Soient x ∈ R et t = argshx.
On a sht = x donc et − e−t = 2x puis e2t − 2x et − 1 = 0.
Posons r = et . p p
l’équation du second degré r2p
Les solutions de p − 2xr − 1 = 0 sont x + p1 + x2 et x − 1 + x2 .
Or r > 0 et x − 1 + x2 6 0 donc et = x + 1 + x2 puis t = ln(x + 1 + x2 ).
La fonction ch est continue et strictement croissante de [0, +∞[ vers [1, +∞[, elle réalise donc une
bijection et par suite
∀x ∈ [1, +∞[ , ∃!t ∈ [0, +∞[ , cht = x.
Définition
Pour tout Semestre irrégulier mais avec quelques bons résultats., on note argchx l’unique t ∈
[0, +∞[ vérifiant cht = x.
Ceci définit une application argch : [1, +∞[ → R+ bijection réciproque de la restriction
ch : [0, +∞[ → [1, +∞[
Proposition
Pour x ∈ [1, +∞[, on a les simplifications
√
p x2 − 1
ch(argchx) = x, sh(argchx) = x2 − 1 et th(argchx) =
x
dém. :
Soient x ∈ [1, +∞[ et t = argchx.
Par définition, t > 0 et cht = x .
On a déjà
ch(argchx) = x
Puisque sh2 t = ch2 t − 1 = x2 − 1 et sht > 0, on obtient
p
sh(arg chx) = x2 − 1
sht
Enfin tht = donne
cht √
x2 − 1
th(argchx) =
x
Théorème
La fonction argch est strictement croissante, continue sur [1, +∞[, de classe C ∞ sur ]1, +∞[
et
1
(argchx)0 = √
2
x −1
dém. :
La bijection ch : [0, +∞[ → [1, +∞[ et continue et strictement croissante, il en est donc de même de sa
bijection réciproque argch : [1, +∞[ → R+ .
La fonction ch : [0, +∞[ → [1, +∞[ est dérivable et ∀t > 0, (cht)0 = sht 6= 0 donc la fonction argch est
dérivable sur ]1, +∞[ et
1 1
(argchx)0 = =√
sh(argchx) 2
x −1
1
Enfin, la fonction x 7→ √ étant indéfiniment dérivable sur ]1, +∞[, la fonction argsh l’est encore,
x2
−1
c’est donc une fonction de classe C ∞ sur ]1, +∞[.
Attention : La fonction argch n’est pas dérivable en 1, en fait la fonction argch présente une tangente
verticale en ce point.
Proposition
p
∀x ∈ [1, +∞[ , argch(x) = ln(x + x2 − 1)
dém. :
Soient x ∈ [1, +∞[ et t = argchx ∈ [0, +∞[.
On a cht = x donc et + e−t = 2x puis e2t − 2x et + 1 = 0.
Posons r = et . p p
Les solutions de l’équation du second degré r2 − 2xr + 1 = 0 sont x + x2 − 1 et p x − x2 − 1.
Quand x = 1, on obtient deux fois la même racine et on peut donc affirmer r = x + x2 − 1.
p 1 p
Quand x > 1, on a x − x2 − 1 = √ < 1 alors que r > 1 donc r = x + x2 − 1.
p x + x2 − 1 p
t
Dans les deux cas e = x + x − 1 puis t = ln(x + x2 − 1).
2
La fonction th est continue et strictement croissante de R vers ]−1, 1[, elle réalise donc une bijection et
par suite
∀x ∈ ]−1, 1[ , ∃!t ∈ R, tht = x
Définition
Pour tout x ∈ ]−1, 1[, on note argthx l’unique t ∈ R vérifiant tht = x.
Ceci définit une application argth : ]−1, 1[ → R qui est la bijection réciproque de th : R →
]−1, 1[.
Théorème
La fonction argth est impaire, strictement croissante, de classe C ∞ sur ]−1, 1[ et
1
(argthx)0 =
1 − x2
dém. :
La bijection th : R → ]−1, 1[ est impaire et strictement croissante, il en est donc de même de sa bijection
réciproque argth.
La fonction th : R → ]−1, 1[ est dérivable et (tht)0 = 1 − th2 t 6= 0 donc la fonction argth est dérivable
sur ]−1, 1[ et
1 1
(argthx)0 = 2 =
1 − th (argth) 1 − x2
1
Enfin, la fonction x 7→ étant indéfiniment dérivable sur ]−1, 1[, la fonction argth l’est encore,
1 − x2
c’est donc une fonction de classe C ∞ sur ]−1, 1[.
Proposition
1 1+x
∀x ∈ ]−1, 1[ , argth(x) = ln .
2 1−x
dém. :
Soient x ∈ ]−1, 1[ et t = argthx.
e2t − 1 1+x
On a tht = x donc 2t = x puis e2t (1 − x) = 1 + x et enfin e2t = .
e +1 1−x
On en déduit
1 1+x
argth(x) = ln
2 1−x
Suites numériques
Définition
On appelle suite réelle toute application u : N → R.
Pour tout n ∈ N, u(n), usuellement notée un , est appelé terme d’indice n de la suite. Une telle
suite est notée u, (un ) ou (un )n∈N .
On note RN ou F(N, R) l’ensemble de ces suites.
Définition
On appelle suite réelle définie à partir d’un rang n0 ∈ N toute application u :
{n ∈ N/n > n0 } → R.
Une telle suite est notée u, (un )n>n0 ou (un ).
Remarque Ce qui suit est présenté dans le cadre des suites définies à partir du rang 0 mais peut
aisément se prolonger aux suites définies à partir d’un rang n0 , quitte à définir arbitrairement le terme de
la suite pour les rangs 0, . . . , n0 − 1.
511
15.1. SUITES RÉELLES
Définition
Une suite réelle u = (un ) est dite constante s’il existe C ∈ R tel que ∀n ∈ N, un = C.
Cette suite est alors dite constante égale à C et est souvent notée C.
Définition
Une suite réelle u = (un ) est dite stationnaire s’il existe C ∈ R et N ∈ N vérifiant ∀n >
N, un = C.
Cette suite est alors dite stationnaire égale à C.
Définition
On appelle valeur absolue d’une suite réelle u = (un ) la suite notée |u| de terme général |un |.
Proposition
Soit u = (un ) une suite réelle. On a équivalence entre :
(i) u est bornée ;
(ii) ∃M ∈ R, ∀n ∈ N, |un | 6 M ;
(iii) la suite |u| est majorée.
dém. :
(i) ⇒ (ii) Supposons la suite réelle u minorée et majorée.
Il existe m1 , m2 ∈ R tels que pour tout n ∈ N, m1 6 un 6 m2 .
Posons alors M = max(−m1 , m2 ). En discutant selon signe de un , on vérifie que pour tout n ∈ N,
|un | 6 M .
(ii) ⇒ (i) Supposons qu’il existe M ∈ R tel que pour tout n ∈ N, |un | 6 M .
On a alors −M 6 un 6 M donc la suite u est minorée et majorée.
(ii) ⇔ (iii) Par définition de la majoration d’une suite.
sin(n)
un =
3 − cos(n)
Ici, procéder par encadrement n’est pas le plus pratique car le signe de sin(n) changeant les inégalités
multipliées doivent être renversées quand sin(n) 6 0 ; l’introduction des valeurs absolues évite ce
problème en rendant positifs les facteurs.
Proposition
Soient u et v des suites numériques et λ ∈ K.
Si u et v sont bornées alors λ.u, u + v et uv le sont aussi.
dém. :
On suppose qu’il existe M, M 0 ∈ R tels que pour tout n ∈ N,
|un | 6 M et |vn | 6 M 0
On a alors
∀n ∈ N, un+1 = qun + r
Exemple Déterminons le terme général de la suite (un ) définie par u0 = 1 et un+1 = 3un − 1 pour
tout n ∈ N.
Considérons vn = un − α.
vn+1 = 3un+1 − α = 3(vn + α) − 1 − α = 3vn + 2α − 1
Pour α = 1/2, on obtient vn+1 = 3vn .
Puisque v0 = u0 − 1/2 = 1/2, on a vn = 3n /2 puis
1 n
un = (3 + 1)
2
Définition
On dit que la suite u tend vers ` ∈ R si l’on a la propriété
Remarque Verbalement, dire que la suite u tend vers ` signifie que pour tout ε > 0, aussi petit soit-il, il
existe un rang au-delà duquel tous les termes de la suite sont dans l’intervalle [` − ε, ` + ε].
Remarque L’entier introduit N dépend de ε (puisqu’il apparaît après celui-ci dans la définition
quantitfiée).
Pour le souligner, on le note parfois Nε .
Remarque Si la suite u n’est définie qu’à partir d’un rang n0 , on adapte la définition en remplaçant
« ∀n ∈ N »par « ∀n > n0 ».
Proposition
Soient u = (un ) et ` ∈ R. On a équivalence entre :
(i) un → ` ;
(ii) |un − `| → 0.
dém. :
un → ` signifie
∀ε > 0, ∃N ∈ N, ∀n ∈ N, n > N ⇒ |un − `| 6 ε
alors que |un − `| → 0 signifie
Sachant ||un − `| − 0| = |un − `|, ces deux phrases quantifiées sont parfaitement équivalentes.
Remarque Quand on veut montrer que (un ) tend vers `, il est très fréquent de se « ramener à 0 »en
montrant que |un − `| tend vers 0.
Définition
On dit que la suite u converge s’il existe ` ∈ R tel que un → `.
Sinon on dit que la suite u diverge.
Déterminer la nature d’une suite, c’est savoir si celle-ci est convergente ou divergente.
Théorème
Si la suite u converge alors il existe un unique ` ∈ R tel que un → `.
Ce réel ` est alors appelé limite de la suite u et on note ` = lim u, ` = lim un ou ` = lim un .
n→+∞
dém. :
L’existence est acquise par définition de la convergence.
Montrons l’unicité.
Supposons un → ` et un → `0 .
Pour tout ε > 0, il existe n assez grand tel que
On a alors
|` − `0 | 6 |` − un | + |un − `0 | 6 ε
Ainsi
∀ε > 0, |` − `0 | 6 ε
1
Si par l’absurde ` 6= `0 alors |` − `0 | > 0 et en prenant ε = |` − `0 |, la propriété qui précède donc
2
1 1
|` − `0 | 6 |` − `0 | puis 1 6 car |` − `0 | > 0. C’est absurde et donc ` = `0 .
2 2
1
Exemple On peut écrire lim C = C et lim = 0.
n→+∞ n→+∞ n
Théorème
Toute suite réelle convergente est bornée.
dém. :
Soit u une suite convergeant vers un réel ` ∈ R.
Pour ε = 1, il existe un rang N ∈ N tel que pour tout n > N , |un − `| 6 1.
On a alors
|un | = |un − ` + `| 6 |un − `| + |`| 6 1 + |`|
Proposition
Soient u une suite réelle telle que un → ` et a, b ∈ R.
Si a < ` alors
∃N0 ∈ N, ∀n > N0 , un > a
Si ` < b alors
∃N1 ∈ N, ∀n > N1 , un < b
Si a < ` < b alors
∃N2 ∈ N, ∀n > N1 , a < un < b
dém. :
Supposons a < ` et posons ε = (` − a)/2 > 0.
Puisque un → `, il existe un rang N0 à partir duquel |un − `| 6 ε.
Pour n > N0 , on a alors
a+`
un > ` − ε = >a
2
Le cas ` < b, se traite de façon semblable en introduisant ε = (b − `)/2 > 0.
Enfin, le cas a < ` < b se résout en prenant N2 = max(N0 , N1 ).
Exemple Si un → ` 6= 0 alors la suite (1/un ) est définie à partir d’un certain rang.
En effet, selon le signe de `, un > 0 ou un < 0 à partir d’un certain rang et donc un 6= 0.
Théorème
On suppose que un → ` et vn → `0 .
Si à partir d’un certain rang un 6 vn alors ` 6 `0 .
dém. :
Par contraposée, supposons ` > `0 et introduisons le milieu a = (` + `0 )/2.
Puisque un → ` > a, il existe un rang N1 à partir duquel un > a.
Puisque vn → `0 < a, il existe un rang N2 à partir duquel vn < a.
Pour tout n au-delà du rang max(N1 , N2 ), on a vn < a < un .
Ainsi, il faux qu’à partir d’un certain rang un 6 vn .
∀n ∈ N, un ∈ [a, b]
Exemple On suppose que u est une suite croissante de réels strictement positifs et on suppose que u
converge. Montrons que sa limite ` est strictement positive.
Puisque par passage à la limite, les inégalités strictes deviennent larges, passer à la limite la minoration
un > 0 donne seulement ` > 0.
Pour obtenir ` > 0, nous allons « prendre un appui »en exploitant la croissance de u.
Puisque u est croissante, on a pour tout n ∈ N, un > u0 .
A la limite, on obtient ` > u0 . Or u0 > 0 donc ` > 0.
Définition
On dit que la suite u tend vers +∞ si l’on a la propriété
∀A ∈ R, ∃N ∈ N, ∀n ∈ N, n > N ⇒ un > A
Remarque La suite u tend vers +∞ si pour tout A, aussi grand soit-il, il existe un rang au-delà duquel
tous les termes de la suite sont supérieurs à A.
Définition
On dit que la suite u tend vers −∞ si l’on a la propriété
∀B ∈ R, ∃N ∈ N, ∀n ∈ N, n > N ⇒ un 6 B
Remarque Si la suite u n’est définie qu’à partir d’un rang n0 , on adapte les définitions précédentes en
remplaçant « ∀n ∈ N »par « ∀n > n0 ».
Proposition
un → +∞ ⇔ −un → −∞.
dém. :
( ⇒ ) Supposons un → +∞.
Soit B ∈ R. Pour A = −B, il existe N ∈ N tel qu’à partir du rang N , un > A.
On a alors −un 6 −A = B à partir du même rang N et donc on peut affirmer que −un → +∞.
( ⇐ ) Même principe.
Exemple −n → −∞
Proposition
Si un → +∞ alors u est minorée, non majorée.
Si un → −∞ alors u est majorée, non minorée.
dém. :
Supposons un → +∞.
Pour A = 0, il existe un rang N ∈ N à partir duquel un > 0.
Pour m = min {u0 , u1 , . . . , uN −1 , 0} ( m existe en tant que min d’une partie finie de R ).
Pour tout n ∈ N, on vérifie aisément un > m en discutant selon n < N ou n > N .
Ainsi la suite u est minorée.
Montrons maintenant qu’elle n’est pas majorée.
Soit M ∈ R. Pour A = M + 1 ∈ R, il existe un rang N à partir duquel un > A.
En particulier uN > A > M . Ainsi la suite u n’est pas majorée par M et ce, quel que soit M ∈ R.
Par passage à l’opposé, on transpose l’étude aux suites tendant vers −∞.
Attention : Les réciproques sont fausses.
La suite de terme général un = n(1 + (−1)n ) est minorée (par 0 ) et non majorée, cependant elle ne
tend pas vers +∞ car tous ses termes d’indices impairs sont nuls.
Définition
Si un → +∞ (resp. un → −∞ ) alors on dit que la suite u diverge vers +∞ (resp. −∞ ).
On dit alors que +∞ (resp. −∞ ) est la limite de la suite u et on note lim u = +∞ (resp.
lim u = −∞ ).
Lemme
Si u est minorée et vn → +∞ alors un + vn → +∞.
dém. :
Supposons u minorée par m et vn → +∞.
On a un + vn > m + vn .
Soit A ∈ R. Pour A0 = A − M , il existe N ∈ N tel que pour tout n > N , vn > A0 et donc un + vn >
M + A0 = A.
Ainsi ∀A ∈ R, ∃N ∈ N, ∀n ∈ N, n > N ⇒ un + vn > A.
Théorème
1) Si un → ` ∈ R et vn → `0 ∈ R alors un + vn → ` + `0 .
2) Si un → ` ∈ R et vn → +∞ alors un + vn → +∞.
3) Si un → ` ∈ R et vn → −∞ alors un + vn → −∞.
4) Si un → +∞ et vn → +∞ alors un + vn → +∞.
5) Si un → −∞ et vn → −∞ alors un + vn → −∞.
dém. :
1) Supposons un → ` ∈ R et vn → `0 ∈ R.
On remarque que
|(un + vn ) − (` + `0 )| 6 |un − `| + |vn − `0 |
Il suffit donc de rendre |un − `| et |vn − `0 | inférieurs à ε/2 pour conclure. . .
Soit ε > 0.
Puisque un → ` et vn → `0 , il existe N1 , N2 ∈ N tels que
∀n > N1 , |un − `| 6 ε/2 et ∀n > N2 , |vn − `0 | 6 ε/2
Pour N0 = max(N1 , N2 ) on a pour tout n > N0 ,
|(un + vn ) − (` + `0 )| 6 |un − `| + |vn − `0 | 6 ε/2 + ε/2 = ε
Ainsi
∀ε > 0, ∃N0 ∈ N, ∀n ∈ N, n > N0 ⇒ |(un + vn ) − (` + `0 )| 6 ε
2) 3) 4) et 5) découlent du résultat précédent après un éventuel un passage à l’opposé.
Remarque Si un → +∞ et vn → −∞ on ne peut rien dire a priori ; c’est une forme indéterminée.
Pour lever l’indétermination il convient d’exprimer autrement la somme un + vn , par exemple « en
factorisant le terme qui l’emporte »ou « en simplifiant ce que les termes ont en commun ». . .
Corollaire
Par passage à l’opposé, on obtient les règles relatives aux différences de limites.
15.2.3.2 Produit
Lemme
Supposons qu’à partir d’un certain rang, (un ) est minorée par un réel ρ > 0.
Si vn → +∞ alors un vn → +∞.
Si vn → −∞ alors un vn → −∞.
dém. :
Par hypothèse, il existe un rang N1 ∈ N tel que ∀n > N1 , un > ρ.
Supposons vn → ∞.
On remarque un vn > ρvn .
Soit A ∈ R+ . Pour A0 = A/ρ, il existe N2 ∈ N tel que pour tout n > N2 , vn > A0 et alors pour
n > N0 = max(N1 , N2 ), on a un vn > ρA0 = A.
Ainsi
∀A ∈ R, ∃N0 ∈ N, ∀n ∈ N, n > N0 ⇒ un vn > A
Le cas vn → −∞ se déduit du précédent par passage à l’opposé.
Théorème
1) Si un → ` ∈ R et vn → `0 ∈ R alors un vn → ``0 .
2) Si un → ` 6= 0 et vn → +∞ alors
(
+∞ si ` > 0
un vn →
−∞ si ` < 0
3) Si un → ` 6= 0 et vn → −∞ alors
(
−∞ si ` > 0
un vn →
+∞ si ` < 0
4) Si un → +∞ et vn → +∞ alors un vn → +∞.
5) Si un → +∞ et vn → −∞ alors un vn → −∞.
6) Si un → −∞ et vn → −∞ alors un vn → +∞.
dém. :
1) Supposons un → ` ∈ R et vn → `0 ∈ R.
On remarque
Puisque la suite (un ) converge, elle est bornée et donc il existe M ∈ R+ tel que
∀n ∈ N, |un | 6 M
et alors
|un vn − ``0 | 6 M |vn − `0 | + |`0 | |un − `|
Il suffit alors de rendre |un − `| et |vn − `0 | assez petit. . .
Soit ε > 0.
Puisque un → ` et vn → `0 , il existe N1 , N2 ∈ N tel que
ε ε
∀n > N1 , |un − `| 6 et ∀n > N2 , |vn − `0 | 6 .
2(|`0 | + 1) 2(M + 1)
Pour N0 = max(N1 , N2 ) on a
Mε |`0 | ε
∀n > N0 , |un vn − ``0 | 6 + 6ε
2(M + 1) 2(|`0 | + 1)
Ainsi
∀ε > 0, ∃N0 ∈ N, ∀n ∈ N, n > N0 ⇒ |un vn − ``0 | 6 ε
2) 3) 4) 5) et 6) découlent directement du résultat précédent après un éventuel passage à l’opposé.
Remarque Si un → 0 et vn → +∞ (ou −∞ ) on ne peut rien dire a priori sur un vn ; c’est une forme
indéterminée.
Pour résoudre l’indéterminatrion, il convient de réécrire le produit.
Exemple Etudions
lim (n2 − n)
n→+∞
Remarque On notera sur cet exemple la mise en forme de la rédaction. Eviter autant que possible, les
rédactions de la forme lim () = lim () = . . . En effet ce type de rédaction présume d’entrée de jeu
l’existence de la limite alors que celle-ci n’est acquise qu’au terme de l’étude. La rédaction précédente
ne pose pas ce problème et présente encore bien d’autres avantages !
Définition
Soit u une suite réelle et ` ∈ R.
On note un → `+ pour signifier que un → ` et un > ` à partir d’un certain rang.
On note aussi un → `− pour signifier un → ` et un < ` pour n assez grand.
Théorème
1) Si un → ` 6= 0 alors 1/un → 1/`.
2) Si un → 0+ alors 1/un → +∞.
3) Si un → 0− alors 1/un → −∞.
4) Si un → +∞ alors 1/un → 0+ .
5) Si un → −∞ alors 1/un → 0− .
dém. :
1) Supposons un → `.
Cas ` > 0 :
Pour n assez grand un > 0 et donc la suite (1/un ) est définie à partir d’un certain rang.
On remarque que
1 1 |` − un |
− =
un ` |un | |`|
Sachant ` > `/2, il existe un rang N1 ∈ N tel que
et alors
1 1 2 |` − un |
− 6
un ` `2
Soit ε > 0, pour ε0 = `2 ε/2 > 0, il existe N2 ∈ N tel que
∀n > N2 , |un − `| 6 ε0
Pour N0 = max(N1 , N2 ) on a
1 1
∀n > N0 ,
− 6ε
un `
Ainsi
1 1
→
un `
Cas ` < 0 :
Il suffit de transiter par la suite (−un ).
2) Supposons un → 0+ .
Il existe un rang N1 ∈ N tel que
∀n > N1 , un > 0
et donc la suite (1/un ) est définie à partir d’un certain rang.
Soit A ∈ R+? . Pour ε = 1/A > 0, il existe N2 ∈ N tel que
∀n > N2 , |un | 6 ε
On a alors
1 1
0< <
un A
Ainsi un → 0+
5) Se déduit de l’étude précédente par passage à l’opposé.
Corollaire
On en déduit les règles de calculs relatives aux rapports de limites.
Exemple Etudions
n3 + n + 1
lim
n→+∞ n2 + 1
Quand n → +∞, n3 + n + 1 → +∞ et n2 + 1 → +∞.
C’est une forme indéterminée.
n3 + n + 1 n3 1 + 1/n2 + 1/n3
=
n2 + 1 n2 1 + 1/n2
Or
n3 1 + 1/n2 + 1/n3
= n → +∞ et →1
n 1 + 1/n2
donc
n3 + n + 1
→1
n2 + 1
Exemple Etudions
n2 − 1
lim
n→+∞ n2 + 1
Quand n → +∞,
n2 − 1 1 − 1/n2
= →1
n2 + 1 1 + 1/n2
Théorème
Soit f : D ⊂ R → R et u = (un ) une suite réelle telle qu’à partir d’un certain rang un ∈ D.
Si un → a ∈ R̄ et f (x) −−−→ ` ∈ R̄ alors f (un ) → `.
x→a
dém. :
Cette démonstration ne peut être menée sans avoir préalablement défini f (x) −−−→ ` ∈ R̄. Cela sera
x→a
fait dans le chapitre « Fonctions Numériques »et l’on y trouvera la démonstration dans une version plus
forte appelée « caractérisation séquentielle des limites ». Dans la suite de ce cours nous anticipons ce
résultat. . .
Exemple Etudions de √
lim n+1
n→+∞
√ n → +∞, n + 1 → +∞.
Quand √
Or t −−−−→ +∞ donc par composition de limites n + 1 → +∞.
t→+∞
sin x ln(1 + x)
lim = lim =1
x→0 x x→0 x
Exemple Etudions de
√ 1
lim n sin √
n→+∞ n
√ √
Quand n → +∞, n → +∞ donc 1/ n → 0 puis sachant
sin x
−−−→ 1
x x→0
on obtient
√ 1
n sin √ → 1
n
Exemple Etudions √ √
lim ( n + 1 − n)
n→+∞
Quand n → +∞,
√ √ (n + 1) − n 1
n+1− n= √ √ =√ √
n+1+ n n+1+ n
√ √
Or n+1+ n → +∞ donc √ √
n+1− n→0
Exemple Etudions
lim n1/n
n→+∞
Exemple Etudions n
1
lim 1+
n→+∞ n
1
Quand n → +∞, 1 + → 1 et n → +∞, c’est une forme indéterminée.
n
n
1 1
1+ = exp n ln 1 +
n n
Or
1 ln (1 + 1/n)
n ln 1 + =
n 1/n
avec 1/n → 0. Sachant
ln(1 + x)
−−−→ 1
x x→0
1
on a par composition de limites n ln 1 + → 1 puis
n
n
1
1+ →e
n
Théorème
On suppose qu’à partir d’un certain rang
vn 6 un 6 wn
∀n > N1 , vn 6 un 6 wn
puis
n n
√ 6 un 6
n+ n n+1
n n
Or √ → 1 et → 1 donc par encadrement
n+ n n+1
un → 1
Théorème
Si à partir d’un certain rang |un − `| 6 vn et si vn → 0 alors un → `.
dém. :
On suppose qu’il existe N1 ∈ N tel que
∀n > N1 , |un − `| 6 vn
et on suppose vn → 0.
Soit ε > 0.
Puisque vn → 0, il existe N2 ∈ N tel que
∀n > N2 , |vn − 0| 6 ε
et donc vn 6 ε.
Pour N0 = max(N1 , N2 ), on a
∀n > N0 , |un − `| 6 ε
Remarque Lorsque l’on présume un → ` et qu’on ne peut l’établir par opération, il est fréquent
d’étudier |un − `| et de majorer |un − `| par le terme d’une suite de limite nulle.
Cette démarche est souvent plus efficace que le théorème des gendarmes car on n’y utilise qu’une
inégalité au lieu de deux, car les valeurs absolues rendent positives les quantités manipulées, ce qui est
pratique pour la multiplication d’inégalités. Cependant cette démarche nécessite de l’intuition car pour
l’initier il faut avoir deviner quelle est la limite de (un ).
Remarque La démarche par comparaison est souvent utilisé pour étudier les limites de sommes ou
d’intégrales.
donc
un → 0
n
sin k sin k
X
Ici la démarche → 0 donc → 0 est incorrecte car la somme contient un nombre
+kn22 n + k2
2
k=1
n → +∞ de termes.
Proposition
Si (un ) est bornée et vn → 0 alors un vn → 0.
dém. :
Soit M ∈ R tel que |un | 6 M pour tout n ∈ N.
On a |un vn − 0| = |un | |vn | 6 M |vn | → 0 donc un vn → 0
(−1)n
Exemple un = → 0 par produit d’une suite bornée par une suite de limite nulle.
n
Théorème
On suppose qu’à partir d’un certain rang un 6 vn .
Si un → +∞ alors vn → +∞.
Si vn → −∞ alors un → −∞.
dém. :
Par hypothèse, il existe N1 ∈ N tel que
∀n > N1 , un 6 vn
Supposons un → +∞.
Soit A ∈ R.
Il existe N2 ∈ N tel que
∀n > N2 , un > A
Pour n > N0 = max(N1 , N2 ), un 6 vn et un > A donc vn > A.
Ainsi vn → +∞.
L’étude quand vn → −∞ se déduit de la précédent par passage à l’opposé.
Remarque Lorsqu’on présume un → +∞ et qu’on ne peut l’établir par un calcul direct, il est fréquent
d’essayer de minorer un par le terme d’une suite de limite +∞.
Remarque L’énoncé du théorème se généralise aux suites monotones à partir d’un certain rang.
On a
n+1 n
X 1 X 1 1
un+1 − un = − = >0
k! k! (n + 1)!
k=0 k=0
On a alors
n n n
X 1 X 1 X 1 1 − 1/2n
un = =1+ 61+ = 1 + 61+2=3
k! k! 2k−1 1 − 1/2
k=0 k=1 k=1
Exemple Soit n ∈ N. Montrons que l’équation nx + ln x = 0 possède une unique solution xn ∈ R+? et
étudions la limite de la suite (xn )n∈N ainsi définie.
Considérons la fonction fn : x 7→ nx + ln x définie sur R+? .
fn est continue et strictement croissante par opérations.
Sa limite en 0+ est −∞ et sa limite en +∞ est +∞.
On peut donc affirmer que fn réalise une bijection de ]0, +∞[ vers R.
En particulier l’équation fn (x) = 0 admet une unique solution xn ∈ R+? , à savoir xn = fn−1 (0).
Etudions la monotonie de (xn ).
On a
(n + 1)xn+1 + ln xn+1 = 0
donc
fn (xn+1 ) = −xn+1 < 0 = fn (xn )
Puisque la fonction fn est strictement croissante, on a xn+1 < xn .
La suite (xn ) est donc (xn ) est strictement décroissante.
De plus, cette suite est minorée par 0, elle est donc convergente. Posons ` sa limite.
Puisque pour tout n ∈ N, un > 0, à la limite on obtient ` > 0.
Si par l’absurde ` > 0 alors en passant la relation nxn + ln xn = 0 à la limite, on obtient +∞ = 0.
C’est absurde et donc nécessairement ` = 0.
Définition
Deux suites réelles a et b sont dites adjacentes si a est croissante, b décroissante et si bn −an →
0
Exemple Une suite croissante et une suite décroissante de même limite sont adjacentes.
Théorème
Si a et b sont deux suites réelles adjacentes alors elles convergent vers une même limite ` et
encadrent celle-ci
∀n ∈ N, an 6 ` 6 bn
dém. :
Montrons
∀n ∈ N, an 6 bn
Soit m > n.
Par monotonie, on a am > an et bm 6 bn donc
bn − an > bm − am
∀n ∈ N, an 6 bn
On a
2n+2 2n
X 1 X 1
an+1 − an = −
k k
k=n+2 k=n+1
1 1 1 1
Or 6 et 6 donc
2n + 2 2n 2n + 1 2n
1 1 1
bn+1 − bn 6 + − =0
2n 2n n
Exemple Soient
E(10n x) E(10n x) + 1
an = n
et bn =
10 10n
an et bn sont des nombres décimaux car chacun rapport d’un entier par une puissance de 10
Puisque E(10n x) 6 10n x, on a 10E(10n x) 6 10n+1 x et donc 10E(10n x) 6 E(10n+1 x).
On en déduit an 6 an+1 et donc (an ) croissante.
Puisque 10n x < E(10n x) + 1, on a 10n+1 x < 10E(10n x) + 10 et donc
E(10n+1 x) + 1 6 10(E(10n x) + 1).
On en déduit bn+1 6 bn et donc (bn ) décroissante.
Enfin
1
bn − an = n → 0
10
Les suites (an ) et (bn ) sont adjacentes.
Notons ` leur limite commune.
Comme
E(10n x) 6 10n x < E(10n x) + 1
on a an 6 x 6 bn et donc à la limite on obtient ` 6 x 6 ` d’où ` = x.
La suite (an ) est la suite des valeurs décimales par défaut de x et la suite (bn ) est la suite des valeurs
décimales par excès de x.
Théorème
, bn ]) est une suite décroissante de segments tels que bn − an → 0
Si ([an\
alors [an , bn ] est un singleton.
n∈N
dém. :
Par décroissance de la suite de segments ([an , bn ]), on a [an+1 , bn+1 ] ⊂ [an , bn ].
On en déduit an+1 > an et bn+1 6 bn . Puisque de plus, on suppose bn − an → 0, on peut affirmer que
les suites (an ) et (bn ) sont adjacentes. Notons ` leur
\ limite commune.
Puisque pour tout n ∈ N, an 6 ` 6 bn , on a ` ∈ [an , bn ].
n∈N
\
Inversement, soit x ∈ [an , bn ].
n∈N
On a pour tout n ∈ N, an 6 x 6 bn donc à la limite ` 6 x 6 ` et donc x = `.
Finalement \
[an , bn ] = {`}
n∈N
Exemple Soit f : [a, b] → R une fonction continue vérifiant f (a) 6 0 et f (b) > 0.
Posons [a0 , b0 ] = [a, b]. On vérifier f (a0 ) 6 0 et f (b0 ) > 0.
Considérons ensuite le milieu
a0 + b0
c=
2
Si f (c) > 0, on pose [a1 , b1 ] = [a0 , c] et sinon, on pose [a1 , b1 ] = [c, b0 ] de sorte que f (a1 ) 6 0 et
f (b1 ) > 0.
Et on reprend le processus. . .
Par ce schéma, on construit une suite ([an , bn ]) de segments emboités avec
b−a
bn − an = →0
2n
L’intersection de ces segments détermine une valeur x limite commune aux suites (an ) et (bn ).
Puisque par construction f (an ) 6 0 et f (bn ) > 0, en passant ces comparaisons à la limite, on obtient
f (x) 6 0 et f (x) > 0 car f est supposée continue.
On en déduit f (x) = 0.
Le procédé dichotomique permet d’accéder par encadrement aux valeurs approchées d’une solution de
l’équation f (x) = 0.
∀n ∈ N, vn = uϕ(n)
Une telle suite est alors notée (uϕ(n) )n∈N ou encore (uϕ(n) ).
Remarque Une suite extraite se comprend comme une sélection d’une infinité de termes d’une suite.
Exemple v0 = u2 , v1 = u3 , v2 = u200 , v3 = u203 sont les premiers termes d’une suite extraite de (un )
Exemple Pour ϕ(n) = 2n, la suite extraite (u2n ) est la suite formée des termes d’indice pair de (un ).
Pour ϕ(n) = 2n + 1, la suite extraite (u2n+1 ) est la suite formée des termes d’indice impair de (un ).
Proposition
Si w est une suite extraite d’une suite v elle-même extraite de u alors w est une suite extraite
de u.
dém. :
Par hypothèse, il existe ϕ, ψ : N → N strictement croissantes telles que
∀n ∈ N, vn = uϕ(n) et ∀n ∈ N, wn = vψ(n)
∀n ∈ N, vn = uϕ(n)
∀n > N, |un − `| 6 ε
Ainsi vn → `.
Cas ` = +∞ ou −∞ :
La démarche est semblable, seule la traduction quantifiée de la limite change.
Remarque Nous avons ici que la convergence de (u2n ) et (u2n+1 ) ne suffit pas à justifier celle de (un ).
Cependant :
Théorème
Si (u2n ) et (u2n+1 ) tendent vers une même limite ` ∈ R̄ alors un → `.
dém. :
Cas ` ∈ R :
Soit ε > 0.
Puisqu’on suppose u2n → ` et u2n+1 → `, il existe N1 , N2 ∈ N tels que
Nous allons montrer que les suites (S2n ) et (S2n+1 ) sont adjacentes
2n+2 2n
X (−1)k−1 X (−1)k−1
S2(n+1) − S2n = S2n+2 − S2n = −
k k
k=1 k=1
Remarque Le théorème qui suit est essentiel pour la construction de la suite du cours d’analyse (il est
notamment à la base du calcul intégral. . . )
Théorème
De toute suite réelle bornée on peut extraire une suite convergente.
dém. :
La démonstration suivante exploite le principe de dichotomie qui consiste à découper un objet en deux
portions, en conserver une et la découper à nouveau de sorte de générer un processus récurrent.
L’idée essentielle ici est la suivante : Lorsqu’on découpe un ensemble infini en deux sous-ensembles,
nécessairement l’un d’entre eux (au moins) doit être infini. Ceci permettra d’exploiter le principe de
dichotomie...
Passons aux faits :
Soit (un ) une suite réelle bornée par un certain réel M ∈ R+ .
Nous allons construire par un procédé dichotomique deux suites adjacentes (an ) et (bn ) telles que, pour
tout entier naturel n, l’ensemble
An = {k ∈ N/an 6 uk 6 bn }
soit infini :
Etape initiale :
Pour a0 = −M, b0 = M l’ensemble A0 est infini car égal à N puisque tous les termes de la suite u sont
comprise entre −M et M .
Etape n :
Soient an et bn tels que l’ensemble
An = {k ∈ N/an 6 uk 6 bn }
soit infini.
Construisons an+1 et bn+1 .
Posons
an + bn
d=
2
et considérons :
A− +
n = {k ∈ N/an 6 uk 6 d} et An = {k ∈ N/d 6 uk 6 bn }
On a An = A− + − +
n ∪ An . Puisque An est infini, au moins l’un des deux ensembles An ou An l’est.
+
Si An est infini, on pose an+1 = d et bn+1 = bn , sinon pose an+1 = an et bn+1 = d.
Dans les deux cas, l’ensemble
est infini.
De plus, dans les deux cas
bn − a n
bn+1 − an+1 =
2
Par se schéma, nous avons défini deux suites (an ) et (bn ) et on vérife aisément que (an ) est croissante,
(bn ) décroissante et bn+1 − an+1 = (bn − an )/2 de sorte que
1
bn − an = (b − a) → 0
2n
Ainsi les suites (an ) et (bn ) sont adjacentes. Notons ` leur limite commune.
Nous allons maintenant pouvoir construire une suite extraite de (un ) qui converge vers ` en définissant
par récurrence une extractrice ϕ : N → N.
Pour n = 0, on pose ϕ(0) = 0.
Lorsque ϕ(n) est défini, on pose
Ce min existe car l’ensemble An+1 \ {0, 1, 2, ..., ϕ(n)} est une partie de N et cette partie est non vide
puisqu’on a retiré l’ensemble infini An+1 un nombre fini d’éléments.
On définit ainsi une application ϕ : N → N vérifiant ϕ(n + 1) > ϕ(n) pour tout n ∈ N ; cette application
est strictement croissante.
Considérons maintenant la suite extraite (uϕ(n) ).
Par construction de ϕ, on a pour tout n ∈ N, ϕ(n) ∈ An et donc
an 6 uϕ(n) 6 bn
Comme les suites (an ) et (bn ) convergent vers la même limite `, par encadrement (uϕ(n) ) converge vers `.
Finalement, nous avons extrait de la suite (un ) une suite convergente.
n+i
Exemple zn = est le terme général d’une suite complexe.
n−i
Définition
Soit z = (zn ) une suite complexe.
On appelle partie réelle de z la suite Re(z) de terme général Re(zn ).
On appelle partie imaginaire de z la suite Im(z) de terme général Im(zn ).
On appelle conjuguée de suite z la suite z̄ de terme général zn .
On appelle module de suite z la suite |z| de terme général |zn |.
Définition
Une suite complexe z = (zn ) est dite bornée s’il existe M ∈ R+ vérifiant
∀n ∈ N, |zn | 6 M
Proposition
Une suite complexe z est bornée si, et seulement si, Re(z) et Im(z) le sont.
dém. :
Puisque |Re(z)| , |Im(z)| 6 |z|, si la suite z est bornée, les suites Re(z) et Im(z) le sont aussi.
Inversement, puisque |z| 6 |Re(z)| + |Im(z)|, si les suites Re(z) et Im(z) sont bornées, la suite z l’est
encore.
15.3.2 Convergence
Définition
On dit qu’une suite complexe z tend vers ` ∈ C si
|zn − `| −−−−−→ 0
n→+∞
in
Exemple On a zn = → i.
n+i
En effet
in 1 1
|zn − i| = − i = =√ →0
n+i |n + i| n2 + 1
Définition
On dit qu’une suite complexe z converge s’il existe ` ∈ C vérifiant zn → `.
Sinon, on dit que z diverge.
Théorème
Si une suite complexe z converge alors il existe un unique ` ∈ C tel que zn → `.
Ce complexe ` est alors appelé limite de la suite z et on note ` = lim z, ` = lim zn ou
n→+∞
` = lim zn .
dém. :
Si zn → ` et zn → `0 alors 0 6 |` − `0 | 6 |` − zn | + |zn − `0 | donne à la limite |` − `0 | = 0 et
donc ` = `0 .
Remarque Pour le suites complexes, il n’y a pas de notion de limite infinie, tout au plus peut-on dire
|zn | → +∞.
et
||zn | − |`|| 6 |zn − `|
donc
z̄n − `¯ → 0 et ||zn | − |`|| → 0
Théorème
Toute suite complexe convergente est bornée.
dém. :
Soit (zn ) une suite convergente de limite `.
Puisque |zn | → |`|, la suite (|zn |) est bornée, donc majorée, ce qui signifie que z est majorée.
Théorème
Soient z et z 0 deux suites complexes.
Si zn → ` ∈ C et zn0 → `0 ∈ C alors zn + zn0 → ` + `0 , zn zn0 → ``0
De plus si zn → ` 6= 0 alors 1/zn → 1/`.
dém. :
Suppsons zn → ` et zn0 → `0 .
Puisque
|(zn + zn0 ) − (` + `0 )| 6 |zn − `| + |zn0 − `0 |
on a
|(zn + zn0 ) − (` + `0 )| → 0
Ainsi zn + zn0 → ` + `0 .
Puisque
|zn zn0 − ``0 | 6 |zn | |zn0 − `0 | + |`0 | |zn − `|
avec (|zn |) majorée, on a
|zn zn0 − ``0 | → 0
Ainsi zn zn0 → ``0 .
Enfin, si zn → ` 6= 0, l’égalité
− 1 = |` − zn |
1
zn ` |zn | |`|
entraîne
1
− 1 → 0
zn `
1 1
et donc → .
zn `
Théorème
Soient z une suite complexe et ` ∈ C.
On a équivalence entre :
(i) zn → ` ;
(ii) Re(zn ) → Re(`) et Im(zn ) → Im(`).
dém. :
(i) ⇒ (ii) Car |Re(zn ) − Re(`)| 6 |zn − `| et |Im(zn ) − Im(`)| 6 |zn − `|.
(ii) ⇒ (i) Car zn = Re(zn ) + iIm(zn ).
Exemple On a
lim e2iπ/n = 1
n→+∞
En effet
2π 2π
e2iπ/n = cos + i sin →1
n n
Proposition
Soit q ∈ C.
Si |q| < 1 alors q n → 0.
Si q = 1 alors q n → 1.
Si |q| > 1 et q 6= 1 alors (q n ) diverge.
dém. :
Si |q| < 1 alors pour tout n ∈ N,
n+1
q = |q n | |q| 6 |q n |
Définition
Soient a = (x, y) ∈ R2 et b = (x0 , y 0 ) ∈ R2 .
On appelle distance euclidienne de a à b le réel
p
d(a, b) = (x0 − x)2 + (y 0 − y)2
Proposition
∀a, b, c ∈ R2 ,
dém. :
En exploitant d(a, b) = |zb − za |, ces propriétés découlent immédiatement de propriétés connues du
module.
15.3.6.2 Suite
Définition
On appelle suite d’éléments de R2 toute application u : N → R2 .
Définition
Soit u = (un ) une suite d’éléments de R2 .
Pour tout n ∈ N, on peut écrire un = (xn , yn ).
Ceci introduit deux suites réelles (xn ) et (yn ) appelées suites coordonnées de (un ).
15.3.6.3 Convergence
Soit u = (un ) une suite d’éléments de R2 .
Définition
On dit que u tend vers ` ∈ R2 si
d(un , `) → 0
On note alors u → `, un → ` ou un −−−−−→ `.
n→+∞
Définition
On dit que la suite u converge s’il existe ` ∈ R2 tel que un → `.
Proposition
Si u converge alors il existe un unique ` ∈ R2 tel que un → `.
` est alors appelé limite de la suite u et on note ` = lim u, ` = lim un ou ` = lim un
n→+∞
dém. :
Si un → ` et un → `0 alors 0 6 d(`, `0 ) 6 d(`, un ) + d(un , `0 ) donne à la limite d(`, `0 ) = 0 et
donc ` = `0 .
Proposition
Soit u une suite d’éléments de R2 de suites coordonnées x et y.
On a équivalence entre :
(i) u converge vers ` = (a, b) ;
(ii) x converge vers a et y converge vers b.
dém. :
On a p
d(un , `) = (xn − a)2 + (yn − b)2
Par suite |xn − a| , |yn − b| 6 d(un , `) et donc (i) ⇒ (ii).
Aussi d(un , `) 6 |xn − a| + |yn − b| et donc (ii) ⇒ (i).
Exemple Soit
1 1
un = ( , n sin ) ∈ R2
n n
1 1 sin(1/n)
On a un → (0, 1) car → 0 et n sin = → 1.
n n 1/n
15.4.1 Négligeabilité
Définition
On dit qu’une suite u est négligeable devant une suite α si pour n assez grand on peut écrire
un = αn εn
Proposition
Si la suite α ne s’annule pas à partir d’un certain rang alors on a équivalence entre :
(i) un = o(αn ) ;
(ii) un /αn → 0.
dém. :
(i) ⇒ (ii) Si un = o(αn ) alors on peut écrire pour n assez grand un = αn εn avec εn → 0.
Or pour n assez grand αn 6= 0 et donc pour n assez grand, un /αn = εn → 0.
(ii) ⇒ (i) Si un /αn → 0 alors on peut écrire un = αn εn avec εn = un /αn → 0 et donc un = o(αn ).
Exemple Quand n → +∞, ln n = o(n).
ln n
En effet → 0 par limite de référence.
n
De même, quand n → +∞, on peut écrire n = o(n2 ), 1/n2 = o(1/n),. . .
Proposition
Si un = o(λαn ) alors un = o(αn ).
Si un = o(αn ) et vn = o(αn ) alors un + vn = o(αn ).
Si un = o(αn ) alors un vn = o(αn vn ).
dém. :
Supposons un = o(λαn )
A partir d’un certain rang, on peut écrire un = λαn εn avec εn → 0 et donc un = αn (λεn ) avec
λεn → 0. Ainsi un = o(αn ).
Supposons un = o(αn ) et vn = o(αn ).
A partir d’un certain rang, on peut écrire un = αn εn et vn = αn ε0n avec εn , ε0n → 0 et donc un + vn =
αn (εn + ε0n ) avec εn + ε0n → 0. Ainsi un + vn = o(αn ).
Supposons un = o(αn ).
A partir d’un certain rang, on peut écrire un = αn εn avec εn → 0 et donc un vn = αn vn εn avec εn → 0.
Ainsi un vn = o(αn vn )
Proposition
Si un = o(αn ) et αn = o(βn ) alors un = o(αn ).
dém. :
Supposons un = o(αn ) et αn = o(βn ).
Pour n assez grand, on peut écrire à la fois un = αn εn et αn = βn ε0n avec εn , ε0n → 0.
On a alors un = βn εn ε0n avec εn ε0n → 0 et donc un = o(βn ).
Exemple Quand n → +∞, on peut écrire o(n) − no(n) = o(n) − o(n2 ) = o(n2 ) − o(n2 ) = o(n2 ).
15.4.2 Prépondérance
Définition
On dit qu’une suite u est dominée par une suite α si pour n assez grand on peut écrire
un = αn Mn
Proposition
Si la suite (αn ) ne s’annule pas à partir d’un certain rang alors on a équivalence entre :
(i) un = O(αn ) ;
(ii) (un /αn ) est bornée.
dém. :
(i) ⇒ (ii) Supposons un = O(αn ).
A partir d’un certain rang, on peut écrire un = αn Mn avec (Mn ) bornée et alors puisque pour n assez
grand un /αn = Mn , la suite (un /αn ) est bornée à partir d’un certain rang donc bornée.
(ii) ⇒ (i) Supposons (un /αn ) bornée.
Puisque pour n assez grand un = αn Mn avec Mn = un /αn , on a un = O(αn ).
Proposition
Si un = O(λαn ) alors un = O(αn ).
Si un = O(αn ) et vn = O(αn ) alors un + vn = O(αn ).
Si un = O(αn ) alors un βn = O(αn βn ).
dém. :
Supposons un = O(λαn ).
A partir d’un certain rang, on peut écrire un = λαn Mn avec (Mn ) bornée et donc un = αn (λMn ) avec
(λMn ) bornée. Ainsi un = O(αn ).
Supposons un = O(αn ) et vn = O(αn ).
A partir d’un certain rang, on peut écrire un = αn Mn et vn = αn Mn0 avec (Mn ) et (Mn0 ) bornées. On a
donc un + vn = αn (Mn + Mn0 ) avec (Mn + Mn0 ) bornée. Ainsi un + vn = O(αn ).
Supposons un = O(αn ).
A partir d’un certain rang, on peut écrire un = αn Mn avec (Mn ) bornée et donc un vn = αn vn Mn avec
(Mn ) bornée. Ainsi un vn = O(αn vn )
Proposition
Si un = o(αn ) et αn = O(βn ) alors un = o(βn ).
Si un = O(αn ) et αn = o(βn ) alors un = o(βn ).
Si un = O(αn ) et αn = O(βn ) alors un = O(βn ).
dém. :
Supposons un = o(αn ) et αn = O(βn ).
A partir d’un certain on peut écrire un = αn εn et αn = βn Mn avec εn → 0 et (Mn ) bornée.
On a alors un = βn (Mn εn ) avec Mn εn → 0 et donc un = o(βn ).
Les deux autres implications s’obtiennent de façon semblable.
dém. :
un 1/vn
→0⇒ →0
vn 1/un
puisque
1/vn un
=
1/un vn
Proposition
Pour α, β > 0 et 0 < a < 1 on a :
1 1 1 1
= o(an ), q n = o et α = o
n! nα n (ln n)β
dém. :
Ces résultats découlent immédiatement du lemme précédent.
Remarque Par l’étude précédente, on peut écrire :
1 1 1
e−n << 2 << << << 1 << ln n << n << n2 << en << n!
n n ln n
A titre d’exercice, on peut positionner entre les précédents les termes suivants :
1 1 1 ln n n √ 1
2n , n , 2
, , 2 , , ln ln n, n ln n, √ ln n, ...
3 (ln n) n ln n n ln n n
15.4.4 Equivalence
15.4.4.1 Définition
Définition
Une suite u est dite équivalente à une suite v si à partir d’un certain rang on peut écrire
u n = vn θ n
avec θn → 1
On note alors un ∼ vn ou encore un ∼ vn quand n → +∞.
n→+∞
Proposition
Si la suite (vn ) ne s’annule pas à partir d’un certain rang alors on a équivalence entre :
(i) un ∼ vn ;
(ii) un /vn → 1.
dém. :
(i) ⇒ (ii) Supposons un ∼ vn .
A partir d’un certain rang, on peut écrire un = vn θn avec θn → 1 bornée et alors puisque pour n assez
grand un /vn = θn , la suite (un /vn ) converge vers 1.
(ii) ⇒ (i) Supposons un /vn → 1 bornée.
Puisque pour n assez grand un = vn θn avec θn = un /vn → 1, on a un ∼ vn .
Exemple Quand n → +∞,
n + ln n + 2 ∼ n
p
n2 + n + 1 ∼ n,
1 1 1 n+1
+ ∼ et ∼1
n n2 n n
Attention : un ∼ 0 signifie un = 0 à partir d’un certain rang (c’est assez rare d’être dans cette
situation. . . )
Ecrire un ∼ +∞ n’a aucun sens !
Proposition
Si un ∼ vn alors vn ∼ un .
Si un ∼ vn et vn ∼ wn alors un ∼ wn .
dém. :
Supposons un ∼ vn .
On peut écrire à partir d’un certain rang un = vn θn avec θn → 1.
Puisque θn → 1, pour n assez grand, on a θn 6= 0.
Ainsi à partir d’un certain rang, on a vn = un θn0 avec θn0 = 1/θn → 1 et donc vn ∼ un .
Supposons un ∼ vn et vn ∼ wn .
A partir d’un certain rang on peut écrire un = vn θn et vn = θn0 wn avec θn , θn0 → 1 et donc un = wn θn θn0
avec θn θn0 → 1. Ainsi un ∼ wn .
Proposition
On a équivalence entre :
(i) un ∼ vn ;
(ii) un = vn + o(vn ).
dém. :
(i) ⇒ (ii) Supposons un ∼ vn .
Pour n assez grand, on peut écrire un = vn θn avec θn → 1.
On a alors un = vn + vn εn avec εn = θn − 1 → 0 et donc un = vn + o(vn ).
(ii) ⇒ (i) Supposons un = vn + o(vn ).
Pour n assez grand, on peut écrire un = vn + vn εn avec εn → 0.
On a alors un = vn θn avec θn = 1 + εn → 1 et donc un ∼ vn .
Remarque Ce résultat est essentiel pour obtenit facilement un équivalent à une somme.
√ √ √ √
ln n + 2 n + 1 = 2 n + o( n) ∼ 2 n
1 1 1 1 1 1
n
+√ + = +o ∼
2 n ln n ln n ln n ln n
Théorème
Si un ∼ vn et vn → ` ∈ R̄ ou ` ∈ C alors un → `.
dém. :
Pour n assez grand un = vn θn avec θn → 1 donc un → `.
√
Exemple Quand n → +∞, n2 − n − n = n2 + o(n2 ) ∼ n2 → +∞.
Remarque Inversement :
Supposons un → ` et vn → `.
Si ` ∈ R? alors un ∼ vn car un ∼ ` et vn ∼ `.
Sinon, on ne peut rien dire !
Théorème
Soient u et v deux suites réelles.
Si un ∼ vn alors, à partir d’un certain rang, un et vn ont le même signe.
dém. :
Pour n assez grand un = vn θn avec θn → 1.
Puisque θn → 1, pour n assez grand θn > 0 et alors un et vn ont le même signe.
1 1 2 1
un = − + √ − 2 ∼ √ → 0+
n n n n
donc un → 0+ .
Proposition
Si un ∼ vn alors un = O(vn ) et vn = O(un ).
dém. :
Supposons un ∼ vn .
Pour n assez grand, on peut écrire un = vn θn avec θn → 1.
Puisque la suite (θn ) est convergente, elle est bornée et donc un = O(vn ).
Aussi un ∼ vn entraîne vn ∼ un et donc vn = O(un ).
Proposition
Si un ∼ vn et vn = o(wn ) alors un = o(wn ).
Si un ∼ vn et vn = O(wn ) alors un = O(wn ).
Si un = o(vn ) et vn ∼ wn alors un = o(wn ).
Si un = O(vn ) et vn ∼ wn alors un = O(wn ).
dém. :
Supposons un ∼ vn et vn = o(wn ).
On a alors un = O(vn ) et vn = o(wn ) et donc un = o(wn ).
Les trois autres implications s’obtiennent de façon analogue.
Remarque Par les deux dernières propriétés, il est usuel lors d’expression de négligeabilité ou de
domination de ne comparer qu’à des suites « simples ».
Par exemple, on écrit o(n) au lieu de o(n + 1) car n ∼ n + 1.
Remarque Pour déterminer un équivalent à une somme, on écrit celle-ci sous la forme
un + o(un ) ∼ un .
Théorème
un vn
Si un ∼ vn et wn ∼ tn alors un wn ∼ vn tn et ∼ .
wn tn
Si un ∼ vn alors ∀p ∈ Z, upn ∼ vnp .
dém. :
Suppsons un ∼ vn et wn ∼ tn .
A partir d’un certain rang, on peut écrire un = vn θn et wn = tn θn0 avec θn , θn0 → 1.
un vn θ n
On a alors alors un wn = vn tn (θn θn0 ) et = avec θn θn0 → 1 et θn /θn0 → 1.
wn tn θn0
De plus upn = vnp θnp avec θnp → 1.
Théorème
Soient (un ) et (vn ) deux suites de réels strictement positifs.
Si un ∼ vn alors
∀α ∈ R, uα n ∼ vn
α
dém. :
Pour n assez grand, on peut écrire un = vn θn avec θn → 1.
Par suite uα α α α α
n = vn θn avec θn → 1 = 1.
n
un ∼ =1
n
Proposition
Si un → 0 alors sin un ∼ un et ln(1 + un ) ∼ un .
dém. :
sin x ln(1 + x)
On exploite les limites connues −−−→ 1 et −−−→ 1
x x→0 x x→0
un = ln(n + 1) − ln(n)
On a
1 sin(1/n) 1
tan = ∼
n cos(1/n) n
donc
1 1 1
tan = + o
n n n
puis
1 1 1 1 1 1
un = + o − 2 = +o ∼
n n n n n n
Proposition
Soient u et v deux suites de réels strictement positifs.
Si un ∼ vn et vn → ` avec ` = 0+ , ` = +∞ ou ` ∈ R+? \ {1}
alors ln un ∼ ln vn .
dém. :
Pour n assez grand, on peut écrire un = vn θn avec θn → 1.
On a alors ln un = ln vn + ln θn . Or ln θn → 0 et ln vn → −∞, ln ` ou +∞.
Dans chaque cas, ln θn = o(ln vn ) et donc ln un ∼ ln vn .
un = ln(n2 + 1)
Puisque n2 + 1 ∼ n2 → +∞ =
6 1, on a
un = ln(n2 + 1) ∼ ln n2 = 2 ln n
Exemple Déterminons n
1
lim 1+
n→+∞ n
On a n
1 1
1+ = exp n ln 1 +
n n
or
1 1
ln 1 + ∼
n n
donc
1
n ln 1 + →1
n
puis par composition de limites n
1
lim 1+ =e
n→+∞ n
Fonctions numériques
Définition
On appelle graphe (ou courbe représentative) d’une fonction f : D → R l’ensemble
Exemple f : R+? → R définie par f (x) = sin(1/x) est une fonction réelle.
Définition
Une fonction f : D → R est dite constante s’il existe C ∈ R tel que
∀x ∈ D, f (x) = C
Une telle fonction est alors dite constante égale à C et est parfois simplement notée C.
557
16.1. FONCTIONS RÉELLES
Exemple La fonction nulle est la fonction constante égale à 0 ; on la note 0, 0̃ ou plus rarement θ.
Définition
On appelle valeur absolue d’une fonction f : D → R la fonction |f | : D → R définie par
∀x ∈ D, |f | (x) = |f (x)|
Proposition
Soit f : D → R. On a équivalence entre :
(i) f est bornée ;
(ii) ∃M ∈ R, ∀x ∈ D, |f (x)| 6 M ;
(iii) |f | est majorée.
dém. :
(i) ⇒ (ii) Supposons f bornée.
La fonction f est minorée et majorée et donc alors il existe m1 , m2 ∈ R tels que
∀x ∈ D, m1 6 f (x) 6 m2
∀x ∈ D, |f (x)| 6 M
∀x ∈ D, |f (x)| 6 M
Définition
Pour f, g : D → R, on définit les fonctions sup(f, g) : D → R et inf(f, g) : D → R par :
∀x ∈ D, sup(f, g)(x) = max(f (x), g(x)) et inf(f, g)(x) = min(f (x), g(x))
Proposition
inf(f, g) 6 f, g 6 sup(f, g).
dém. :
Pour tout x ∈ D, min(f (x), g(x)) 6 f (x), g(x) 6 max(f (x), g(x)).
Proposition
Soient f, g : D → R et λ ∈ R.
Si f et g sont bornées alors λ.f, f + g et f g le sont aussi.
dém. :
Supposons f et g bornées.
Par hypothèse il existe M, M 0 ∈ R vérifiant
∀x ∈ D, |f (x)| 6 M et |g(x)| 6 M 0
On a alors pour tout x ∈ D, |(λ.f )(x)| = |λf (x)| = |λ| |f (x)| 6 |λ| M ,
et
|(f g)(x)| = |f (x)g(x)| = |f (x)| |g(x)| 6 M M 0
16.1.3 Parité
Définition
Une fonction f : D → R est dite paire (resp. impaire) si :
1) le domaine D est symétrique par rapport à 0 i.e. : ∀x ∈ D, −x ∈ D ;
2) ∀x ∈ D, f (−x) = f (x) (resp. f (−x) = −f (x) ).
Proposition
Soient f : D → R et ϕ : D0 → R telles que f (D) ⊂ D0 .
Si f est paire alors ϕ ◦ f l’est aussi.
Si f est impaire et ϕ paire alors ϕ ◦ f est paire.
Si f est impaire et ϕ impaire alors ϕ ◦ f est impaire.
dém. :
ϕ ◦ f est définie sur D intervalle symétrique par rapport à 0.
Si f est paire alors pour tout x ∈ D,
16.1.4 Périodicité
Définition
Une fonction f : D → R est dite T périodique si :
1) le domaine D est T périodique i.e. ∀x ∈ D, x + T ∈ D ;
2) ∀x ∈ D, f (x + T ) = f (x).
Définition
Une fonction f est dite périodique s’il existe T 6= 0 telle qu’elle soit T périodique.
Proposition
Soit f : R → R.
Si f est T périodique alors
∀k ∈ Z, ∀x ∈ R, f (x + kT ) = f (x)
dém. :
Par récurrence sur n ∈ N, on obtient facilement,
∀n ∈ N, ∀x ∈ R, f (x + nT ) = f (x)
16.1.5 Lipschitzianité
Définition
On dit que f : D → Rf est lipschitzienne s’il existe k ∈ R+ tel que
Remarque Si f est k lipschitzienne alors pour tout k 0 > k, f est aussi k 0 lipschitzienne.
Proposition
Soient f, g : D → R et λ ∈ R.
Si f est k lipschitzienne alors λ.f est |λ| k lipschitzienne.
Si f et g sont k et k 0 lipschitziennes alors f + g est k + k 0 lipschitzienne.
dém. :
|(λ.f )(y) − (λ.f )(x)| = |λf (y) − λf (x)| = |λ| |f (y) − f (x)| 6 |λ| k |y − x|
et
|(f + g)(y) − (f + g)(x)| = |f (y) + g(y) − f (x) − g(x)|
6 |f (y) − f (x)| + |g(y) − g(x)| 6 (k + k 0 ) |y − x|
Proposition
Soit f : D → R et ϕ : D0 → K telles que f (D) ⊂ D0 .
Si f et ϕ sont k et k 0 lipschitziennes alors ϕ ◦ f est kk 0 lipschitzienne.
dém. :
Définition
Soit a ∈ R, on appelle voisinage de a tout ensemble V = [a − α, a + α] avec α > 0.
Définition
On appelle voisinage de +∞ (resp. −∞ ) tout ensemble de la forme V = [A, +∞[ (resp.
V = ]−∞, A] ) avec A ∈ R.
Définition
On dit que f : D → R est définie au voisinage de a ∈ R̄ si pour tout voisinage V de a, on a
V ∩D = 6 ∅.
Exemple Si I est un intervalle non vide de R, une fonction f : I → R est définie au voisinage de
chaque point de I et aussi au voisinage des extrémités de I.
Exemple Si I est un intervalle non singulier de R et si a est un élément de I alors une fonction définie
sur I\ {a} est définie au voisinage de a.
Définition
Soit f : D → R une fonction définie au voisinage de a ∈ R̄.
On dit que f présente une propriété au voisinage de a s’il existe un voisnage V de a tel que f
présente la propriété sur V ∩ D.
16.2.1.1 Définition
Définition
On dit que f : D → R tend vers ` ∈ R en a si l’on a la propriété
On note alors f −
→ `, f (x) −−−→ ` ou f (x) −−−−−−→ `
a x→a x→a,x∈D
Ainsi :
Cas a ∈ R
f−
→ ` ⇔ ∀ε > 0, ∃α > 0, ∀x ∈ D, |x − a| 6 α ⇒ |f (x) − `| 6 ε
a
Cas a = +∞
Cas a = −∞
Remarque Dire que f tend ` en a signifie que pour tout ε > 0, aussi petit soit-il, il existe un voisinage
de a sur lequel :
` − ε 6 f (x) 6 ` + ε
Cas a = +∞
Proposition
Si f est définie en a ∈ R et si f −
→ ` alors nécessairement ` = f (a).
a
On dit alors que f est continue en a (et ce concept est suffisamment important pour nécessiter
un chapitre entier. . . )
dém. :
Puisqu’on suppose que f −
→ ` , pour tout ε > 0, il existe α > 0 vérifiant :
a
∀x ∈ D, |x − a| 6 α ⇒ |f (x) − `| 6 ε
Proposition
Soit ` ∈ R. On a équivalence entre :
(i) f (x) −−−→ ` ;
x→a
(ii) |f (x) − `| −−−→ 0.
x→a
dém. :
Puisque ||f (x) − `| − 0| = |f (x) − `|, les phrases quantifiées traduisant f (x) −−−→ ` et |f (x) − `| −−−→
x→a x→a
0 sont indentiques.
Remarque Il est fréquent que pour établir f (x) −−−→ ` qu’on « se ramène à 0 »en étudiant si
x→a
|f (x) − `| −−−→ 0.
x→a
Définition
On dit que f converge en a s’il existe ` ∈ R tel que f −
→ `.
a
Sinon, on dit que f diverge en a.
Déterminer la nature de f en a c’est savoir si cette fonction converge ou diverge en a.
Théorème
Si f converge en a alors il existe un unique ` ∈ R tel que f −
→ `.
a
Ce réel ` est alors appelé limite de f en a et on note ` = lim f , ` = lim f (x) ou ` =
a x→a
lim f (x).
x→a,x∈D
dém. :
Supposons f − → `0 .
→ ` et f −
a a
Soit ε > 0. Il existe un voisinage de a sur lequel |f (x) − `| 6 ε/2 et un autre voisinage sur lequel
|f (x) − `0 | 6 ε/2. Pour un élément x appartenant à l’intersection de ces deux voisinages (un tel élément
existe car f est supposée définie au voisinage de a ), on a à la fois |f (x) − `| 6 ε/2 et |f (x) − `0 | 6 ε/2.
On en déduit
|` − `0 | 6 |` − f (x)| + |f (x) − `0 | 6 ε
Or ceci vaut pour tout ε > 0 donc ` = `0 .
Théorème
Si f converge en a alors f est bornée au voisinage de a.
dém. :
Supposons f −
→ ` ∈ R.
a
Pour ε = 1, il existe un voisinage de a sur lequel |f (x) − `| 6 1 et alors sur ce voisinage |f (x)| =
|` + f (x) − `| 6 |`| + |f (x) − `| 6 |`| + 1.
Ainsi f est bornée au voisinage de a.
Attention : La réciproque fausse, la fonction x 7→ sin(1/x) est bornée sur R et en particulier au
voisinage de 0 alors que cette fonction diverge en 0.
Proposition
Soient α, β ∈ R et ` ∈ R
Si f −
→ ` et si ` > α alors f (x) > α au voisinage de a.
a
Si f −
→ ` et si ` < β alors f (x) < β au voisinage de a.
a
Si f −
→ ` et si α < ` < β alors α < f (x) < β au voisinage de a.
a
dém. :
Supposons f −
→ ` et ` > α.
a
Pour ε = (` − α)/2 > 0, il existe un voisinage de a sur lequel |f (x) − `| 6 ε.
`+α
Sur ce voisinage, on a ` − ε 6 f (x) 6 ` + ε et donc f (x) > > α.
2
Le cas f − → ` avec ` < β se traite de façon analogue et le cas α < ` < β se résout en considérant
a
l’intersection des deux voisinages précédents.
Théorème
Soient f, g : D → R telles f − → `0 .
→ ` et g −
a a
Si f (x) 6 g(x) au voisinage de a alors ` 6 `0
dém. :
Par contraposée, supposons ` > `0 et considérons α = (` + `0 )/2.
Puisque f −→ ` > α, il existe un voisinage de a sur lequel f (x) > α.
a
→ `0 < α, il existe un voisinage de a sur lequel g(x) < α.
Aussi, puisque g −
a
Sur l’intersection de ces deux voisinages, on a g(x) < α < f (x) ce qui fait plus que contredire
l’hypothèse f (x) 6 g(x) au voisinage de a.
Attention : Ce résultat est faux en terme d’inégalité stricte ; on retient que, par passage à la limite, les
inégalités strictes deviennent larges.
Définition
On dit que f tend vers +∞ en a si on a la propriété
On note alors f −
→ +∞, f (x) −−−→ +∞ ou f (x) −−−−−−→ +∞
a x→a x→a,x∈D
Ainsi :
Cas a ∈ R
f−
→ +∞ ⇔ ∀M ∈ R, ∃α > 0, ∀x ∈ D, |x − a| 6 α ⇒ f (x) > M
a
Cas a = +∞
Cas a = −∞
Remarque Dire que f tend vers +∞ en a signifier que pour tout A, arbitrairement grand, il existe un
voisinage de a sur lequel f (x) > A.
Remarque Si f est définie en a ∈ R alors on ne peut pas avoir f (x) −−−→ +∞.
x→a
En effet, si f est définie en a alors on obtient l’absurdité f (a) > M pour tout M ∈ R car au voisinage
de a, f (x) > M .
∀x ∈ R, x > A ⇒ x > M
Définition
On dit que f tend vers −∞ en a si on a la propriété
∀M ∈ R, ∃V voisinage de a, ∀x ∈ D, x ∈ V ⇒ f (x) 6 M
Proposition
f → +∞ ⇔ −f → −∞.
a a
dém. :
( ⇒ ) Supposons f −
→ +∞.
a
Pour M ∈ R, puisque −M ∈ R, il existe un voisinage de a sur lequel f (x) > −M et alors −f (x) 6 M .
Ainsi −f −
→ −∞.
a
( ⇐ ) Même principe.
Proposition
Si f −
→ +∞ alors f est minorée mais non majorée au voisinage de a.
a
Si f −
→ −∞ alors f est majorée mais non minorée au voisinage de a.
a
dém. :
Suppsons f −
→ +∞.
a
Pour M = 0, il existe un voisinage de a sur lequel f (x) > 0 et ainsi f est minorée au voisinage de a.
Pour M ∈ R, en considérant M + 1 ∈ R, il existe un voisinage de a sur lequel f (x) > M + 1 et par
Définition
Si f −→ +∞ (resp. f −→ −∞ ) alors on dit que f diverge vers +∞ en a (resp. −∞ ) et on
a a
note lim f = +∞ (resp. lim f = −∞ ).
a a
1
Exemple On peut écrire lim x = +∞ et lim = +∞.
x→+∞ x→0,x∈R+? x
Définition
Soient f : D → R, a ∈ R et D− = D ∩ ]−∞, a[
On dit que f est définie au voisinage à gauche en a si fD− est définie au voisinage de a.
L’éventuelle limite ` ∈ R̄ de f|D− en a est alors appelée limite à gauche de f en a.
On note alors ` = lim−
f ou lim− f (x).
a x→a
1 1
Exemple lim+ = +∞ et lim− = −∞.
x→0 x x→0 x
Remarque Précisement
f −−→
+
` ∈ R ⇔ ∀ε > 0, ∃α > 0, ∀x ∈ D, a < x < a + α ⇒ |f (x) − `| 6 ε
a
f −−→
−
` ∈ R ⇔ ∀ε > 0, ∃α > 0, ∀x ∈ D, a − α < x < a ⇒ |f (x) − `| 6 ε
a
Remarque Puisque les limites à droite et à gauche de f ne sont autres que des limites de restriction de
f , les résultats qui suivent s’appliquent aux limites à droite et à gauche
Théorème
Soient f : D → R définie au voisinage de a ∈ R̄ et ` ∈ R̄.
On a équivalence entre :
(i) f −
→ `;
a
(ii) ∀(un ) ∈ DN , un → a ⇒ f (un ) → `.
dém. :
Nous ne traiterons que le cas a ∈ R et ` ∈ R ; les autres cas sont très semblables.
(i) ⇒ (ii)
Supposons f − → `.
a
Soit (un ) ∈ DN tel que un → a.
Soit ε > 0.
Puisque f −→ `, il existe α > 0 vérifiant
a
∀x ∈ D, |x − a| 6 α ⇒ |f (x) − `| 6 ε
∀n > N, |un − a| 6 α
On a alors
∀n > N, |f (un ) − `| 6 ε
Ainsi f (un ) → `.
(ii) ⇒ (i) Par contraposée :
Supposons que f ne tend pas vers ` en a.
Il existe alors ε > 0 tel que pour tout α > 0, il existe x ∈ D vérifiant |x − a| 6 α et |f (x) − `| > ε.
Pour n ∈ N, prenons α = 1/(n + 1) et notons un un élément de D tel que |un − a| 6 α et |f (un ) − `| >
ε.
En faisant varier n, ce qui précède définit une suite (un ) d’éléments de D telle que un → a et (f (un ))
ne tend pas vers `.
Remarque (i) ⇒ (ii) correspond au théorème de composition de limites vu dans le cadre des suites
réelles.
(i) ⇒ (ii) permet aussi d’établir qu’une fonction n’a pas de limite en a.
Remarque (ii) ⇒ (i) est utile pour construite rapidement la suite de la théorie :
Théorème
Supposons f − → `0 ∈ R̄.
→ ` ∈ R̄ et g −
a a
Si ` + `0 est définie dans R̄ alors f + g → ` + `0 .
a
Si ``0 est définie dans R̄ alors f g → ``0 .
a
dém. :
Supposons ` + `0 défini dans R̄.
Soit (un ) ∈ DN .
Si un → a alors f (un ) → ` et g(un ) → `0 .
Donc (f + g)(un ) = f (un ) + g(un ) → ` + `0 .
→ ` + `0 .
Par la caractérisation séquentielle de limites on peut alors affirmer que f + g −
a
L’étude pour le produit est évidemment analogue.
Remarque Rappelons que certaines formes sont indéterminées parmis lesquelles figurent
(+∞) + (−∞) et 0 × (+∞).
Définition
Soit ` ∈ R.
On note f −→ `+ pour signifier que f −
→ ` et f (x) > ` au voisinage de a.
a a
→ `− pour signifier que f −
On note f − → ` et f (x) < ` au voisinage de a.
a a
Théorème
→ ` ∈ R? alors 1/f −
1) Si f − → 1/`.
a a
→ 0+ alors 1/f −
2) Si f − → +∞.
a a
→ 0− alors 1/f −
3) Si f − → −∞.
a a
4) Si f − → 0+ .
→ +∞ alors 1/f −
a a
5) Si f − → 0− .
→ −∞ alors 1/f −
a a
dém. :
→ ` ∈ R? .
1) Supposons f −
a
La fonction f est alors de signe strict au voisinage de a et donc la fonction 1/f est définie au voisinage
de a sur un certaine domaine D0 = D\f −1 ({0}).
Soit (un ) une suite d’éléments de D0 .
Si un → a alors f (un ) → ` 6= 0 puis, par passage à l’inverse d’une suite convergente, on obtient
1/f (un ) → 1/`.
En vertu de la caractérisation séquentielle des limites, on peut affirmer que 1/f −
→ 1/`.
a
2) 3) 4) et 5) s’obtiennent de façon analogue en observant à chaque fois que 1/f est définie au voisinage
de a.
Corollaire
On en déduit les règles relatives au rapport de deux limites.
16.2.4.4 Composition
Théorème
Soient f : D → R et ϕ : D0 → R telles que f (D) ⊂ D0 .
Si f −
→ b ∈ R̄ et si ϕ →
− ` ∈ R̄ alors ϕ ◦ f −
→ `.
a b a
dém. :
Soit (un ) une suite d’éléments de D.
Si un → a alors f (un ) → b puis ϕ(f (un )) → `.
Ainsi (ϕ ◦ f )(un ) → `.
En vertu de la caractéristisation séquentielle des limites, on peut affirmer que ϕ ◦ f −
→ `.
a
16.2.5 Etude pratique
16.2.5.1 Limite en l’infini
Rappelons quelques limites de référence résolvant des indéterminations classiques en +∞ :
ln x
∀α > 0, lim = 0 et lim xα e−x = 0
x→+∞ xα x→+∞
Exemple Etudions
lim (x − ln x)
x→+∞
Quand x 7→ +∞,
x → +∞ et ln x → +∞, il y a une forme indéterminée additive.
ln x
x − ln x = x(1 − )
x
ln x
x → +∞ et par limite de référence → 0 donc par opérations x − ln x → +∞.
x
Ainsi
lim (x − ln x) = +∞
x→+∞
Exemple Etudions p p
lim ( x2 + 1 − x2 − 1)
x→+∞
Quand
p x → +∞, p
x2 + 1 → +∞ et x2 − 1 → +∞, il y a une forme indéterminée additive.
p p (x2 + 1) − (x2 − 1) 2
x2 + 1 − x2 − 1 = √ √ =√ √ →0
2
x +1+ x −1 2 x + 1 + x2 − 1
2
Ainsi p p
lim ( x2 + 1 − x2 − 1) = 0
x→+∞
Exemple Etudions √
x2 + x + 1
lim
x→+∞ x
Quand x → +∞,
p
x2 + x + 1 → +∞ et x → +∞, il y a une forme indéterminée multiplicative.
√ √ p r
x2 + x + 1 x2 1 + 1/x + 1/x2 1 1
= = 1+ + 2 →1
x x x x
car on peut supposer x > 0 puisque x → +∞.
Ainsi √
x2 + x + 1
lim =1
x→+∞ x
Exemple Etudions √
x2 + x + 1
lim
x→−∞ x
Quand x → −∞,
√ √ p r
x2 + x + 1 x2 1 + 1/x + 1/x2 1 1
= = − 1 + + 2 → −1
x x x x
car on peut supposer x 6 0 puisque x → −∞.
Ainsi √
x2 + x + 1
lim = −1
x→−∞ x
Exemple Etudions √
lim xe− x
x→+∞
Quand x → +∞, √
x → +∞ et √ e− x → 0, il y a une forme indéterminée multiplicative.
√ y =
Posons x → +∞,
xe− x = y 2 e−y → 0 par limite de référence.
Ainsi √
lim xe− x = 0
x→+∞
16.2.5.2 Limite en 0
Rappelons la limite de référence
∀α > 0, lim+ xα ln x = 0
x→0
Exemple Etudions de
1
lim √ + ln x
x→0+ x
Quand x → 0+ ,
1
√ → +∞ et ln x → −∞, il y a une forme indéterminée additive.
x
1 1 √
√ + ln x = √ (1 + x ln x)
x x
√ 1
Puisque par limite de référence x ln x → 0, on obtient √ + ln x → +∞
x
Ainsi
1
lim+ √ + ln x = +∞
x→0 x
Exemple Etudions
1/ln x
lim |ln x|
x→0+
Quand x → 0+ ,
|ln x| → +∞ et 1/ln x → 0, il y a une forme indéterminée.
1/ln x ln |ln x|
|ln x| = exp
ln x
ln t ln |ln x| 1/ln x
Or |ln x| → +∞ et on sait que −−−−→ 0 donc → 0 puis |ln x| → 1.
t t→+∞ ln x
Ainsi
1/ln x
lim |ln x| =1
x→0+
16.2.5.3 Limite en a ∈ R
Pour a ∈ R et ` ∈ R̄, on démontre par composition de limite l’équivalence suivante
Par suite, il est très fréquent de ramener en 0 la détermination d’une limite en a ∈ R via le changement
de variable x = a + h pour lequel h = x − a.
Exemple Etudions
ln x
lim
x→1 x−1
Quand x → 1.
On pose x = 1 + h de sorte que h = x − 1 → 0.
ln x ln(1 + h) ln(1 + h) − ln 1
= = → (ln)0 (1) = 1
x−1 h h
Ainsi
ln x
lim =1
x→1 x−1
Exemple Etudions
sin(2x)
lim
x→π/2 π − 2x
Quand x → π/2.
On pose x = π/2 + h de sorte que h = x − π/2 → 0.
Ainsi
sin(2x)
lim =1
x→π/2 π − 2x
Théorème
On suppose qu’au voisinage de a,
Si g −
→ ` ∈ R et h −
→ ` alors f −
→ `.
a a a
dém. :
Soit (un ) une suite d’éléments de D
Supposons un → a.
Pour n assez grand, un appartient au voisinage de a sur lequel g(x) 6 f (x) 6 h(x).
On a alors g(un ) 6 f (un ) 6 h(un ).
Or g(un ) → ` et h(un ) → ` donc par encadrement f (un ) → `.
En vertu de la caractérisation séquentielle des limites, on a f −
→ `.
a
Exemple Etudions
E(x)
lim
x→+∞ x
Quand x → +∞.
On a x − 1 6 E(x) 6 x donc
1 E(x)
1− 6 61
x x
Or 1 − 1/x → 1 donc par encadrement E(x)/x → 1.
Ainsi
E(x)
lim =1
x→+∞ x
Théorème
Si |f (x) − `| 6 g(x) au voisinage de a et si g −
→ 0 alors f −
→ `.
a a
dém. :
Soit (un ) une suite d’éléments de D
Supposons un → a.
Pour n assez grand, un appartient au voisinage de a sur lequel
|f (x) − `| 6 g(x)
On a alors
|f (un ) − `| 6 g(un )
Or g(un ) → 0 donc par comparaion f (un ) → `.
En vertu de la caractérisation séquentielle des limites, on a f −
→ `.
a
Exemple Etudions
x + sin x
lim
x→+∞ x
Quand x → +∞,
x + sin x |sin x| 1
− 1 = 6
x x x
1 x + sin x
or → 0 donc → 1.
x x
Ainsi
x + sin x
lim =1
x→+∞ x
Proposition
Si f est bornée au voisinage de a et si g −
→ 0 alors f g −
→ 0.
a a
dém. :
Si f est bornée par M au voisinage de a alors au voisinage de a,
|f (x)g(x) − 0| 6 M |g(x)|
avec M |g| −
→ 0.
a
Exemple Etudions
lim x cos(1/x)
x→0
Quand x → 0,
x → 0 et cos(1/x) est borné donc x cos(1/x) → 0.
Ainsi
lim x cos(1/x) = 0
x→0
Théorème
Supposons que f (x) 6 g(x) au voisinage de a.
Si f −
→ +∞ alors g − → +∞.
a a
Si g −
→ −∞ alors f −
→ −∞.
a a
dém. :
Supposons f −
→ +∞.
a
Soit (un ) une suite d’éléments de D
Supposons un → a.
Pour n assez grand, un appartient au voisinage de a sur lequel f (x) 6 g(x).
On a alors f (un ) 6 g(un ).
Or f (un ) → +∞ donc par comparaion g(un ) → +∞.
En vertu de la caractérisation séquentielle des limites, on a g −
→ +∞.
a
La deuxième implication s’obtient de façon semblable.
Exemple Etudions
Quand x → +∞,
dém. :
Etude de la limite en b.
Cas f non majorée.
On a sup f = +∞.
]a,b[
Soit M ∈ R, puisque f n’est pas majorée, il existe x0 ∈ ]a, b[ tel que f (x0 ) > M .
Or f est croissante donc
∀x ∈ [x0 , b[ , f (x) > M
Ainsi, on peut affirmer qu’au voisinage de b, f (x) > M ce qui établit f →
− +∞.
b
Cas f majorée.
osons ` = sup f ∈ R.
]a,b[
Soit ε > 0, puisque ` − ε < ` = sup f , ` − ε ne majore pas f et donc il existe x0 ∈ ]a, b[ tel que
f (x0 ) > ` − ε.
Comme f est croissante, on a alors
Corollaire
Si f est décroissante alors f admet des limites en a et b.
Plus précisément
lim f = sup f et lim f = inf f
a ]a,b[ b ]a,b[
dém. :
Par passage à l’opposé.
Exemple sup ex = lim ex = +∞ et inf ex = lim ex = 0.
x∈R x→+∞ x∈R x→−∞
Plus généralement, c’est ce résultat qui justifie que sup et inf se lisent sur un tableau de variation.
Corollaire
Soit I un intervalle non singulier et a ∈ I.
Si f est croissante alors f converge en a− et en a+ et on a
lim
−
f 6 f (a) 6 lim
+
f
a a
dém. :
La restriction de f à I ∩]−∞, a[ est croissante et majorée par f (a) donc f converge en a− et lim f 6 f (a)
a−
La restriction de f à I ∩]a, +∞[ est croissante et minorée par f (a) donc f converge en a+ et f (a) 6 lim f
a+
t+i
Exemple t 7→ est une fonction complexe définie sur R.
t−i
Exemple t 7→ eit = cos t + i. sin t est une fonction complexe définie sur R.
Définition
Pour f : D → C, on définit les fonctions Re(f ) : D → R, Im(f ) : D → R, |f | : D → R et
f¯ : D → C par
∀t ∈ D, Re(f )(t) = Re(f (t)), Im(f )(t) = Im(f (t)), |f | (t) = |f (t)| et f¯(t) = f (t)
Remarque En dehors des notions de minoration, de majoration et de monotonie, les notions relatives
aux fonctions réelles s’étendent aux fonctions complexes.
Définition
Une fonction f : D → C est dite bornée s’il existe M ∈ R tel que ∀t ∈ D, |f (t)| 6 M .
Proposition
f : D → C est bornée si, et seulement si, les fonctions Re(f ) et Im(f ) le sont.
dém. :
Puisque |Re(f )| , |Imf | 6 |f |, si f est bornée alors Re(f ) et Im(f ) le sont.
Inversement puisque |f | 6 |Re(f )| + |Im(f )|, si les fonctions Re(f ) et Im(f ) sont bornées alors f l’est
aussi.
16.3.2 Limites
Soit f : D → C définie au voisinage de a ∈ R̄.
Définition
On dit que f tend vers ` ∈ C en a si |f (t) − `| −−−→ 0.
t→a
On note alors f −
→ ` ou f (t) −−−→ `.
a t→a
Exemple On a
t+i
−−−−→ 1
t − i t→+∞
En effet
= |2i| = √ 2
t + i
t − i − 1 |t − i| −−−−→ 0
t2 + 1 t→+∞
Définition
On dit que f converge en a s’il existe ` ∈ C tel que f −
→ `.
a
Sinon, on dit que f diverge en a.
Théorème
Si f converge en a alors il existe un unique ` ∈ C tel que f −
→ `.
a
Ce complexe ` est appelé limite de f en a et on note ` = lim f (t).
t→a
dém. :
L’existence est acquise par définition de la convergence ; il reste à montrer l’unicité.
Supposons f − → ` et f −→ `0 .
a a
On a alors
|` − `0 | = |` − f (t) + f (t) − `0 | 6 |` − f (t)| + |f (t) − `0 |
En passant à la limite quand t → a, on obtient |` − `0 | = 0 et donc ` = `0 .
Remarque Pour les fonctions complexes, il n’y a pas de notion de limite infinie, tout au plus peut-on
dire |f (t)| −−−→ +∞.
t→a
dém. :
Supposons f −
→ `.
a
On a
|f (t) − `| −−−→ 0
t→a
Or
f¯(t) − `¯ = f (t) − ` = |f (t) − `|
et
||f (t)| − |`|| 6 |f (t) − `|
donc f¯(t) − `¯ −
→ 0 et ||f (t)| − |`|| −
→0
a a
Théorème
Si f converge en a alors f est bornée au voisinage de a.
dém. :
Supposons f −→ ` ∈ C. On a alors |f | −→ |`|, la fonction réelle |f | est alors bornée au voisinage de a et
a a
donc majorée. Par suite f est bornée au voisinage de a.
Théorème
Si f −
→ ` ∈ C et g − → `0 ∈ C alors f + g − → ` + `0 , f g −
→ ``0 et si ` 6= 0 alors 1/f −
→ 1/`.
a a a a a
dém. :
Supposons f − → `0 .
→ ` et g −
a a
Puisque
|(f + g)(t) − (` + `0 )| 6 |f (t) − `| + |g(t) − `0 |
on a
|(f + g)(t) − (` + `0 )| −
→0
a
→ ` + `0 .
Ainsi f + g −
a
Puisque
|(f g)(t) − ``0 | = |f (t)| |g(t) − `0 | + |`0 | |f (t) − `|
avec |f | majorée au voisinage de a, on a |(f g)(t) − ``0 | − → ``0 .
→ 0. Ainsi f g −
a a
Enfin, si ` 6= 0 alors au voisinage de a,
1 1 |` − f (t)|
f (t) − ` = |f (t)| |`|
et donc
1 1
f (t) − ` −→0
a
Ainsi 1/f −
→ 1/`.
a
Théorème
Soit ` ∈ C. On a équivalence entre :
(i) f −
→ `;
a
(ii) Re(f ) −
→ Re(`) et Im(f ) −
→ Im(`).
a a
dém. :
(i) ⇒ (ii) Car |Re(f )(t) − Re(`)| 6 |f (t) − `| et |Im(f )(t) − Im(`)| 6 |f (t) − `|.
(ii) ⇒ (i) Car f (t) = Re(f )(t) + iIm(f )(t).
Exemple Etudions
it
lim
t→+∞ t−i
Quand t → +∞,
it i
= →i
t−i 1 − i/t
donc
it
lim =i
t→+∞ t−i
Exemple Etudions
eit − 1
lim
t→+∞ t
Quand t → +∞,
e − 1 eit + 1
it
2
t 6
= →0
t t
donc
eit − 1
lim =0
t→+∞ t
Exemple Etudions
eit − 1
lim
t→0 t
Quand t → 0,
sin t
Exemple L’application f : t 7→ (cos t, ) est une fonction à valeurs dans R2 définie sur R? .
t
Définition
Soit f : D → R2 . Pour tout t ∈ D, on peut écrire f (t) = (x(t), y(t)).
Ceci introduit des fonctions réelles x, y : D → R appelées fonctions coordonnées de f .
Définition
Soit f : D → R2 définie au voisinage de a ∈ R̄
On dit que f tend vers ` ∈ R2 en a si d(f (t), `) −−−→ 0.
t→a
On dit alors que f converge vers ` en a et on montre aisément que cet élément ` est unique.
On l’appelle limite de f en a et on note ` = lim f .
a
Proposition
Soient f : D → R2 définie au voisinage de a ∈ R̄ et ` = (`x , `y ) ∈ R2 .
On a équivalence entre :
(i) f −
→ `;
a
(ii) x(t) −−−→ `x et y(t) −−−→ `y .
t→a t→a
dém. :
(i) ⇒ (ii) Car |x(t) − `x | 6 d(f (t), `) et |y(t) − `y | 6 |d(f (t), `)|.
(ii) ⇒ (i) Car |d(f (t), `)| 6 |x(t) − `x | + |y(t) − `y |.
f (x) = ϕ(x)ε(x)
au voisinage de a avec ε −
→ 0.
a
On note alors
Proposition
Si la fonction ϕ ne s’annule pas au voisinage de a alors, on a équivalence entre
(i) f (x) = o(ϕ(x)) quand x → a ;
(ii) f (x)/ϕ(x) −−−→ 0.
x→a
dém. :
La fonction ε exprimant f (x) = ϕ(x)ε(x) n’est autre que f (x)/ϕ(x) au voisinage de a.
Remarque L’énoncé précédent reste vrai dans le cas où les fonctions f et ϕ sont définies en a et s’y
annulent.
Exemple Quand x → 0,
2 1 1 1
x = o(x), ln x = o et = o
x x x2
Proposition
Si f = o(λϕ) alors f = o(ϕ).
a a
Si f = o(ϕ) et g = o(ϕ) alors f + g = o(ϕ).
a a a
Si f = o(ϕ) alors f g = o(ϕg).
a a
dém. :
Supposons f = o(λϕ).
a
Au voisinage de a, on peut écrire f (x) = λϕ(x)ε(x) avec ε −
→ 0.
a
On a alors sur ce voisinage f (x) = ϕ(x) (λε(x)) avec λε −
→ 0. Ainsi f = o(ϕ).
a a
Supposons f = o(ϕ) et g = o(ϕ).
a a
Au voisinage de a, on peut écrire f (x) = ϕ(x)ε(x) avec ε −
→ 0 et g(x) = ϕ(x)η(x) avec η −
→ 0.
a a
Sur un voisinage commun, les deux relations précédentes sont valables et alors (f + g)(x) = f (x) +
g(x) = ϕ(x)(ε + η)(x) avec ε + η −
→ 0. Ainsi f + g = o(ϕ).
a a
Supposons f = o(ϕ)
a
Au voisinage de a, on peut écrire f (x) = ϕ(x)ε(x) avec ε −
→ 0.
a
On a alors (f g)(x) = f (x)g(x) = ϕ(x)g(x)ε(x) avec ε −
→ 0 donc f g = o(ϕg).
a a
Proposition
En particulier, si f = o(ϕ) et ϕ = o(ψ) alors f = o(ψ).
a a a
dém. :
Suppsons f = o(ϕ) et ϕ = o(ψ).
a a
Au voisinage de a, on peut écrire f (x) = ϕ(x)ε(x) avec ε −
→ 0 et ϕ(x) = ψ(x)η(x) avec η −
→ 0.
a a
Sur un voisinage commun, les deux relations précédentes sont valables et alors f (x) = ψ(x)(εη)(x) avec
εη −
→ 0. Ainsi f = o(ψ).
a a
Exemple Quand x → 0,
on peut écrire o(x) − xo(x) = o(x) − o(x2 ) = o(x) − o(x) = o(x).
16.4.2 Prépondérance
Définition
On dit que f est dominée par ϕ en a s’il existe M ∈ R+ tel qu’au voisinage de a,
|f (x)| 6 M |ϕ(x)|
On note alors
Proposition
Si la fonction ϕ ne s’annule pas au voisinage de a alors on a équivalence entre :
(i) f (x) = O(ϕ(x)) quand x → a ;
(ii) f (x)/ϕ(x) est bornée quand x → a.
dém. :
Si ϕ ne s’annule pas au voisinage de a alors l’inéquation |f (x)| 6 M |ϕ(x)| équivaut à |f (x)/ϕ(x)| 6
M.
Remarque L’énoncé précédent reste vrai dans le cas où les fonctions f et ϕ sont définies en a et s’y
annulent.
Proposition
Si f = O(λϕ) alors f = O(ϕ).
a a
Si f = O(ϕ) et g = O(ϕ) alors f + g = O(ϕ).
a a a
Si f = O(ϕ) alors f g = O(ϕg).
a a
dém. :
Supposons f = O(λϕ).
a
Au voisinage de a, on peut écrire |f (x)| 6 λM |ϕ(x)| et alors |f (x)| 6 M 0 |ϕ(x)| avec M 0 = λM .
Supposons f = O(ϕ) et g = O(ϕ).
a a
Au voisinage de a, on peut écrire |f (x)| 6 M |ϕ(x)| et |g(x)| 6 N |ϕ(x)|.
Sur un voisinage commun, les deux relations précédentes sont valables et |f (x) + g(x)| 6 (M +
N ) |ϕ(x)|. Ainsi f + g = O(ϕ).
a
Supposons f = O(ϕ)
a
Au voisinage de a, on peut écrire |f (x)| 6 M |ϕ(x)|.
On a alors |(f g)(x)| = |f (x)| |g(x)| 6 M |ϕ(x)g(x)|. Ainsi f g = O(ϕg).
a
Proposition
Si f = o(ϕ) et ϕ = O(ψ) alors f = o(ψ).
a a a
Si f = O(ϕ) et ϕ = o(ψ) alors f = o(ψ).
a a a
Si f = O(ϕ) et ϕ = O(ψ) alors f = O(ψ).
a a a
dém. :
Suppsons f = o(ϕ) et ϕ = O(ψ).
a a
Au voisinage de a, on peut écrire f (x) = ϕ(x)ε(x) avec ε −
→ 0 et |ϕ(x)| 6 M |ψ(x)| au voisinage de a.
a
Posons
ϕ(x)ε(x)/ψ(x) si ψ(x) 6= 0
η(x) =
0 siψ(x) = 0
Au voisinage de a, on a f (x) = η(x)ψ(x) que ψ(x) 6= 0 ou non car ψ(x) = 0 ⇒ ϕ(x) = 0.
Puisqu’au voisinage de a, |η| 6 M |ε|, on a η −
→ 0 et donc f = o(ψ).
a a
Supposons f = O(ϕ) et ϕ = o(ψ).
a a
Au voisinage de a, on peut écrire |f (x)| 6 M |ϕ(x)| et ϕ(x) = ψ(x)ε(x) avec ε −
→0
a
Posons
f (x)ε(x)/ψ(x) si ψ(x) 6= 0
η(x) =
0 siψ(x) = 0
Au voisinage de a, on a f (x) = η(x)ψ(x) que ψ(x) 6= 0 ou non car ψ(x) = 0 ⇒ f (x) = 0.
Puisqu’au voisinage de a, |η| 6 M |ε|, on a η −
→ 0 et donc f = o(ψ).
a a
Suppsons f = O(ϕ) et ϕ = O(ψ).
a a
Au voisinage de a, on peut écrire |f (x)| 6 M |ϕ(x)| et |ϕ(x)| 6 M |ψ(x)|.
Sur un voisinage commun, les deux relations précédentes sont valables et |f (x)| 6 M N |ψ(x)| donc
f = O(ψ).
a
Proposition
Quand x → +∞
Pour α < β, xα = o(xβ ) et (ln x)α = o((ln x)β ).
Pour 0 < a < b, ax = o(bx ).
dém. :
xα
Quand x → +∞, β = xα−β → 0 car α − β < 0. Ainsi xα = o(xβ ).
x
De même, on obtient (ln x)α = o((ln x)β ).
ax
Quand x → +∞, x = ex(ln a−ln b) → 0 car ln a − ln b < 0. Ainsi ax = o(bx ).
b
Proposition
Quand x → +∞
Pour α, β > 0 et a > 1, (ln x)β = o(xα ) et xα = o(ax ).
dém. :
Quand x → +∞,
(ln x)β
= exp (β ln(ln x) − α ln x)
xα
or
ln(ln x)
β ln(ln x) − α ln x = ln x −α + β
ln x
ln y ln(ln x)
Puisque ln x → +∞ et puisqu’on sait −−−−−→ 0, on a → 0 puis
y y→+∞ ln x
ln(ln x)
ln x −α + β → −∞
ln x
(ln x)β
et enfin → 0.
xα
Ainsi (ln x) = o(xα ).
β
Quand x → +∞,
xα
= exp (α ln x − x ln a)
ax
or
ln x
α ln x − x ln a = x − ln a + α → −∞
x
xα
et donc x → 0. Ainsi xα = o(ax ).
a
Proposition
Quand x → +∞
Pour α, β > 0 et 0 < a < 1, ax = o (1/xα ) et 1/xα = o(1/(ln x)β ).
dém. :
Par passage à l’inverse, les comparaisons sont renversées !
Remarque Quand x → +∞, on peut écire
1 1 1
e−x 1 ln x x x2 ex
x2 x ln x
A titre d’exercice, on peut positionner entre les termes précédents les suivants :
x ln x 1
x ln x, , , , ...
ln x x x ln x
Remarque Via le changement de variable y = −x, on peut énoncer des règles semblable en −∞.
16.4.3.2 Comparaison en 0
Proposition
Quand x → 0+ , pour α < β, xβ = o(x α
).
+ 1 α 1
Quand x → 0 , pour α > 0, ln x = o et x = o .
xα ln x
dém. :
xβ
Quand x → 0, = xβ−α → 0 car β − α > 0. Ainsi xβ = o(xα ).
xα
ln x 1
Quand x → 0+ , = x α
ln x → 0 par limite de référence et donc ln x = o .
1/xα x α
xα
1
De même = xα ln x → 0 et donc xα = o .
1/ln x ln x
Remarque Via le changement de variable x = a + h on peut énoncer des règles similaires au voisinage
de a ∈ R.
Ainsi, ∀α < β, (x − a)β = o((x − a)α ) au voisinage de a.
Définition
On dit que f est équivalente à g en a si on peut écrire au voisinage de a
f (x) = g(x)θ(x)
avec θ −
→ 1. On note alors
a
Proposition
Si la fonction g ne s’annule pas au voisinage de a alors on a équivalence entre :
(i) f (x) ∼ g(x) quand x → a ;
(ii) f (x)/g(x) −−−→ 1.
x→a
dém. :
La fonction θ exprimant f (x) = g(x)θ(x) n’est autre que f (x)/g(x) au voisinage de a.
Exemple Quand x → +∞, x2 + x + 2 ln x ∼ x2 .
En effet
x2 + x + 2 ln x 1 ln x
=1+ +2 2 →1
x2 x x
2
Quand x → 0, x + x + 2 ln x ∼ 2 ln x.
En effet
x2 + x + 2 ln x x2 x
= + +1→1
2 ln x 2 ln x 2 ln x
p
Exemple Quandp x → +∞, x + x2 ∼ x,
√
Quand x → 0+ , px + x2 ∼ x
Quand x → −∞, x + x2 ∼ −x.
Attention : Ecrire f ∼ 0 signifie que f est constante égale à la fonction nulle au voisinage de a.
a
Ecrire f ∼ +∞ n’a pas de sens.
a
Proposition
Si f ∼ g alors g ∼ f .
a a
Si f ∼ g et g ∼ h alors f ∼ h.
a a a
dém. :
Supposons f ∼ g.
a
On peut écrire f (x) = g(x)θ(x) au voisinage de a avec θ −
→ 1.
a
La fonction θ n’est pas nulle au voisinage de a et donc on peut encore écrire g(x) = f (x)ξ(x) avec
ξ = 1/θ −→ 1. Ainsi g ∼ f .
a a
Supposons f ∼ g et g ∼ h.
a a
On peut écrire f (x) = g(x)θ(x) et g(x) = h(x)ξ(x) au voisinage de a avec θ, ξ −
→ 1.
a
Sur un voisinage commun, on peut alors écrire f (x) = h(x)(θξ)(x) avec θξ −
→ 1.
a
Ainsi f ∼ h.
a
Proposition
On a équivalence entre :
(i) f ∼ g ;
a
(ii) f = g + o(g).
a
dém. :
(i) ⇒ (ii) Supposons f ∼ g.
a
On peut écrire f (x) = g(x)θ(x) au voisinage de a avec θ −
→ 1.
a
On a alors sur ce voisinage f (x) = g(x) + g(x)(θ(x) − 1) au voisinage de a et puisque θ(x) − 1 −−−→ 0,
x→a
la relation qui précède donne f (x) = g(x) + o(g(x)) quand x → a.
(ii) ⇒ (i) Supposons f = g + o(g).
a
On peut écrire f (x) = g(x) + g(x)ε(x) au voisinage de a avec ε −
→ 0.
a
On a alors sur ce voisinage f (x) = g(x)θ(x) avec θ(x) = 1 + ε(x) −−−→ 1.
x→a
Ainsi f ∼ g.
a
Théorème
Si f ∼ g et si g −
→ ` ∈ R̄ ou ` ∈ C alors f −
→ `.
a a a
dém. :
On peut écrire f (x) = g(x)θ(x) au voisinage de a avec θ −
→ 1.
a
Si g −
→ ` alors par produits de limites, f −
→ `.
a a
Exemple lim (x − x2 + ln x) = −∞ car x − x2 + ln x = −x2 + o(x2 ) ∼ −x2 → −∞.
x→+∞
1 1 1 1 1
Exemple lim ln x + = +∞ car ln x + = + o( ) ∼ → +∞.
x→0+ x x x x x
Théorème
Supposons que f et g soient des fonctions à valeurs réelles.
Si f ∼ g alors f (x) et g(x) ont même signe au voisinage de a.
a
dém. :
On peut écrire f (x) = g(x)θ(x) au voisinage de a avec θ −
→ 1.
a
Puisque θ −
→ 1 > 0, au voisinage de a, on a θ(x) > 0.
a
Sur un voisinage commun, f (x) = g(x)θ(x) avec θ(x) > 0 donc f (x) et g(x) ont le même signe.
Proposition
Si f ∼ g alors f = O(g) et g = O(f ).
a a a
dém. :
Supposons f ∼ g.
a
On a f = g + o(g) = O(g) + O(g) = O(g) et par symétrie g = O(f ).
Proposition
Si f ∼ g et g = o(h) alors f = o(h).
a a a
Si f ∼ g et g = O(h) alors f = O(h).
a a a
Si f = o(g) et g ∼ h alors f = o(h).
a a a
Si f = O(g) et g ∼ h alors f = O(h).
a a a
dém. :
Supposons f ∼ g et g = o(h).
a a
On a alors f = O(g) et g = o(h) donc f = o(h).
a a a
Les trois autres implications s’obtiennent de façon analogue.
Remarque Par les deux dernières propriétés, il est usuel lors d’expression de négligeabilité ou de
domination de ne comparer qu’à des fonctions « simples ».
Par exemple, quand x → +∞, on écrit o(x) au lieu de o(x + 1) car x ∼ x + 1.
Théorème
Si f1 ∼ g1 et f2 ∼ g2 alors
a a
f1 f2 ∼ g1 g2 et f1 /f2 ∼ g1 /g2
a a
Si f ∼ g alors
a
∀p ∈ Z, f p ∼ g p
a
dém. :
Supposons f1 ∼ g1 et f2 ∼ g2 .
a a
On peut écrire au voisinage de a, f1 (x) = g1 (x)θ1 (x) et f2 (x) = g2 (x)θ2 (x) avec θ1 , θ2 −
→ 1.
a
f1 (x) g1 (x) θ1 (x) θ1
On a alors f1 (x)f2 (x) = g1 (x)g2 (x)θ1 (x)θ2 (x) et = avec θ1 θ2 −
→ 1 et −
→ 1.
f2 (x) g2 (x) θ2 (x) a θ2 a
Ainsi f1 f2 ∼ g1 g2 et f1 /f2 ∼ g1 /g2 .
a a
Supposons f ∼ g.
a
On peut écrire au voisinage de a, f (x) = g(x)θ(x) avec θ −
→ 1.
a
p p p
On a alors [f (x)] = [g(x)] [θ(x)] avec θp −
→ 1 donc f p ∼ g p
a a
Théorème
On suppose que f et g sont à valeurs réelles strictement positives.
Si f ∼ g alors
a
∀α ∈ R, f α ∼ g α
a
dém. :
Supposons f ∼ g.
a
On peut écrire au voisinage de a, f (x) = g(x)θ(x) avec θ −
→ 1.
a
α α α
On a alors [f (x)] = [g(x)] [θ(x)] avec θα −
→ 1 donc f α ∼ g α
a a
Attention : Ce résultat ne vaut que pour un exposant α constant (c’est-à-dire qui ne dépend pas de x ).
Enfin √
x3 + x x3/2
√ ∼ = x5/6
3
x2 + 1 x2/3
Proposition
Si f −
→ 0 alors
a
sin f ∼ f et ln(1 + f ) ∼ f
a a
dém. :
sin x sin x − sin 0
Puisqu’on sait = −−−−−−→ (sin)0 (0) = 1, on peut écrire, pour x 6= 0, sin x = xθ(x)
x x x→0,x6=0
avec θ −−−→ 1. En posant θ(0) = 1, l’égalité qui précède vaut encore pour x = 0.
x→0
→ 0 alors sin(f (x)) = f (x)ξ(x) avec ξ(x) = θ(f (x)) −−−→ 1. Ainsi sin f ∼ f .
Si f −
a x→a a
ln(1 + x)
De même, en exploitant −−−→ 1, on obtient ln(1 + f ) ∼ f .
x x→0 a
p 1
Exemple Déterminons un équivalent simple à x3 + 1 sin quand x → +∞.
p x
D’une part x3 + 1 = x3 + o(x3 ) ∼ x3 donc x3 + 1 ∼ x3/2 .
p
Exemple Déterminons un équivalent simple à ln(1 + x2 ) quand x → 0.
Puisque x2 → 0, ln(1 + x2 ) ∼ x2 puis
p √
ln(1 + x2 ) ∼ x2 = |x|
x2
1 − cos x ∼
2
Remarque Pour étudier un équivalent à ln(1 + x) − x quand x → 0, on ne peut guère dire mieux que
Proposition
On suppose que f et g sont valeurs strictement positives.
→ ` avec ` = 0+ , ` ∈ R+? \ {1} ou ` = +∞ alors ln f ∼ ln g.
Si f ∼ g et si g −
a a a
dém. :
Puisque f ∼ g, on peut écrire f (x) = g(x)θ(x) au voisinage de a avec θ −
→ 1.
a a
On a alors ln f (x) = ln g(x) + ln θ(x). Or ln θ(x) −−−→ 1 et ln g(x) −−−→ −∞, ln ` 6= 0 ou +∞.
x→a x→a
Dans chaque cas, ln θ(x) = o(ln g(x)) et donc ln f (x) ∼ ln g(x) quand x → a.
Exemple Quand x → 0,
ln(1 + x + 2x2 ) ∼ x + 2x2 ∼ x
Continuité
Définition
On dit que f est continue si f est continue en chaque a ∈ D.
On note C(D, R) l’ensemble des fonctions réelles définies et continues sur D.
Remarque Graphiquement, une fonction continue est une fonction qui peut être représentée sans lever
le crayon là où elle est définie.
599
17.1. CONTINUITÉ DES FONCTIONS RÉELLES
Exemple La fonction x 7→ x est continue sur R, la fonction x 7→ √|x| est continue sur R et plus
généralement les fonctions usuelles : sin, cos, tan, exp, ln, x 7→ x, ... sont continues sur leur domaine
de définition.
Attention : Nous verrons que dérivabilité entraîne la continuité. Cependant la continuité n’entraîne pas
la dérivabilité √
Par exemple, les fonction x 7→ x et x 7→ |x| sont continues alors que non dérivables en 0 !
17.1.2 Opérations
Théorème
Soient f, g : D → R et λ ∈ R.
Si f et g sont continues alors λ.f , f + g et f g le sont aussi.
De plus, si g ne s’annule pas alors f /g est continue.
dém. :
Soit a ∈ D.
Par continuité de f en a, on a f (x) −−−→ f (a).
x→a
Par opérations sur les limites (λ.f )(x) = λf (x) −−−→ λf (a) = (λ.f )(a).
x→a
Ainsi λ.f est continue en a et puisque ceci vaut pour tout a ∈ D, on peut affirmer que λ.f est continue.
L’obtention des continuités de f + g, f g et f /g est semblable.
Exemple Par somme et produit de fonctions continues, les fonctions polynomiales sont continues sur R.
Par rapport de fonctions continues, les fonctions rationnelles sont continues là où elles sont définies.
Théorème
Soient f : D → R et ϕ : D0 → R telles que f (D) ⊂ D0 .
Si f et ϕ sont continues alors ϕ ◦ f l’est aussi.
dém. :
Soit a ∈ D.
Par continuité de f en a, on a f (x) −−−→ f (a).
x→a
Or f (a) ∈ D0 et ϕ est continue sur D0 donc ϕ(y) −−−−−→ ϕ(f (a)).
y→f (a)
Par composition de limites, on obtient (ϕ ◦ f )(x) = ϕ(f (x)) −−−→ ϕ(f (a)) = (ϕ ◦ f )(a).
x→a
Exemple La fonction √
2
e x +1
x 7→
sin2 (x) + 1
est continue par opérations sur les fonctions continues !
Proposition
Si f, g : D → R sont continues alors les fonctions |f |, sup(f, g) et inf(f, g) le sont aussi.
dém. :
La fonction |f | est continue par composition de fonction continues.
Par définition ∀x ∈ D, sup(f, g)(x) = max(f (x), g(x)).
1
Or il est remarquable que pour a, b ∈ R, on a max(a, b) = (a + b + |a − b|).
2
Par suite
1
sup(f, g) = (f + g + |f − g|)
2
et cette fonction est donc continue par opérations sur les fonctions continues.
De même
1
inf(f, g) = (f + g − |f − g|)
2
est continue par opérations sur les fonctions continues.
Exemple Si f est continue alors les fonctions f + = sup(f, 0) et f − = sup(−f, 0) sont continues.
Proposition
Soit f : D → R et a un point de D tel que f soit définie à droite et à gauche de a.
On a équivalence entre :
(i) f est continue en a ;
(ii) f est continue à droite et à gauche en a.
dém. :
(i) ⇒ (ii) Immédiat.
(ii) ⇒ (i) C’est un point immédiat que une limite à droite ou à gauche en a ne prend pas en compte la
valeur de la fonction en a. . .
Supposons que f (t) −−−−→ f (a) et f (t) −−−−→ f (a).
t→a+ t→a−
Pour ε > 0, il existe α+ > 0 et α− > 0 tel que :
et
∀t ∈ D ∩ ]a, +∞[ , |t − a| 6 α+ ⇒ |f (t) − f (a)| 6 ε
puis immédiatement
∀t ∈ D, |t − a| 6 α ⇒ |f (t) − f (a)| 6 ε
Remarque Cet outil est utile pour obtenir la continuité d’une fonction définie par une alternative.
x2
si x > 0
f (x) =
−x2 sinon
Puisque ∆ ⊂ D, on a encore
Or pour x ∈ ∆ on a |f (x) − f (a)| = |f∆ (x) − f∆ (a)| et donc on obtient la continuité de f∆ en a.
Définition
Soit f : D → R continue et D̃ une partie de R contenant D.
On appelle prolongement par continuité de f à D̃ toute application f˜ : D̃ → R telle que :
1) f˜ prolonge f ;
2) f˜ est continue sur D̃.
Proposition
Soit f : D → R continue et a ∈ R\D tel que f soit définie au voisinage de a.
→ ` ∈ R alors la fonction f˜ : D ∪ {a} → R définie par
Si f −
a
f (x) si x 6= a
f (x) =
` si x = a
dém. :
Unicité :
Si f˜ prolonge f par continuité à D ∪ {a} alors pour tout x ∈ D, f˜(x) = f (x) et pour x = a,
f (x) = x ln x
Théorème
Soit f : I → R et a, b ∈ I tels que a 6 b.
Si f est continue alors f prend toutes les valeurs intermédiaires comprises entre f (a) et f (b).
dém. :
Quitte à considérer −f et passer le problème à l’opposé on peut supposer f (a) 6 f (b).
Soit y ∈ [f (a), f (b)]. On désire établir l’existence de x ∈ [a, b] vérifiant f (x) = y.
1ère méthode : Par une borne supérieure. . .
Soit
A = {c ∈ [a, b] /∀t ∈ [a, c] , f (t) 6 y}
La partie A est une partie de R non vide (car a ∈ A ) et majorée (par b ) ; elle admet donc une borne
supérieure que nous notons x. Montrons f (x) = y.
Pour tout t < x, il existe c ∈ A tel que t < c car t n’est pas majorant de A. Par suite t ∈ [a, c] avec c ∈ A
et donc f (t) 6 y. En passant cette relation à la limite quand t → x− , on obtient f (x) 6 y.
Supposons maintenant par l’absurde f (x) < y.
Par continuité de f en x, la fonction f est strictement inférieure à y au voisinage de x. Cet x est
forcément strictement inférieur à b et il existe α > 0 tel que c = x + α ∈ [a, b] et ∀t ∈ [a, c] =
[a, x] ∪ [x, x + α] , f (t) 6 y.
Ainsi x + α ∈ A ce qui contredit la définition de x comme majorant de A.
Au final f (x) = y
Si f (d) 6 y on pose a1 = d et b1 = b0 .
Si f (d) > y on pose a1 = a0 et b1 = d.
Dans les deux cas, on vérifie : f (a1 ) 6 y 6 f (b1 )
...
Etape n + 1 :
On introduit d = (an + bn )/2.
Si f (d) 6 y on pose an+1 = d et bn+1 = bn .
Si f (d) > y on pose an+1 = an et bn+1 = d.
Dans les deux cas, on vérifie : f (an+1 ) 6 y 6 f (bn+1 ).
...
On définit ainsi deux suites (an ) et (bn ) et par construction on vérifie :
bn − an
∀n ∈ N, an+1 > an , bn+1 6 bn et bn+1 − an+1 =
2
b−a
La suite (an ) est croissante, la suite (bn ) est décroissante et bn − an = → 0 donc les suites (an )
2n
et (bn ) sont adjacentes. Notons x leur limite commune.
Puisque an → x et bn → x on a f (an ) → f (x) et f (bn ) → f (x).
Or pour tout n ∈ N, f (an ) 6 y 6 f (bn ) donc en passant à la limite f (x) 6 y 6 f (x) puis y = f (x).
Remarque Le théorème des valeurs intermédiaires assure l’existence de x mais n’évoque pas son
unicité qui d’ailleurs n’est pas toujours vraie.
Un argument d’injectivité, par exemple par stricte monotonie, permet d’obtenir l’éventuelle unicité de x.
Corollaire
Si une fonction continue f : I → R prend une valeur positive et une valeur négative alors f
s’annule.
dém. :
0 est valeur intermédiaire entre deux valeurs prises
Exemple Soient a, b, c ∈ R.
Montrer que l’équation x3 + ax2 + bx + c = 0 possède au moins une solution réelle.
La fonction f : x 7→ x3 + ax2 + bx + c est continue car polynomiale.
Puisque lim f = +∞ et lim f = −∞, la fonction f prend une valeur positive et une valeur négative et
+∞ −∞
donc cette fonction s’annule au moins une fois.
Plus généralement, la démarche qui précède s’adaptent aux fonctions polynomiales de degrés impairs.
Théorème
L’image d’un intervalle par une fonction continue est un intervalle.
dém. :
Soit f : D → R une fonction continue et I un intervalle inclus dans le domaine de définition D.
Montrons que J = f (I) est un intervalle de R.
Soient y, y 0 ∈ J tels que y 6 y 0 .
Il existe x, x0 ∈ I tels que y = f (x) et y 0 = f (x0 ).
En appliquant le théorème des valeurs intermédiaires entre x et x0 , on obtient que pour tout y 00 ∈ [y, y 0 ],
il existe x00 compris entre x et x0 tel que y 00 = f (x00 ).
Puisque x00 est compris entre x et x0 avec x, x0 ∈ I, on a x00 ∈ I puis y 00 = f (x00 ) ∈ f (I) = J
Ainsi [y, y 0 ] ⊂ J et ceci valant pour tout y 6 y 0 ∈ J, la caractérisation des intervalles de R permet de
conclure que J est un intervalle.
Remarque Les extrémités de l’intervalle f (I) sont inf f et sup f ; on ne peut sans hypothèses
I I
supplémentaires affirmer si ces extrémités sont ouvertes ou fermées.
Exemple Soit f : I → R continue. On suppose que f n’est ni majorée, ni minorée. Montrons que f est
surjective.
Il suffit pour cela d’établir que f (I) = R.
Or f (I) est un intervalle de R et celui-ci n’est ni majoré, ni minoré, ce ne peut qu’être R.
Théorème
Soient a, b ∈ R tels que a 6 b et f : [a, b] → R
Si f est continue alors f admet un minimum et un maximum.
On dit que f est bornée et atteint ses bornes.
Ainsi
∃c, d ∈ [a, b] , ∀x ∈ [a, b] , f (c) 6 f (x) 6 f (d)
dém. :
Posons M = sup f ∈ R ∪ {+∞}.
[a,b]
Par la réalisation séquentielle d’une borne supérieure, il existe une suite (yn ) de valeurs prises par f
sur [a, b] vérifiant yn → M et par conséquent il existe une suite (xn ) d’éléments de [a, b] vérifiant
f (xn ) → M .
Puisque la suite (xn ) est bornée, le théorème de Bolzano-Weierstrass affirme l’existence d’une suite
extraite (xϕ(n) ) convergente. Posons d sa limite.
Puisque pour tout n ∈ N, a 6 xϕ(n) 6 b, on obtient à la limite d ∈ [a, b].
Mais par continuité de f en d, on a alors f (xϕ(n) ) → f (d).
Or (f (xϕ(n) )) est une suite extraite de la suite (f (xn )) qui tend vers M donc f (xϕ(n) ) → M .
Par unicité de la limite on obtient M ∈ R et M = f (d).
Ainsi f admet un maximum en d.
De façon symétrique, on montre que f admet un minimum en un certain c ∈ [a, b].
Remarque Puisque f admet un minimum et un maximum sur [a, b], on peut écrire :
Corollaire
L’image d’un segment par une fonction continue est un segment.
Plus précisément :
f ([a, b]) = min f, max f
[a,b] [a,b]
Exemple Soit f : R+ → R continue telle que f converge en +∞. Montrons que f est bornée.
Puisque f converge en +∞, f est bornée au voisinage de +∞ et donc il existe M ∈ R et il existe
A ∈ R+ tel que
∀x ∈ [A, +∞[ , |f (x)| 6 M
De surcroît f est bornée par un certain M 0 sur [0, A] car continue sur un segment.
Par conséquent f est bornée par max(M, M 0 ) sur R+ .
On a alors pour tout x ∈ ]a, b[, lim f 6 f (x) 6 lim f et de plus ces inégalités sont strictes car sinon x
a b
serait un extremum de f ce qui est impossible puisque f est strictement croissante. Ainsi
f (]a, b[) ⊂ lim f, lim f
a b
Inversement.
Soit y ∈ lim f, lim f . Il existe x1 , x2 ∈ ]a, b[ tel que f (x1 ) < y < f (x2 )
a b
En appliquant le théorème des valeurs intermédiaires entre x1 et x2 il existe x ∈ [x1 , x2 ] ⊂ I tel que
y = f (x)
Ainsi
lim f, lim f ⊂ f (]a, b[)
a b
puis finalement
f (]a, b[) = lim f, lim f
a b
Cas I = ]a, b]
La continuité de f en b impose lim f = f (b).
b−
Par suite
i i
f (I) = f (]a, b[ ∪ {b}) = f (]a, b[) ∪ {f (b)} = lim f, lim f ∪ {f (b)} = lim f, f (b)
a b− a
De même, si I = [a, b[ ou I = [a, b] on obtient respectivement : f (I) = f (a), lim f et f (I) =
b
[f (a), f (b)].
Puisque
2) f est strictement croissante donc injective et par suite f réalise une bijective de I vers f (I).
3) f −1 est strictement croissante car application réciproque d’une fonction qu’il l’est.
Montrons maintenant que f −1 est continue.
Soit y0 un élément de f (I)
Si y0 n’est pas extrémité droite de f (I) alors comme f −1 est croissante, f −1 admet une limite finie en
y0+ qui est supérieure à f (y0 )
Quand y → y0+ .
D’une part f (f −1 (y)) = y → y0 .
D’autre part f −1 (y) → lim f −1 , puis par continuité de f ,
y0+
f (f −1 (y)) → f (lim
+
f −1 )
y0
permet d’affirmer que f −1 réalise une bijection de f (I) vers un intervalle dont les extrémités sont ses
limites en les extrémités f (I). Or f −1 réalise une bijection de f (I) vers I, donc les limites de f −1 aux
extrémités de f (I) sont les extrémités de I.
Corollaire
Par passage à l’opposé, on peut énoncer un résultat semblable pour f continue et strictement
décroissante sur un intervalle I.
Remarque Rappelons que les graphes de f et f −1 sont symétriques par rapport à ∆ : y = x (1ère
bissectrice).
Remarque Par ce théorème, il est possible de déduire des bijections d’un tableau de variation.
C’est ce théorème qui permet de définir bon nombre des fonctions usuelles comme application
réciproque de fonction déjà connue.
f (x) = x + ln x
La fonction f est continue est strictement décroissante sur ]0, 1] donc réalise une bijection de ]0, 1] vers
[1, +∞[.
La fonction f est continue et strictement croissante sur [1, +∞[ donc réalise une bijection de [1, +∞[
vers [1, +∞[
Proposition
Si f : I → J est une bijection continue alors f est strictement monotone et f −1 continue.
dém. :
Soit f : I → R une fonction continue et injective
Si I est réduit à un point, il n’y a rien à montrer.
Sinon, I possède au moins deux points que l’on notera a, b de sorte que a < b.
Puisque f est injective f (a) 6= f (b).
Cas f (a) < f (b)
Montrons que f est strictement croissante.
Soient x, y ∈ I tels que x < y.
Posons ϕ : [0, 1] → R définie par :
ϕ(t) = f ((1 − t)b + ty) − f ((1 − t)a + tx)
Par construction ϕ(0) = f (b) − f (a) > 0 et ϕ(1) = f (y) − f (x).
Par opérations sur les fonctions continues ϕ est continue.
Remarque On peut aussi introduire les notions de continuité à droite et à gauche en un point.
17.3.2 Opérations
Théorème
Soient f, g : D → C et λ ∈ C.
Si f et g sont continues alors λ.f, f + g, f g, f¯ et |f | le sont aussi.
Si de plus si g ne s’annule pas alors la fonction f /g est continue.
dém. :
Par opérations sur les limites en chaque a ∈ D.
Exemple Les fonctions polynomiales et les fonctions rationnelles sont continues.
Théorème
Soit f : D → C. On a équivalence entre :
(i) f est continue ;
(ii) Re(f ) et Im(f ) le sont.
dém. :
1 1
(i) ⇒ (ii) via Re(f ) = (f + f¯) et Im(f ) = (f − f¯).
2 2i
(ii) ⇒ (i) via f = Re(f ) + i.Im(f ).
17.3.3 Propriétés
Attention : Pour les fonctions complexes le théorème des valeurs intermédiaires n’a pas de sens.
En effet on ne peut pas parler de valeurs intermédiaire entre deux nombres complexes
Par exemple la fonction continue f (t) = eit prend la valeur 1 en 0 et la valeur −1 en π sans pour autant
s’annuler.
Proposition
Si f : [a, b] → C est continue alors f est bornée.
dém. :
La fonction t 7→ |f (t)| est une fonction à valeur réelle définie et continue sur un segment donc majorée.
Proposition
f : D → R2 est continue si, et seulement si, ses fonctions coordonnées le sont.
dém. :
Notons x et y les fonctions coordonnées de f .
Soit a ∈ D, par caractérisation des limites via les fonctions coordonnées, on a f (t) −−−→ f (a) si, et
t→a
seulement si, x(t) −−−→ x(a) et y(t) −−−→ y(a).
t→a t→a
Proposition
Si f : D → K est uniformément continue alors f est continue.
dém. :
S’il existe un α > 0 convenant pour tout x ∈ D, il existe a fortiori pour chaque x ∈ D un α > 0
convenable.
Soit ε > 0.
Cherchons α > 0 tel que
|y − x| 6 α ⇒ |f (y) − f (x)| 6 ε
k
|y − x| 6 α ⇒ |f (y) − f (x)| 6 ε
k+1
et donc
|y − x| 6 α ⇒ |f (y) − f (x)| 6 ε
Dérivation
Dans ce chapitre I et J désignent des intervalles non singuliers de R i.e. des intervalles non vides et non
réduits à un point.
18.1 Dérivées d’une fonction réelle
18.1.1 Nombre dérivé
Soient f : I → R et Γf le graphe de f .
Pour étudier la courbe Γf , on introduit le paramétrage
(
x=t
avec t ∈ I
y = f (t)
f (b) − f (a)
τ (a, b) =
b−a
Remarque τ (a, b) est la pente (ou coefficient directeur) de la droite (M (a)M (b)).
619
18.1. DÉRIVÉES D’UNE FONCTION RÉELLE
Définition
On dit que f est dérivable en a ∈ I si le taux de variation de f entre a et x converge quand
x → a (avec x 6= a ) autrement dit si
f (x) − f (a) 1
lim = lim (f (a + h) − f (a))
x→a,x6=a x−a h→0,h6=0 h
Proposition
Si f est dérivable en a ∈ I alors la courbe Γf admet une tangente au point M (a) qui est la
droite T d’équation
y = f 0 (a)(x − a) + f (a)
Par abus, on dit que T est la tangente à f en a.
dém. :
Les droites (M (a)M (a + h)) pivotent autour du point M (a) et on pour pente τ (a, a + h).
Or quand h → 0, τ (a, a + h) → f 0 (a), donc les droites (M (a)M (a + h)) tendent vers la droite passant
par M (a) de pente f 0 (a).
Théorème
Si f est dérivable en a ∈ I alors
quand x → a.
Cette relation est appelée développement limité à l’ordre 1 de f en a.
dém. :
Quand x → a (avec x 6= a ) on peut écrire
f (x) − f (a)
= f 0 (a) + ε(x)
x−a
Remarque Cette relation traduit que la tangente en a est la droite la plus proche de la courbe Γf au
voisinage du point d’abscisse a.
Corollaire
Si f : I → R est dérivable en a alors f est continue en a.
dém. :
Quand x → a,
f (x) = f (a) + f 0 (a)(x − a) + o(x − a) → f (a)
Proposition
Si f est continue en a ∈ I et si
1
lim (f (a + h) − f (a)) = +∞ ou − ∞
h→0,h6=0 h
alors f n’est pas dérivable en a et Γf admet une tangente verticale en M (a) qui est la droite
d’équation x = a.
Par abus on dit que f admet une tangente verticale en a.
dém. :
Les droites (M (a)M (a + h)) pivotent autour de M (a) et ont pour pente τ (a, a + h).
Or quand h → 0 (avec h 6= 0 ), τ (a, a + h) → +∞ (ou −∞ ) et donc les droites (M (a)M (a + h))
tendent vers la droite verticale passant par M (a).
√
Exemple Soit f : R+ → R définie par f (x) = x.
+
Quand x → 0 ,
f (x) − f (0) 1
= √ → +∞
x x
√
La fonction . n’est pas dérivable en 0 mais son graphe présente une tangente verticale en 0.
Quand x → 0 (avec x 6= 0 ),
f (x) − f (0) 1
= sin
x x
diverge tout en étant borné.
Définition
On dit que f : I → R est dérivable si f est dérivable en tout point de I.
On note D(I, R) l’ensemble des fonctions dérivables de I vers R.
Proposition
Si f : I → R est dérivable alors f est continue.
dém. :
Si f est dérivable alors f est dérivable en chaque a ∈ I et donc f est continue en chaque a ∈ I.
Définition
Si f : I → R est dérivable, on introduit sa fonction dérivée qui est l’application f 0 de I vers R
qui à x ∈ I associe le nombre dérivé de f en x.
Cette fonction est encore parfois notée Df .
Théorème
Si f et g : I → R sont dérivables alors pour tout λ ∈ R les fonctions λ.f, f + g, f g le sont
aussi.
De plus on a alors (λ.f )0 = λ.f 0 , (f + g)0 = f 0 + g 0 et (f g)0 = f 0 g + f g 0 .
dém. :
Soit a ∈ I.
Quand x → a (avec x 6= a ).
(λ.f )(x) − (λ.f )(a) f (x) − f (a)
=λ → λf 0 (a)
x−a x−a
(f + g)(x) − (f + g)(a) f (x) − f (a) g(x) − g(a)
= + → f 0 (a) + g 0 (a)
x−a x−a x−a
(f g)(x) − (f g)(a) f (x) − f (a) g(x) − g(a)
= g(x) + f (a) → f 0 (a)g(a) + f (a)g 0 (a)
x−a x−a x−a
car g est continue en a.
Corollaire
Si f1 , ..., fn : I → R sont dérivables alors f1 + · · · + fn et f1 . . . fn le sont aussi et de plus
et
n
X
0
(f1 . . . fn ) = f1 . . . fi−1 (fi )0 fi+1 . . . fn
i=1
dém. :
En raisonnant par récurrence sur n ∈ N? .
Exemple En particulier
(f gh)0 = f 0 gh + f g 0 h + f gh0
Théorème
Soit f : I → R ne s’annulant pas
Si f est dérivable alors sa fonction inverse 1/f l’est aussi et
0
1 f0
=− 2
f f
dém. :
Soit a ∈ R.
Quand x → a (avec x 6= a ),
(1/f )(x) − (1/f )(a) f (a) − f (x) 1 1
= → −f 0 (a)
x−a x−a f (x)f (a) f (a)2
car f est continue en a.
Exemple ∀n ∈ N? , 0
nxn−1
1 n
=− = − n+1
xn (xn )2 x
Corollaire
Soient f, g : I → R avec g ne s’annulant pas.
f
Si f et g sont dérivables alors l’est aussi et
g
0
f f 0 g − f g0
=
g g2
dém. :
f 1
Il suffit d’écrire = f × .
g g
18.1.3.2 Composition
Théorème
Soient f : I → R et ϕ : J → R vérifiant f (I) ⊂ J.
Si f et ϕ sont dérivables alors ϕ ◦ f l’est aussi et
(ϕ ◦ f )0 = f 0 × ϕ0 ◦ f
dém. :
Soit a ∈ I.
Puisque f est dérivable en a, on peut écrire par développement limité à l’ordre 1
avec ε −
→ 0.
a
Aussi, puisque g est dérivable en f (a), on peut écrire par développement limité à l’ordre 1
avec ε̃ −−−→ 0.
f (a)
On en déduit
g(f (x)) = g(f (a)) + g 0 (f (a))f 0 (a)(x − a) + (x − a)ε̂(x)
avec
ε̂(x) = g 0 (f (a))ε(x) + (f 0 (a) + ε(x))ε̃(f (x)) −−−→ 0
x→a
Ainsi
g(f (x)) = g(f (a)) + g 0 (f (a))f 0 (a)(x − a) + o(x − a)
quand x → a et donc g ◦ f est dérivable en a avec (g ◦ f )0 (a) = g 0 (f (a)) × f 0 (a).
Exemple ∀α ∈ R, (xα )0 = (eα ln x )0 = αxα−1 sur R+?
Exemple Par dérivation de fonction composée et pour une fonction u dérivable convenable :
u0
(eu )0 = u0 eu , (ln u)0 = , (uα )0 = αu0 uα−1
u
(cos u)0 = −u0 sin u, (sin u)0 = u0 cos u„ (tan u)0 = u0 (1 + tan2 u),
u0 u0 u0
(arccos u)0 = − √ , (arcsin u)0 = √ , (arctan u)0 = ,
1 − u2 1 − u2 1 + u2
(chu)0 = u0 shu, (shu)0 = u0 chu, (thu)0 = u0 (1 − th2 u),
u0 u0 u0
(arg chu)0 = √ , (argshu)0 = √ et (argthu)0 = .
u2 − 1 u2 + 1 1 − u2
Théorème
Soit f : I → J une bijection continue.
Si f est dérivable en a ∈ I et si f 0 (a) 6= 0 alors f −1 : J → I est dérivable en b = f (a) et
1 1
(f −1 )0 (b) = = 0 −1
f 0 (a) f (f (b))
dém. :
Puisque f est une bijection continue donc son application réciproque f −1 : J → I l’est aussi.
Soit a ∈ I tel que f 0 (a) existe et est non nul. Posons b = f (a) ∈ J.
Pour h 6= 0, en introduisant xh = f −1 (b + h), on a
f (xh ) − f (a) = b + h − b = h
donc
1 −1 xh − a
f (b + h) − f −1 (b) =
h f (xh ) − f (a)
puis
1 −1 1
f (b + h) − f −1 (b) → 0
h f (a)
Remarque Géométriquement, les courbes représentant f et f −1 sont symétriques par rapport à la droite
d’équation y = x. Cette symétrie transforme une tangente à f en a de pente α en une tangente à f −1 en
b = f (a) de pente 1/α.
Attention : La condition f 0 (a) 6= 0 est indispensable ; en effet si f 0 (x) = 0 alors f admet une tangente
horizontale en a et par symétrie f −1 admet une tangente verticale en b = f (a).
Corollaire
Si f : I → J est une bijection dérivable vérifiant ∀x ∈ I, f 0 (x) 6= 0 alors son application
réciproque f −1 est dérivable et
1
(f −1 )0 = 0
f ◦ f −1
Remarque La formule de dérivation proposée peut être retrouvée en dérivant la relation f ◦ f −1 = Id.
Exemple On peut introduire la fonction logarithme népérien comme étant la primitive sur R+? de la
fonction inverse s’annulant en 1. En montrant que cette fonction réalise une bijection de R+? vers R, on
peut introduire son application réciproque, la fonction exponentielle et la formule de dérivation
précédente donne
1 1
(ex )0 = 0 x
= = ex
(ln) (e ) 1/ex
Exemple De façon semblable on introduit les fonctions : arcsin, arccos, arctan et argsh, argch, argth et
on établit les formules de dérivation précédemment énoncées.
f réalise une bijection de R+ sur [1, +∞[ car c’est une fonction continue, strictement croissante (par
opération sur de telles fonctions) vérifiant f (0) = 1 et lim f = +∞.
+∞
La fonction f est dérivable sur R+? et
1
∀x > 0, f 0 (x) = √ + 1 6= 0
2 x
Par le théorème précédent, on peut affirmer que son application réciproque f −1 est dérivable sur
Etude de la dérivabilité en 1.
Quand h → 0 (avec h 6= 0 ),
1 −1 1 x x x √
f (1 + h) − f −1 (1) = f −1 (1 + h) = =√ ∼ √ = x→0
h h x=f (1+h) f (x) − 1
−1 x+x x
Définition
Soient f : I → R et a ∈ I.
Si a n’est pas extrémité droite de I, on dit que f est dérivable à droite en a si le taux de variation
1
(f (a + h) − f (a)) converge quand h → 0+ . On pose alors
h
1
fd0 (a) = lim− (f (a + h) − f (a))
h→0 h
Si a n’est pas extrémité gauche de I, on dit que f est dérivable à gauche en a si le taux de
1
variation (f (a + h) − f (a)) converge quand h → 0− . On pose alors
h
1
fg0 (a) = lim (f (a + h) − f (a))
h→0− h
Exemple Pour f : R → R définie par f (x) = |x|, on a fd0 (0) = 1 et fg0 (0) = −1.
Définition
Si f : I → R est dérivable à droite en a alors la droite Td d’équation
Proposition
Soient f : I → R et a ∈ I qui n’est pas extrémité de I. On a équivalence entre :
(i) f est dérivable en a ;
(ii) f est dérivable à droite et à gauche en a et fd0 (a) = fg0 (a).
De plus, si tel est le cas, f 0 (a) = fd0 (a) = fg0 (a).
dém. :
1
Le taux de variation (f (a + h) − f (a)) converge quand h → 0 avec h 6= 0 si, et seulement si, ce taux
h
de variation converge quand h → 0+ et quand h → 0− vers une même limite. Cette limite commune est
1
alors la limite de (f (a + h) − f (a)) quand h → 0 avec h 6= 0.
h
1ère méthode :
Soit a ∈ R.
Cas a > 0
Au voisinage de a, on a f (x) = x2 et donc f est dérivable en a et f 0 (a) = 2a.
Cas a < 0
Au voisinage de a, on a f (x) = −x2 et donc f est dérivable en a et f 0 (a) = −2a.
Cas a = 0
Quand h → 0+ ,
1 h2 − 0
(f (h) − f (0)) = → 0 donc f est dérivable à droite en 0 et fd0 (0) = 0.
h h
Quand h → 0− ,
1 −h2 − 0
(f (h) − f (0)) = → 0 donc f est dérivable à gauche en 0 et fg0 (0) = 0.
h h
Puisque f est dérivable à droite et à gauche en 0 avec fd0 (0) = fg0 (0) = 0, f est dérivable en 0 et
f 0 (0) = 0.
Au final f est dérivable sur R et f 0 (x) = |x|.
2ème méthode :
0
Sur R+ , on a f (x) = x2 donc fR+ est dérivable et fR + (x) = 2x.
Ainsi f est dérivable en tout a > 0 et est dérivable à droite en 0 avec fd0 (0) = 0.
Sur R− , on a f (x) = −x2 donc fR− est dérivable et fR 0
− (x) = −2x.
Ainsi f est dérivable en tout a < 0 et est dérivable à gauche en 0 avec fg0 (0) = 0.
On peut ensuite conclure comme ci-dessus.
Définition
Soit f : I → R.
On pose f (0) = f appelée dérivée d’ordre 0 de f .
Si f est dérivable, on note f (1) = f 0 appelée dérivée d’ordre 1 de f .
Si de plus f 0 est dérivable, on pose f (2) = f 00 = (f 0 )0 appelée dérivée d’ordre 2 (ou dérivée
seconde) de f .
Ainsi, de proche en proche, si f possède une dérivée d’ordre n ∈ N, notée f (n) , et si celle-ci
est dérivable, on pose f (n+1) = (f (n) )0 appelée dérivée d’ordre n + 1 de f .
Définition
On dit que f : I → R est n fois dérivable si sa dérivée d’ordre n existe.
On dit que f est indéfiniment dérivable si pour tout n ∈ N, f est n fois dérivable.
∀n ∈ N, (ex )(n) = ex
De même
π
(cos x)(n) = cos(x + n )
2
18.1.5.2 Opérations
Soit n ∈ N.
Théorème
Si f, g : I → R sont n fois dérivables alors pour tout λ ∈ R, λ.f et f + g le sont aussi et
dém. :
Par récurrence sur n ∈ N.
La propriété est immédiate pour n = 0.
Supposons la propriété vraie au rang n > 0.
Soient f, g : I → R des fonctions n + 1 fois dérivables.
Les fonctions f et g sont en particulier n fois dérivables et donc par hypothèse de récurrence les fonctions
λ.f et f + g le sont aussi avec (λ.f )(n) = λ.f (n) et (f + g)(n) = f (n) + g (n) .
Puisque les fonctions f (n) et g (n) sont dérivables, on peut affirmer que les fonctions (λ.f )(n) et (f +g)(n)
sont dérivables par opérations sur les fonctions dérivables.
Par suite les fonctions λ.f et f + g sont n + 1 fois dérivables avec (λ.f )(n+1) = (λ.f (n) )0 = λ.f (n+1) et
0
(f + g)(n+1) = f (n) + g (n) = f (n+1) + g (n+1)
Théorème
Si f, g : I → R sont n fois dérivables alors f g l’est aussi et
n
!
(n)
X n
(f g) = f (n−k) g (k)
k=0
k
dém. :
Par récurrence sur n ∈ N.
La propriété est immédiate pour n = 0.
Supposons la propriété vraie au rang n > 0.
Pour tout k ∈ {0, . . . , n}, les fonctions f (n−k) et g (k) sont dérivables donc par opération sur les fonctions
dérivables, la fonction (f g)(n) est encore dérivable.
Ainsi la fonction f g est n + 1 fois dérivable et
n
!
(n+1)
h
(n)
i0 X n h (n+1−k) (k) i
(f g) = (f g) = f g + f (n−k) g (k+1)
k=0
k
Récurrence établie
Exemple La fonction x 7→ (x2 + x + 1)e−x est indéfiniment dérivable.
Par la formule de Leibniz
n
!
−x (n)
X n
2
(x2 + x + 1)(k) (e−x )(n−k)
(x + x + 1)e =
k=0
k
Au final (n)
(x2 + x + 1)e−x = (−1)n (x2 − (2n − 1)x + (n − 1)2 )e−x
Lemme
Soit f : I → R. On a équivalence entre :
(i) f est n + 1 fois dérivable ;
(ii) f est dérivable et f 0 est n fois dérivable.
De plus, on a alors f (n+1) = (f 0 )(n)
dém. :
Par récurrence sur n ∈ N.
Pour n = 0, la propriété est immédiate.
Supposons la propriété établie au rang n > 0.
(i) ⇒ (ii) Supposons que f est n + 2 fois dérivable.
La fonction est en particulier n + 1 fois dérivable et par hypothèse de récurrence, on peut affirmer que
f est dérivable et sa dérivée f 0 est n fois dérivable avec (f 0 )(n) = f (n+1) . Or la fonction f (n+1) est
encore dérivable donc (f 0 )(n) est dérivable et par conséquent f 0 est n + 1 fois dérivable avec (f 0 )(n+1) =
(f (n+1) )0 = f (n+2) .
(ii) ⇒ (i) Supposons que f est dérivable et f 0 est n + 1 fois dérivable.
Par hypothèse de récurrence, on peut déjà affirmer que f est n + 1 fois dérivable et f (n+1) = (f 0 )(n) . Or
(f 0 )(n) est dérivable donc f (n+1) aussi et ainsi f est n + 2 fois dérivable.
Récurrence établie.
Théorème
Soient f, g : I → R telles que g ne s’annule pas.
Si f et g sont n fois dérivables alors f /g l’est aussi.
dém. :
Par récurrence sur n ∈ N
Pour n = 0, la propriété est immédiate.
Supposons la propriété établie au rang n > 0.
Soient f, g : I → R des fonctions n + 1 fois dérivables avec g ne s’annulant pas.
Les fonctions f et g sont dérivables donc le rapport f /g l’est encore et on a
0
f f 0 g − f g0
=
g g2
Or les fonctions f 0 et g sont n fois dérivables donc le produit f 0 g l’est aussi. De même les produits f g 0
et g 2 sont aussi n fois dérivables et par hypothèse de récurrence le rapport (f 0 g − f g 0 )/g 2 est n fois
dérivable.
En vertu du lemme précédent, on peut affirmer que le rapport f /g est n + 1 fois dérivable.
Récurrence établie.
Exemple La fonction x 7→ ln x est indéfiniment dérivable car sa dérivée est la fonction inverse qui est
indéfiniment dérivable.
Exemple Les fonctions x 7→ tan x et x 7→ thx sont indéfiniment dérivables par rapport de fonctions
indéfiniment dérivables.
Théorème
Soient f : I → R et ϕ : J → R vérifiant f (I) ⊂ J.
Si f et ϕ sont n fois dérivables alors ϕ ◦ f l’est aussi.
dém. :
Par récurrence sur n ∈ N
Pour n = 0, la propriété est immédiate.
Supposons la propriété établie au rang n > 0.
Soient f : I → R et ϕ : J → R vérifiant f (I) ⊂ J des fonctions n + 1 fois dérivables.
Les fonctions f et ϕ sont dérivables donc la composée ϕ ◦ f l’est encore et on a
(ϕ ◦ f )0 = f 0 × ϕ0 ◦ f
Or les fonctions ϕ0 et f sont n fois dérivables donc par hypothèse de récurrence, la fonction ϕ0 ◦ f est
aussi n fois dérivable. De plus la fonction f 0 est n fois dérivable donc par produit la fonction (ϕ ◦ f )0 est
n fois dérivable.
En vertu du lemme précédent, on peut affirmer que la composée ϕ ◦ f est n + 1 fois dérivable.
Récurrence établie.
Théorème
Soit f : I → J une bijection continue.
Si f est n fois dérivable (avec n > 1 ) et si dérivée première ne s’annule pas alors f −1 : J → I
est n fois dérivable.
dém. :
Par récurrence sur n ∈ N?
Pour n = 1, la propriété est déjà connue.
Supposons la propriété établie au rang n > 1.
Soit f : I → J une bijection continue n + 1 fois dérivable dont la dérivée ne s’annule pas.
Puisque f est en particulier n fois dérivable, on peut déjà affirmer par hypothèse de récurrence que f −1
est n fois dérivable. En particulier f −1 est dérivable et on sait
1
(f −1 )0 =
f0 ◦ f −1
Or f 0 et f −1 sont n fois dérivables donc par opérations (f −1 )0 est n fois dérivable.
En vertu du lemme précédent, on peut affirmer que la bijection réciproque f −1 est n + 1 fois dérivable.
Récurrence établie.
Exemple Les fonctions arccos et arcsin sont indéfiniment dérivables sur ]−1, 1[ car bijections
réciproques des fonctions indéfiniment dérivables cos]0,π[ et sin]−π/2,π/2[ dont les dérivées ne
s’annulent pas.
Exemple La fonction arctan est indéfiniment dérivable sur R car bijection réciproque de la fonction
indéfiniment dérivable tan]−π/2,π/2[ dont la dérivée ne s’annule pas.
Définition
On dit qu’une fonction f : I → R est de classe C n (avec n ∈ N ) si sa dérivée d’ordre n existe
et est continue.
On note C n (I, R) l’ensemble des fonctions réelles de classe C n définies sur I.
Exemple Dire que f : I → R est de classe C 1 signifie que f est dérivable et que sa dérivée est continue.
x2 sin(1/x) si x 6= 0
f (x) =
0 sinon
Remarque Puisqu’une fonction dérivable est continue, une fonction n + 1 fois dérivable est de classe
C n . En particulier les fonctions de classe C n+1 sont a fortiori de classe C n . Ainsi
C n+1 (I, R) ⊂ C n (I, R).
Définition
On dit qu’une fonction f : I → R est de classe C ∞ si elle est de classe C n pour tout n ∈ N.
On note C ∞ (I, R) l’ensemble de ces fonctions.
Ainsi \
C ∞ (I, R) = C n (I, R)
n∈N
Exemple Les fonctions polynomiales, les fonctions rationnelles, les fonctions usuelles sont de classe
C ∞ là où elles sont dérivables et a fortiori elles y sont aussi de classe C n .
18.1.6.2 Opérations
Lemme
Soient f : I → R et n ∈ N.
On a équivalence entre :
(i) f est de classe C n+1 ;
(ii) f est dérivable et f 0 est de classe C n .
dém. :
(i) ⇒ (ii) Si f est de classe C n+1 alors f est n + 1 fois dérivable et f (n+1) est continue.
Par suite f est dérivable et f 0 est n fois dérivable avec (f 0 )(n) = f (n+1) continue.
Ainsi f 0 est de classe C n .
(ii) ⇒ (i) Si f est dérivable et f 0 de classe C n alors f 0 est n fois dérivable et donc f est n + 1 fois
dérivable. De plus, f (n+1) = (f 0 )(n) est continue et donc f est de classe C n+1 .
Les théorèmes qui suivent se justifient par récurrence sur n ∈ N et s’étendent alors n = ∞ :
Théorème
Si f et g : I → R sont de classe C n alors pour tout λ ∈ R les fonctions λ.f, f + g, f g le sont
aussi.
Si de plus g ne s’annule pas alors le rapport f /g est aussi C n .
Théorème
Soient f : I → R et ϕ : J → R vérifiant f (I) ⊂ J.
Si f et ϕ sont C n alors la composée ϕ ◦ f l’est aussi.
Théorème
Si f : I → J est une bijection de classe C n (avec n > 1 ) et si sa dérivée ne s’annule pas alors
sa bijection réciproque f −1 : J → I est aussi de classe C n .
Définition
On dit qu’une fonction f : I → R admet un minimum local en a ∈ I s’il existe α > 0 vérifiant
On dit qu’une fonction f : I → R admet un maximum local en a ∈ I s’il existe α > 0 vérifiant
∀x ∈ I ∩ [a − α, a + α] , f (x) 6 f (a)
Théorème
Si f : I → R admet un extremum local en a ∈ I qui n’est pas extrémité de I et si f est
dérivable en a alors f 0 (a) = 0.
dém. :
Cas a minimum local
Il existe α > 0 tel que
∀x ∈ I ∩ [a − α, a + α] , f (x) > f (a)
Quitte à réduire α, on peut aussi supposer [a − α, a + α] ⊂ I car a n’est pas extrémité de I.
Quand h → 0+ ,
Pour h assez petit, h 6 α et alors f (a + h) > f (a) d’où
1
(f (a + h) − f (a)) > 0
h
En passant à la limite, on obtient f 0 (a) > 0.
Quand h → 0− ,
Pour h assez petit, f (a + h) > f (a) puis
1
(f (a + h) − f (a)) 6 0
h
car ici h < 0.
En passant à la limite, on obtient f 0 (a) 6 0.
Finalement f 0 (a) = 0.
Cas a maximum local
Il suffit d’exploiter le résultat qui précède en l’appliquant à la fonction −f .
( ! )Pour appliquer ce résultat il ne faut pas que a soit extrémité de I.
Remarque Si a est minimum local de f et est une extrémité gauche de I (resp. extrémité droite de I ),
le raisonnement qui précède donne f 0 (a) > 0 (resp. f 0 (a) 6 0 ).
dém. :
Puisque la fonction f est continue sur le segment, elle y admet un minimum et un maximum.
Ainsi il existe c, d ∈ [a, b] vérifiant
Si c et d sont tous deux extrémités de I alors la condition f (a) = f (b) entraîne que f est constante sur
[a, b]. Par suite n’importe quel élément de ]a, b[ annule la dérivée de f .
Sinon, l’un au moins de c ou de d n’est pas extrémité de l’intervalle [a, b] et puisque f admet un extremum
local en cet élément et y est dérivable, la dérivée de f s’y annule.
Puisque les b1 , . . . , bn vérifient a0 < b1 < a1 < b2 < . . . < an−1 < bn < an , ces éléments sont deux à
deux distincts.
Ainsi, nous venons de démontrer que si une fonction dérivable f : I → R s’annule n + 1 fois, sa dérivée
s’annule au moins n fois.
Par suite, si f est n fois dérivable et s’annule n + 1 fois, sa dérivée s’annule au moins n fois, sa dérivée
seconde s’annule au moins n − 1 et plus généralement, pour k ∈ {0, . . . , n}, f (k) s’annule au moins
n + 1 − k fois.
En particulier f (n) s’annule au moins une fois.
dém. :
Posons
f (b) − f (a)
K=
b−a
et considérons la fonction auxiliaire ϕ : [a, b] → R définie par
La fonction ϕ est continue sur [a, b] et dérivable sur ]a, b[ par opérations sur de telles fonctions.
Par construction ϕ(a) = f (a) et ϕ(b) = f (b) − K(b − a) = f (a) = ϕ(a).
On peut donc appliquer le théorème de Rolle à la fonction ϕ sur [a, b] et donc il existe c ∈ ]a, b[ vérifiant
ϕ0 (c) = 0. Or ϕ0 (x) = f 0 (x) − K sur ]a, b[ et donc ϕ0 (c) = 0 donne f 0 (c) = K.
Remarque L’égalité
f (b) − f (a)
f 0 (c) =
b−a
signifie que la tangente en c à f est parallèle à la droite joignant les points d’abscisses a et b de f .
D’un point de vue cinématique, la vitesse moyenne sur [a, b] est égale à la vitesse instantanée pour un
instant c bien choisi.
Pour cela appliquons le théorème des accroissements finis à la fonction t 7→ ln(1 + t) sur [0, x].
Cette fonction est continue sur [0, x] et dérivable sur ]0, x[ car de classe C ∞ sur ]−1, +∞[.
Par le théorème des accroissements finis, il existe c ∈ ]0, x[ vérifiant
x
ln(1 + x) − ln(1) =
1+c
1 1 x
Puisque 0 < c < x, on a < < 1 puis < ln(1 + x) < x.
1+x 1+c x+1
Théorème
Soit f : I → R dérivable.
S’il existe m, M ∈ R vérifiant
∀x ∈ I, m 6 f 0 (x) 6 M
dém. :
Cas a = b
C’est immédiat
Cas a < b
La fonction f est continue sur [a, b] et dérivable sur ]a, b[ car dérivable sur I.
Par l’égalité des accroissements finie, il existe c ∈ ]a, b[ vérifiant f (b) − f (a) = f 0 (c)(b − a).
Puisque m 6 f 0 (c) 6 M et b − a > 0, on en déduit m(b − a) 6 f (b) − f (a) 6 M (b − a).
Remarque D’un point de vue cinématique, l’inégalité des accroissements finis sous la forme
f (b) − f (a)
m6 6M
b−a
signifie que la vitesse moyenne est comprise entre l’inf et le sup des vitesses instantanées.
Corollaire
Soit f : I → R dérivable.
S’il existe M ∈ R+ vérifiant
∀x ∈ I, |f 0 (x)| 6 M
alors f est M lipschitzienne i.e.
dém. :
Puisque pour tout x ∈ I, −M 6 f 0 (x) 6 M , l’inégalité des accroissements finis donne que pour
tout x 6 y,
−M (y − x) 6 f (y) − f (x) 6 M (y − x)
et donc
|f (y) − f (x)| 6 M |y − x|
Exemple Les fonctions sin, cos, arctan sont des fonctions 1 lipschitziennes car leurs dérivées sont
bornées par 1.
Exemple Soit f : [a, b] → R une fonction de classe C 1 . Montrer que f est lipschitzienne.
Puisque f est de classe C 1 , f est dérivable et f 0 est continue.
Puisque f 0 est continue sur le segment [a, b], on peut affirmer que f 0 est bornée par un certain M ∈ R+
sur ce segment et alors f est M -lipschitzienne en vertu de l’inégalité des accroissements finis.
Théorème
Soit f : I → R une fonction dérivable.
La fonction f est croissante si, et seulement si,
∀x ∈ I, f 0 (x) > 0
∀x ∈ I, f 0 (x) 6 0
∀x ∈ I, f 0 (x) = 0
dém. :
Cas de la croissance :
( ⇒ ) Supposons la fonction f croissante.
1
Pour tout x ∈ I, f 0 (x) est la limite quand h → 0 (avec h 6= 0 ) du taux de variation (f (x + h) − f (x)).
h
En vertu de la croissance de f , ce taux de variation est positif pour tout h et donc en passant à la limite
on obtient f 0 (x) > 0.
( ⇐ ) Supposons
∀x ∈ I, f 0 (x) > 0
Soient a < b deux éléments de I.
La fonction f est continue sur [a, b] et dérivable sur ]a, b[ car dérivable sur I.
Par le théorème des accroissements finis, il existe c ∈ ]a, b[ vérifiant f (b) − f (a) = f 0 (c)(b − a).
Or b − a > 0 et f 0 (c) > 0 donc f (b) > f (a).
Ainsi f est croissante.
Cas de la décroissance :
Il suffit d’appliquer ce qui précède en considérant la fonction −f .
Cas de la constante :
Il suffit d’observer que les fonctions constantes sur I sont les fonctions à la fois croissantes et décroissantes.
Exemple Montrons que pour tout x ∈ R, on a
x2
cos x > 1 −
2
Introduisons la fonction auxiliaire
ϕ : x 7→ cos x − 1 + x2 /2
La fonction ϕ est de classe C ∞ sur R.
ϕ0 (x) = − sin x + x et ϕ00 (x) = 1 − cos x.
Puisque ϕ00 > 0, la fonction ϕ0 est croissante.
Puisque ϕ0 (0) = 0, la fonction ϕ0 est négative sur ]−∞, 0] et positive sur [0, +∞[.
Par suite la fonction ϕ est décroissante sur ]−∞, 0] et croissante sur [0, +∞[.
La fonction ϕ admet donc un minimum en 0 et puisque ϕ(0) = 0, on peut conclure que ϕ est positive.
Ainsi pour tout x ∈ R, cos x − 1 + x2 /2 > 0 puis cos x > 1 − x2 /2.
Théorème
Soient a < b les extrémités de l’intervalle I.
Si f : I → R est continue sur I et dérivable sur l’intervalle ouvert ]a, b[ avec
Exemple La fonction
√
f : x 7→ ex − 1
ex
f 0 (x) = √ x >0
2 e −1
On peut aussi affirmer que f est√strictement croissante par composition des fonctions strictement
croissantes x 7→ ex − 1 et t 7→ t.
Corollaire
Soit f : I → R continue.
Si f 0 (x) > 0 (resp. f 0 (x) < 0 ) sur I sauf peut-être en un nombre fini de points où
f 0 (x) s’annule ou bien n’est pas défini, alors f est strictement croissante (resp. strictement
décroissante).
dém. :
On découpe l’intervalle I en intervalles J contigus isolant les points où f 0 (x) « pose problème »et on
applique le théorème ci-dessus sur chacun des intervalles J avant de recoller les strictes monotonies ainsi
obtenues.
Théorème
Soit f : I → R et a ∈ I.
On suppose que f est dérivable sur I\ {a} et est continue en a.
Si lim f 0 (x) = ` alors f est dérivable en a et f 0 (a) = `.
x→a
Si lim f 0 (x) = +∞ (ou −∞ ) alors f n’est pas dérivable en a mais présente une tangente
x→a
verticale en a.
dém. :
Supposons lim f 0 (x) = ` ∈ R̄.
x→a
Soit x ∈ I avec x 6= a. En appliquant le théorème des accroissements finis entre a et x, on obtient
l’existence de cx strictement compris entre a et x vérifiant f (x) − f (a) = f 0 (cx )(x − a).
On a alors
f (x) − f (a)
= f 0 (cx )
x−a
Quand x → a (avec x 6= a ),
Par encadrement cx tend vers a et par composition de limite
f (x) − f (a)
→`
x−a
√
Exemple Considérons la fonction f : x 7→ ex − 1 définie et continue sur R+ .
La fonction f est dérivable sur ]0, +∞[ et
ex
f 0 (x) = √ x −−−−→ +∞
2 e − 1 x→0+
Par suite f n’est pas dérivable en 0 mais y présente une tangente verticale.
Corollaire
Soit f : [a, b] → R une fonction continue et de classe C 1 sur ]a, b].
Si f 0 converge en a+ alors f est de classe C 1 sur [a, b].
dém. :
Par le théorème qui précède, f est dérivable en a et f 0 (a) = lim f 0 (x) ce qui assure la continuité de f 0
x→a+
en a.
Attention : Dans ce dernier raisonnement, on n’a pas prolongé f 0 par continuité en 0 car on ne peut pas
poser la valeur d’une dérivée. En revanche, le théorème du prolongement C 1 justifie la dérivabilité au
point considéré et la continuité de la dérivée en ce point.
Les définitions qui suivent prolongent celles vues dans le cadre réel.
18.3.1 Fonction dérivée
Définition
On dit que f : I → C est dérivable en a si le taux de variation complexe
1
(f (a + h) − f (a))
h
converge quand h → 0 (avec h 6= 0 )
La limite obtenue est alors appelé nombre dérivé de f en a et est noté f 0 (a).
Définition
On dit que f : I → C est dérivable si f est dérivable en tout point de I et on peut alors
introduire sa fonction dérivée f 0 : I → C parfois encore notée Df .
Proposition
Si f est dérivable en a ∈ I alors
quand t → a.
En particulier f est continue en a.
dém. :
Analogue à celle présentée dans le cadre réel.
Théorème
Si f et g : I → C sont dérivables alors pour tout λ ∈ C, les fonctions λ.f, f + g, f g et f¯ sont
aussi dérivables et on a les relations
dém. :
Analogue à celle présentée dans le cadre réel.
Exemple Les fonctions polynomiales et rationnelles à coefficients complexes sont dérivables.
Exemple La fonction
t+i
t 7→
t−i
est une fonction définie et dérivable sur R. De plus
0
u0 v − uv 0
t+i u 0 2i
= = =
t−i v v2 (t − i)2
Corollaire
On a équivalence entre :
(i) la fonction f : I → C est dérivable ;
(ii) les fonctions réelles Re(f ) et Im(f ) sont dérivables.
De plus, si tel est le cas,
dém. :
(i) ⇒ (ii) via
1 1
Ref = (f + f¯) et Imf = (f + f¯)
2 2i
(ii) ⇒ (i) via
f = Re(f ) + i.Im(f )
Théorème
Soit f : I → R et ϕ : J → C vérifiant f (I) ⊂ J.
Si f et ϕ sont dérivables alors ϕ ◦ f l’est aussi et
(ϕ ◦ f )0 = f 0 × ϕ0 ◦ f
dém. :
Analogue à celle présentée dans le cadre réel.
Proposition
Soit f : I → C.
Si f est dérivable alors t 7→ ef (t) l’est aussi et
dém. :
Posons a(t) = Re(f (t)) et b(t) = Im(f (t)). Les fonctions réelles a et b sont dérivables.
Puisque ef (t) = ea(t) (cos b(t) + i. sin b(t)), la fonction f est dérivable et
0
ef (t) = a0 (t)ea(t) (cos b(t) + i. sin b(t)) + b0 (t)ea(t) (− sin b(t) + i cos b(t))
Ainsi 0
ef (t) = (a0 (t) + ib0 (t)) ea(t) (cos b(t) + i. sin b(t)) = f 0 (t)eif (t)
Proposition
On a équivalence entre :
(i) la fonction f : I → C est n fois dérivable ;
(ii) les fonctions réelles Re(f ) et Im(f ) sont n fois dérivables.
De plus, si tel est le cas
dém. :
Par récurrence sur n ∈ N.
Pour n = 0, c’est immédiat car toute fonction f est 0 fois dérivable et f (0) = f .
Supposons la propriété établie au rang.
(i) ⇒ (ii) Si la fonction f : I → C est n + 1 fois dérivable alors f est n dérivable. Par hypothèse
de récurrence, les fonctions Re(f ) et Im(f ) sont alors n fois dérivables avec Re(f )(n) = Re(f (n) ) et
Im(f )(n) = Im(f (n) ). Puisque f est n + 1 fois dérivable, la dérivée d’ordre n de f est encore dérivable
et ainsi sa partie réelle l’est aussi. Puisque Re(f )(n) = Re(f (n) ), la fonction réelle Re(f ) est n + 1 fois
dérivable et de plus (Re(f ))(n+1) = Re(f (n) )0 = Re((f (n) )0 ) = Re(f (n+1) ). On procède de même pour
la partie imaginaire de f .
(ii) ⇒ (i) Supposons les fonctions réelles Re(f ) et Im(f ) n + 1 fois dérivables. Ces fonctions sont a
fortiori n fois dérivables et par hypothèse de récurrence f est n fois dérivable avec Re(f (n) ) = Re(f )(n)
et Im(f (n) ) = Im(f )(n) . Puisque f (n) = Re(f )(n) + iIm(f )(n) avec Re(f )(n) et Im(f )(n) dérivables, on
obtient f (n) dérivable puis f n + 1 fois dérivable.
Récurrence établie.
Définition
On dit que f : I → C est de classe C n (avec n ∈ N ) si f est n fois dérivable et si f (n) est
continue.
On dit que f : I → C est de classe C ∞ si f est C n pour tout n ∈ N.
Pour n ∈ N ∪ {∞}, on note C n (I, C) l’ensemble des fonctions complexes définies et de classe
C n sur I.
Proposition
On a équivalence entre :
(i) la fonction f : I → C est de classe C n ;
(ii) les fonctions réelles Re(f ) et Im(f ) sont de classe C ∞ .
dém. :
C’est immédiate sachant Re(f (n) ) = Re(f )(n) et Im(f (n) ) = Im(f )(n) .
Exemple Soit f : I → C de classe C n .
Si ne s’annule pas alors la fonction |f | : I → R est de classe C n .
1/2
En effet |f | = Re(f )2 + Im(f )2 et la fonction Re(f )2 + Im(f )2 de classe C n à valeurs strictement
√
positives et la fonction . est de classe C ∞ sur ]0, +∞[.
Les résultats qui suivent, énoncés pour n ∈ N ∪ {∞}, peuvent être obtenus raisonnant via les parties
réelles et imaginaires.
Théorème
Si f et g : I → C sont de classe C n alors pour tout λ ∈ C, les fonctions λ.f, f + g, f g et f¯ le
sont aussi.
Si de plus g ne s’annule pas alors le rapport f /g est aussi de classe C n .
Théorème
Soient f : I → R et ϕ : J → C telles que f (I) ⊂ J.
Si f et γ sont de classe C n alors ϕ ◦ f l’est aussi.
Proposition
Si f : I → C est de classe C n alors la fonction ef : t 7→ ef (t) l’est aussi.
Attention : Il n’y a pas de théorème de Rolle ni a fortiori de théorème des accroissements finis pour les
fonctions complexes.
Exemple Considérons la fonction complexe f : t 7→ eit définie et de classe C ∞ sur [0, 2π].
On a f (0) = f (2π) alors que ∀t ∈ [0, 2π] , f 0 (t) = ieit 6= 0.
Théorème
Soit f : I → C dérivable.
S’il existe M ∈ R+ vérifiant
∀t ∈ I, |f 0 (t)| 6 M
alors la fonction f est M -lipschitzienne i.e.
dém. :
Soient x, y ∈ I. On peut écrire f (y) − f (x) = reiθ avec r = |f (y) − f (x)| ∈ R+ et θ ∈ R.
Considérons la fonction g : I → C définie par g(t) = f (t)e−iθ .
g est dérivable sur I et
Par suite
g(y) − g(x) = |Re (g(y) − g(x))| = |Re(g(y)) − Re(g(x))|
Appliquons l’inégalité des accroissements finis à la fonction réelle t 7→ Re(g(t)).
La fonction Re(g) est dérivable et
|Re(g(y)) − Re(g(x))| 6 M |y − x|
puis
|f (y) − f (x)| 6 M |y − x|
Corollaire
Soit f : I → C dérivable.
La fonction f est constante si, et seulement si, f 0 = 0.
dém. :
( ⇒ ) Immédiat.
( ⇐ ) Il suffit d’appliquer l’inégalité des accroissements finis avec M = 0.
Théorème
Soit f : I → C une fonction dérivable sur I\ {a} et continue en a.
Si f 0 (x) converge quand x → a alors f est dérivable en a et f 0 (a) = lim f 0 (x).
x→a
dém. :
Il suffit d’appliquer le théorème analogues aux fonctions parties réelles et parties imaginaires.
18.3.4 Fonctions à valeurs dans R2
Soit f : I → R2 une fonction à valeurs dans R2 définie sur I.
Pour tout t ∈ I, on peut écrire f (t) = (x(t), y(t)) ce qui introduit x et y : I → R appelées les fonctions
coordonnées de f .
Définition
On dit qu’une fonction f : I → R2 est dérivable en a ∈ I si le taux de variation
1
(f (a + h) − f (a))
h
converge quand h → 0 (avec h 6= 0 )
Sa limite est alors appelée vecteur dérivé de f en a et est notée f 0 (a).
Définition
On dit que f : I → R2 est dérivable si f est dérivable en tout point de I et on peut alors
introduire sa fonction dérivée f 0 : I → R2 parfois encore notée Df .
Proposition
f : I → R2 dérivable si, et seulement si, ses fonctions coordonnées x et y le sont.
De plus, si tel est le cas
∀t ∈ I, f 0 (t) = (x0 (t), y 0 (t))
dém. :
Le taux de variation
1 1 1
(f (a + h) − f (a)) = (x(a + h) − x(a)) , (y(a + h) − y(a))
h h h
converge quand h → 0 (avec h 6= 0 ) si, et seulement si, les taux de variations (x(a + h) − x(a))/h et
(y(a + h) − y(a))/h convergent.
Définition
Tout comme pour les fonctions réelles et complexes, on définit la notion de dérivée d’ordre
n ∈ N et de classe d’une fonction à valeurs dans R2 .
Proposition
f : I → R2 est de classe C n (avec n ∈ N∪{∞} ) si, et seulement si, ses fonctions coordonnées
le sont.
18.4 Convexité
On munit le plan géométrique P d’un repère R = (O;~i, ~j).
18.4.1 Paramétrage d’un segment
Soient a, b ∈ R et ϕ : [0, 1] → R la fonction définie par
ϕ(λ) = (1 − λ)a + λb
ψ(λ) = λa + (1 − λ)b
Soient
x x
A B
A et B
yA yB
deux points du plan et ϕ : [0, 1] → P la fonction définie par
(1 − λ)x + λx
A B
ϕ(λ) = Mλ
(1 − λ)yA + λyB
Puisque
−−−→ λ(xB − xA )
AMλ
λ(yB − yA )
−−−→ −−→
on a AMλ = λAB et ainsi ϕ réalise une surjection de [0, 1] sur [A, B].
Définition
On dit que ϕ est un paramétrage du segment [A, B].
Exemple
Exemple Les segments, les droites et les demi-plans sont des parties convexes.
Remarque De manière semblable, on peut définir la notion de partie convexe de l’espace géométrique.
)
On appelle arc d’extrémités A et B l’ensemble noté AB formé des points de Γf d’abscisses comprises
entre a et b. ( )
(1 − λ)x + λx
A B
[A, B] = M /λ ∈ [0, 1]
(1 − λ)yA + λyB
et ( )
λa + (1 − λ)b
)
AB = N /λ ∈ [0, 1]
f (λa + (1 − λ)b)
L’inégalité de convexité affirme que pour une abscisse x donnée, l’ordonnée du point d’abscisse x de la
corde est supérieure à l’ordonnée du point d’abscisse x de l’arc.
)
Ainsi, pour une fonction convexe, l’arc AB est en dessous de la corde [A, B].
Exemple Les fonctions affines x 7→ αx + β sont convexes ; en fait pour ces fonctions, l’inégalité de
convexité est une égalité.
Définition
On dit qu’une fonction f : I → R est concave si elle vérifie
Proposition
Pour f : I → R, on a équivalence entre :
(i) f est concave ;
(ii) −f est convexe.
dém. :
Par passage à l’opposé l’inégalité de convexité est renversée.
Remarque Par passage à l’opposé et renversement d’inégalité, les résultats suivant présenté pour les
fonctions convexes se transposent aux fonctions concaves.
Définition
On appelle épigraphe d’une f : I → R l’ensemble
( )
x
Epi(f ) = M ∈ P/x ∈ I, f (x) 6 y
y
Théorème
Pour f : I → R, on a équivalence entre :
(i) la fonction f est convexe ;
(ii) l’épigraphe de f est convexe.
dém. :
(i) ⇒ (ii) Supposons f convexe.
Soient
x x
A B
A ,B
yA yB
)
par suite le segment [A, B] est au dessus de la corde AB.
Ainsi f est convexe.
Exemple
Lemme
Soit f : I → R. On a équivalence entre :
(i) f est convexe ;
(ii) ∀a, b, c ∈ I, a < c < b ⇒ τ (a, c) 6 τ (a, b) 6 τ (c, b) ;
(iii) ∀a, b, c ∈ I , a < c < b ⇒ τ (a, c) 6 τ (c, b).
dém. :
(i) ⇒ (ii) Supposons f convexe
Soient a, b, c ∈ I tels que a < c < b. c = λa + (1 − λ)b avec
b−c
λ= ∈ ]0, 1[
b−a
Par convexité
f (c) = f (λa + (1 − λ)b) 6 λf (a) + (1 − λ)f (b)
donc
c−a
f (c) − f (a) 6 (1 − λ)(f (b) − f (a)) = (f (b) − f (a))
b−a
d’où τ (a, c) 6 τ (a, b).
De plus :
b−c
f (b) − f (c) > λ(f (b) − f (a)) = (f (b) − f (a))
b−a
d’où τ (a, b) 6 τ (b, c).
(ii) ⇒ (iii) ok
(iii) ⇒ (i) Supposons (iii)
Soient a, b ∈ I et λ ∈ [0, 1].
Montrons
f (λa + (1 − λ)b) 6 λf (a) + (1 − λ)f (b)
Si a = b : ok
Si a 6= b, quitte à échanger a et b d’une part, et λ et 1 − λ d’autre part, on peut supposer a < b.
Si λ = 0 ou λ = 1 : ok
Si λ ∈ ]0, 1[, posons c = λa + (1 − λ)b.
Puisque a < c < b, on a τ (a, c) 6 τ (c, b) ce qui donne
c−a 1−λ
f (c) − f (a) 6 (f (b) − f (c)) = (f (b) − f (c))
b−c λ
puis f (c) 6 λf (a) + (1 − λ)f (b).
Ainsi f est convexe.
Théorème
Soit f : I → R. On a équivalence entre :
(i) f est convexe ;
(ii) ∀x0 ∈ I la fonction τx0 : I\ {x0 } → R définie par τx0 (x) = τ (x0 , x) est croissante.
dém. :
(i) ⇒ (ii) Supposons f convexe.
Soit x0 ∈ I. Montrons que τx0 est croissante.
Soient x, y ∈ I\ {x0 } tels que x < y.
Si x0 < x < y alors τx0 (x) 6 τx0 (y) (en prenant a = x0 , c = x et b = y ),
Si x < x0 < y alors τx0 (x) 6 τx0 (y) (en prenant a = x, c = x0 et b = y ),
Si x < y < x0 alors τx0 (x) 6 τx0 (y) (en prenant a = x, c = y et b = x0 ).
Dans tous les cas τx0 (x) 6 τx0 (y)
(ii) ⇒ (i) Supposons (ii)
Soient a, b, c ∈ I tels que a < c < b.
On a τ (a, c) = τc (a) 6 τc (b) = τ (c, b) donc f est convexe en vertu du lemme précédent.
18.4.4.3 Dérivation
Théorème
Soit f : I → R dérivable. On a équivalence entre :
(i) f est convexe ;
(ii) f 0 est croissante.
dém. :
(i) ⇒ (ii) Supposons f convexe.
Soient a, b ∈ I tels que a < b et x ∈ ]a, b[.
On a
τ (a, x) 6 τ (a, b) 6 τ (b, x)
Quand x → a+ : f 0 (a) 6 τ (a, b).
Quand x → b− : τ (a, b) 6 f 0 (b).
Ainsi f 0 (a) 6 f 0 (b) et f 0 est croissante.
(ii) ⇒ (i) Supposons f 0 croissante.
Soient a, b, c ∈ I tels que a < c < b.
Par le théorème des accroissements finis, il existe α ∈ ]a, c[ tel que τ (a, c) = f 0 (α) et il existe β ∈ ]c, b[
tel que τ (c, b) = f 0 (β). Puisque α 6 β, on obtient τ (a, c) 6 τ (c, b).
On peut alors conclure que f est convexe en vertu du précédent lemme.
Corollaire
Soit f : I → R deux fois dérivable.
On a équivalence entre :
(i) f est convexe ;
(ii) f 00 > 0.
dém. :
La monotonie de f 0 est donnée par le signe de f 00 .
Exemple Les fonctions x 7→ x2 , x 7→ ex , x 7→ chx sont des fonctions convexes car de dérivées
secondes positives
Exemple La fonction x 7→ ln x est une fonction concave car de dérivée seconde négative.
2x 1 − x2
f 0 (x) = et f 00
(x) = 2
1 + x2 (1 + x2 )2
du signe de 1 − x2
On en déduit que f est convexe sur [−1, 1] et concave sur ]−∞, −1] et sur [1, +∞[.
Notons que nous ne dirons pas que f est concave sur la réunion ]−∞, −1] ∪ [1, +∞[ car la notion de
convexité d’une fonction réelle n’a de sens que pour une fonction définie sur un intervalle.
y = f 0 (a)(x − a) + f (a)
Corollaire
Si f : I → R dérivable est concave alors son graphe Γf est en dessous de chacune de ses
tangentes.
dém. :
Il suffit de considérer la fonction −f qui est convexe.
Exemple Puisque la fonction x 7→ ex est convexe, en positionnant son graphe par rapport à sa tangente
en 0, on obtient la propriété
∀x ∈ R, ex > 1 + x
Puisque la fonction x 7→ ln(1 + x) est concave, en positionnant son graphe par rapport à sa tangente en
0, on obtient la propriété
∀x > −1, ln(1 + x) 6 x
Puisque la fonction x 7→ sin x est concave sur [0, π/2], en positionnant son graphe par rapport à sa
tangente en 0 et par rapport à sa corde joignant les points d’abscisse 0 et π/2, on obtient la propriété
2
∀x ∈ [0, π/2] , x 6 sin x 6 x
π
Lemme
Soit I un intervalle et n ∈ N? .
∀a1 , . . . , an ∈ I, ∀λ1 , . . . , λn ∈ R+ , λ1 + · · · + λn = 1 ⇒ x = λ1 a1 + · · · + λn an ∈ I
dém. :
Soient a1 , . . . , an ∈ I et λ1 , . . . , λn > 0 vérifiant λ1 + · · · + λn = 1.
Considérons a = min ai et b = min ai .
16i6n 16i6n
Puisque a et b sont éléments de I, le segment [a, b] est un inclus dans I.
Or x = λ1 a1 + · · · + λn an > (λ1 + · · · + λn )a = a et de même x 6 b donc x ∈ I.
Théorème
Soit f : I → R une fonction convexe et n ∈ N? .
∀a1 , . . . , an ∈ I, ∀λ1 , . . . , λn ∈ R+
dém. :
Par récurrence sur n ∈ N? .
Pour n = 1 : ok
Supposons la propriété établie au rang n > 1.
Soient a1 , . . . , an , an+1 ∈ I et λ1 , . . . , λn , λn+1 > 0 vérifiant λ1 + · · · + λn + λn+1 = 1.
Posons alors µ = λ1 + · · · + λn = 1 − λn+1 .
Cas µ > 0 :
On introduit µ1 = λ1 /µ, . . . , µn = λn /µ.
On vérifie µ1 , . . . , µn > 0 et µ1 + · · · + µn = 1.
En introduisant a = µ1 a1 + · · · + µn an , l’hypothèse de récurrence donne
Puisque
λ1 a1 + · · · + λn an + λn+1 an+1 = µa + (1 − µ)an+1
avec µ ∈ [0, 1], l’inégalité de convexité donne
puis on obtient
Cas µ = 0 :
On a λ1 = . . . = λn = 0 et λn+1 = 1 et l’inégalité voulue est immédiate.
Récurrence établie.
Corollaire
Pour f : I → R convexe, on a
a1 + · · · + an 1
∀a1 , . . . , an ∈ I, f 6 (f (a1 ) + · · · + f (an ))
n n
dém. :
Il suffit de prendre λ1 = . . . = λn = 1/n
Exemple Montrons
√ a1 + · · · + an
∀a1 , . . . , an ∈ R+ , n
a1 . . . an 6
n
Si l’un des ai est nul, c’est immédiat.
Sinon, exploitons la concavité de x 7→ ln x.
donc
√ a1 + · · · + an
ln n
a1 . . . an 6 ln
n
puis en composant avec la fonction exponentielle qui est croissante on obtient l’inégalité voulue.
dém. :
Soit a ∈ I tel que a < x0 .
L’application restreinte τx0 : ]x0 , +∞[ ∩ I est croissante et minorée par τ (a, x0 ), cette application
0
converge donc en x+ 0 . Ainsi f est dérivable à droite en x0 et fd (x0 ) > τ (a, x0 ).
L’application restreinte τx0 : ]−∞, x0 [ ∩ I est croissante et majorée, en vertu de l’étude précédente, par
fd0 (x0 ). Cette application converge donc en x− 0 0
0 et f est dérivable à gauche en x0 avec fg (x0 ) 6 fd (x0 ).
Corollaire
Si f : I → R est convexe alors f est continue en tout point intérieur à I.
dém. :
Car continue à droite et à gauche par dérivabilité à droite et à gauche. . .
18.5 Etude graphique d’une fonction
Pour étudier le graphe Γf d’une fonction f : I → R, on introduit le paramétrage
(
x=t
avec t ∈ I
y = f (t)
On a f (t0 − h) = −f (t0 + h) et les points M (t0 + h) et M (t0 − h) sont symétriques l’un de l’autre par
rapport au point Ω(t0 , 0).
Dans ces deux cas, on peut limiter l’étude à l’intervalle I ∩ [t0 , +∞[ ou à l’intervalle I ∩ ]−∞, t0 ].
18.5.2 Etude locale
Si f est dérivable en a alors le graphe Γf admet une tangente en M (a) qui est de pente f 0 (a). C’est la
droite d’équation
y = f 0 (a)(x − a) + f (a)
Supposons maintenant f deux fois dérivable au voisinage de a.
Si f 00 (x) > 0 (resp. f 00 (x) 6 0 ) au voisinage de a, alors f est convexe (resp. concave) au voisinage de a
et Γf est alors localement au dessus (resp. en dessous) de sa tangente en a.
Si f 00 (x) s’annule en changeant de signe en a alors f est convexe d’un côté de a et concave de l’autre, on
dit que f présente un point d’inflexion en a et que Γf traverse sa tangente en a.
Remarque Pour localiser les éventuels points d’inflexion d’une fonction f : I → R deux fois dérivable,
on détermine les points où f 00 s’annule en changeant de signe.
x 0 1/e +∞
f 0 (x) − 0 +
f (x) 0 & −1/e % +∞
x −∞ 1 +∞
0
f (x) + 0 −
f (x) −∞ % 1/e & 0
x2 + 2x + 2
f 0 (x) =
(x + 1)2
x −∞ −1 +∞
f 0 (x) + || +
f (x) −∞ % +∞ || −∞ % +∞
2
f 00 (x) = −
(x + 1)3
La fonction f est concave sur ]−1, +∞[ et convexe sur ]−∞, −1[.
Quand x → 1+ ,
f (x) → +∞.
La droite verticale d’équation x = 1 est asymptote au graphe de f .
Quand x → 1− ,
f (x) → +∞.
La droite verticale d’équation x = 1 est asymptote au graphe de f .
Quand x → +∞,
f (x)/x → 1 et f (x) − x → 1− .
La droite d’équation y = x + 1 est asymptote au graphe de f , courbe en dessous.
Quand x → −∞,
f (x)/x → 1 et f (x) − x → 1+ .
La droite d’équation y = x + 1 est asymptote au graphe de f , courbe au dessus.
Exemple Les suites arithmético-géométriques sont les suites récurrentes réelles de fonction itératrices
affines.
est une suite récurrente réelle de fonction itératrice l’application f : N? → N? définie par
x/2 si x est pair
f (x) =
3x + 1 sinon
Remarque On peut visualiser l’évolution des termes de la suite (un ) en représentant conjointement le
graphe de la fonction itératrice f et la droite d’équation y = x.
Remarque Pour une telle suite, la connaissance de u0 suffit à déterminer l’intégralité des termes de la
suite puisque
u1 = f (u0 ), u2 = f (f (u0 )), u3 = (f (f (f (u0 ))), ...
Théorème
Si f (D) ⊂ D (i.e. ∀x ∈ D, f (x) ∈ D ) alors il existe une unique suite (un ) ∈ DN vérifiant
u0 = a et ∀n ∈ N, un+1 = f (un )
dém. :
Unicité :
Soient (un ) et (vn ) deux suites solutions.
Montrons par récurrence sur n ∈ N la propriété un = vn .
Pour n = 0, u0 = a et v0 = a donc u0 = v0 .
Supposons la propriété vraie au rang n > 0.
Par hypothèse de récurrence un = vn .
Or un+1 = f (un ) et vn+1 = f (vn ) donc un+1 = vn+1 .
Récurrence établie.
Existence :
Si l’unicité est facile à établir par récurrence, l’existence ne se démontre pas aussi simplement qu’on
pourrait le croire. En effet, établir par récurrence la propriété « un existe »est ambigu car ne précise pas
ce qu’est un . . .
Pour commencer montrons par récurrence sur n ∈ N la propriété :
Il existe une unique famille (u0 , u1 , . . . , un ) ∈ Dn+1 vérifiant la propriété Pn : « u0 = a et ∀k ∈
{0, . . . , n − 1} , uk+1 = f (uk ). »
Pour n = 0, la propriété est immédiate.
Supposons la propriété vraie au rang n > 0.
Unicité :
Si la famille (u0 , u1 , . . . , un+1 ) ∈ Dn+2 vérifie la propriété Pn+1 alors la sous-famille (u0 , u1 , . . . , un ) ∈
Dn+1 vérifie la propriété Pn et donc cette dernière est déterminée de manière unique en vertu de l’hypothèse
de récurrence.
De plus un+1 = f (un ) et donc un+1 est aussi déterminé de manière unique.
Existence :
Par hypothèse de récurrence, il existe une famille (u0 , u1 , . . . , un ) ∈ Dn+1 vérifiant la propriété Pn .
Posons alors un+1 = f (un ) ce qui est possible car un ∈ D. On obtient alors un+1 ∈ D et la famille
(u0 , u1 , . . . , un+1 ) vérifie la propriété Pn+1 .
Récurrence établie.
Malheureusement, pour conclure il ne suffit pas de faire tendre n vers +∞ (cela n’aurait pas de sens) ;
nous allons mettre en place ce qu’on appelle un procédé diagonal de Cantor. . .
Pour tout n ∈ N, notons vn le dernier élément de la famille (u0 , u1 , . . . , un ) ∈ Dn+1 vérifiant la
propriété Pn .
On vérifie aisément que (vn ) est une suite d’éléments de D et que v0 = a. Il reste à montrer que pour
tout n ∈ N, vn+1 = f (vn ) afin de pouvoir affirmer que (vn ) est solution et conclure.
Pour tout n ∈ N, vn+1 est le dernier élément de la famille (u0 , u1 , . . . , un+1 ) vérifiant la propriété Pn+1 .
Puisque alors la sous-famille (u0 , u1 , . . . , un ) vérifie la propriété Pn , on peut affirmer vn = un et puisque
u0 = a ∈ R+ et un+1 = ln(1 + un )
Théorème
Soit f : [a, b] → [a, b] de classe C 1 vérifiant
Puisque la fonction x 7→ |f 0 (x)| est continue sur le segment [a, b] elle admet un maximum en un point
c ∈ [a, b]. En posant ρ la valeur en ce maximum, on vérifie ρ = |f 0 (c)| < 1.
Par l’inégalité des accroissements finis
|un+1 − α| 6 ρ |un − α|
|un − α| 6 ρn |u0 − α|
Sachant ρn → 0, on conclut un → α.
Remarque On peut alors obtenir une valeur approchée de α grâce aux termes de la suite (un )
Concrètement, pour déterminer une valeur décimale de α à 10−p près, on commence par déterminer un
rang n vérifiant ρn 6 0, 5.10−p . Pour ce rang, on calcule un et on propose à l’aide d’un arrondi une
valeur décimale approchée β de un à 0, 5.10−p près. Par cumul d’erreur, on peut affirmer que β est une
valeur décimale approchée de α à 10−p près
f (un )
un+1 = un −
f 0 (un )
Une telle suite n’est malheureusement pas toujours définie, car on peut avoir f 0 (un ) = 0 ou encore
un ∈/ I ce qui empêche de calculer un+1 . De plus, quand la suite est définie, elle n’est pas nécessaire
convergente. Cependant, si elle est définie et qu’elle converge dans I, par passage à la limite de la relation
de récurrence, on obverse que sa limite α vérifie l’équation
f (α)
α=α−
f 0 (α)
et donc f (α) = 0.
En pratique la méthode de Newton est satisfaisante, car au voisinage d’une solution, on est souvent dans
le cadre du théorème suivant.
Théorème
Soit f : I → R une fonction de classe C 2 s’annulant en α ∈ I telle que f 0 et f 00 ne s’annule
pas.
Pour tout a ∈ I tel que f (a)f 00 (a) > 0, la suite (un ) définie par
f (un )
u0 = a et ∀n ∈ N, un+1 = un −
f 0 (un )
∀x ∈ I, f 00 (x) > 0
f (un )
un+1 = un −
f 0 (un )
Définition
On appelle pas d’une subdivision σ = (a0 , a1 , ..., an ) de [a, b] le réel
677
19.1. FONCTIONS CONTINUES PAR MORCEAUX
Définition
On appelle support d’une subdivision σ = (a0 , a1 , ..., an ) de [a, b] l’ensemble
Supp(σ) = {a0 , a1 , . . . , an }
Proposition
Si S est un ensemble fini d’éléments de [a, b] contenant a et b, il existe une unique subdivision
σ du segment [a, b] de support égal à S.
dém. :
Il suffit d’indexer les éléments de S par ordre croissant pour former une subdivision σ de support S.
Définition
Soient σ et σ 0 deux subdivisions d’un même segment [a, b].
On dit que la subdivision σ est plus fine que σ 0 si Supp(σ 0 ) ⊂ Supp(σ).
Définition
On appelle réunion de deux subdivisions σ1 et σ2 d’un même segment [a, b] la subdivision σ
de support
Supp(σ1 ) ∪ Supp(σ2 ).
Proposition
La réunion de deux subdivision est plus fine que chacune.
678
CHAPITRE 19. INTÉGRATION SUR UN SEGMENT
dém. :
En effet Supp(σ1 ) ⊂ Supp(σ1 ) ∪ Supp(σ2 ) et Supp(σ2 ) ⊂ Supp(σ1 ) ∪ Supp(σ2 ).
Remarque Les valeurs prises par une fonction en escalier aux points de subdivision n’a pas
d’importance.
Remarque Si une subdivision σ est adaptée à une fonction en escalier f , toute subdivision plus fine que
σ l’est aussi.
Proposition
Soient f, g : [a, b] → R et λ ∈ R.
Si f et g sont en escalier alors λ.f, f + g, f g, |f | le sont aussi.
dém. :
Soit σ = (a0 , . . . , an ) une subdivision adaptée à f .
Sur chaque intervalle de la subdivision σ, la fonction f est constante et donc les fonctions λ.f et |f | sont
aussi constantes sur ces intervalles. Ainsi les fonctions λ.f et |f | sont en escalier.
Soient σ 0 une subdivision adaptée à g et σ 00 la réunion des subdivisions σ et σ 0 .
La subdivision σ 00 est adaptée à la fois à f et g et donc, sur chaque intervalle de cette subdivision, les
679
19.1. FONCTIONS CONTINUES PAR MORCEAUX
fonctions f et g sont constantes puis les fonctions f + g et f g le sont aussi. Ainsi les fonctions f + g et
f g sont en escalier.
Proposition
Soit f : [a, b] → R et [α, β] ⊂ [a, b] avec α < β.
Si f est en escalier alors f[α,β] l’est aussi.
dém. :
Soit σ = (a0 , . . . , an ) une subdivision adaptée à f .
Quitte à ajouter des points à la subdivision σ, on peut supposer que α et β sont des points de cette
subdivision et il existe alors k < ` tel que α = ak et β = a` .
La famille (ak , ak+1 , . . . , a` ) forme alors une subdivision de [α, β] telle que f[α,β] est constante sur
chaque intervalle de subdivision. On en déduit que f[α,β] est en escalier.
Définition
Une fonction f : [a, b] → R est dite continue par morceaux s’il existe une subdivision σ =
(a0 , a1 , . . . , an ) de [a, b] vérifiant :
Exemple Les fonctions continues et les fonctions en escalier sont des fonctions continues par morceaux.
Remarque Les valeurs prises par une fonctions continue par morceaux aux points de subdivision
n’importent pas.
680
CHAPITRE 19. INTÉGRATION SUR UN SEGMENT
Remarque Si une subdivision σ est adaptée à une fonction continue par morceaux alors toute
subdivision plus fine que σ l’est aussi.
Proposition
Soit f, g : [a, b] → R et λ ∈ R.
Si f et g sont continues par morceaux alors λ.f, f + g, f g, |f | le sont aussi.
dém. :
Une subdivision adaptée à f permet d’établir que les fonctions λ.f et |f | sont continues par morceaux.
La réunion d’une subdivision adaptée à f et d’une subdivision adaptée à g permet d’établir que les
fonctions f + g et f g sont continues par morceaux.
Proposition
Soit f : [a, b] → R et [α, β] ⊂ [a, b] avec α < β.
Si f est continue par morceaux alors f[α,β] l’est aussi.
dém. :
Soit σ = (a0 , . . . , an ) une subdivision adaptée à f .
Quitte à ajouter des points à la subdivision σ, on peut supposer que α et β sont des points de cette
subdivision et il existe alors k < ` tel que α = ak et β = a` .
La famille (ak , ak+1 , . . . , a` ) forme alors une subdivision de [α, β] permettant d’affirmer que f[α,β] est
continue par morceaux.
Proposition
Toute fonction continue par morceaux de [a, b] vers R est bornée.
dém. :
Soient f : [a, b] → R une fonction continue par morceaux et σ = (a0 , a1 , ..., an ) une subdivision adaptée
à f.
Pour tout i ∈ {1, . . . , n}, considérons la restriction fi = f]ai−1 ,ai [ .
La fonction fi est continue sur l’intervalle ouvert ]ai−1 , ai [ et peut-être prolongée par continuité en
ai−1 et ai en posant fi (ai−1 ) = lim +
f et fi (ai ) = lim−
f . La fonction ainsi obtenue est continue
ai−1 ai
sur le segment [ai−1 , ai ] et par suite y est bornée par un certain réel Mi . En particulier, on obtient
∀t ∈ ]ai−1 , ai [ , |f (t)| 6 Mi .
En posant M = max(M1 , . . . , Mn , |f (a0 )| , . . . , |f (an )|), on a ∀t ∈ [a, b] , |f (t)| 6 M .
681
19.1. FONCTIONS CONTINUES PAR MORCEAUX
ϕ 6 f 6 ψ et 0 6 ψ − ϕ 6 ε
dém. :
Commençons par le cas d’une fonction f définie et continue sur [a, b].
Soit ε > 0. Par le théorème de Heine, on peut dire que f est uniformément continue sur [a, b] et par
conséquent il existe α > 0 vérifiant
∀x, y ∈ [a, b] , |y − x| 6 α ⇒ |f (x) − f (y)| 6 ε
?
Soit n ∈ N suffisamment grand pour que (b − a)/n 6 α et σ = (a0 , a1 , . . . , an ) la subdivision à pas
constant déterminée par
b−a
ai = a + i.
n
Pour tout 1 6 i 6 n, la fonction f est continue sur le segment [ai−1 , ai ] et y admet donc un minimum et
un maximum en des points α, β ∈ [ai−1 , ai ]. Posons mi = f (α) et Mi = f (β).
Comme |β − α| 6 |ai − ai−1 | 6 α on a |f (β) − f (α)| 6 ε et on en déduit que 0 6 Mi − mi 6 ε.
Définissons maintenant des fonctions ϕ et ψ qui vont être solutions de notre problème.
Pour 1 6 i 6 n, on pose ϕ constante égale à mi et ψ constante égale à Mi sur ]ai−1 , ai [.
Pour 0 6 i 6 n, on pose ϕ(ai ) = ψ (ai ) = f (ai ).
Les fonctions ϕ et ψ sont bien définies sur [a, b] et ce sont évidemment des fonctions en escalier.
L’encadrement ϕ(x) 6 f (x) 6 ψ(x) est vérifié sur chaque intervalle ]ai−1 , ai [ et aussi en les ai .
Enfin, l’encadrement 0 6 ψ(x) − ϕ(x) 6 ε est vérifié pour les mêmes raisons.
Il reste à généraliser le résultat aux fonctions continues par morceaux.
Soient f une fonction continue par morceaux sur [a, b], σ = (a0 , a1 , . . . , an ) une subdivision adaptée à
f et ε > 0. Pour 1 6 i 6 n, notons fi la restriction de f au départ de ]ai−1 , ai [.
On peut prolonger fi par continuité en ai et en ai−1 en posant fi (ai ) = lim −
f et fi (ai−1 ) = lim
+
f.
ai ai−1
En appliquant le résultat précédent aux fonctions fi continues sur les segments [ai−1 , ai ], il existe des
fonctions en escaliers ϕi et ψi définies sur [ai−1 , ai ] vérifiant
∀x ∈ [ai−1 , ai ] , ϕi (x) 6 f (x) 6 ψi (x) et 0 6 ψi (x) − ϕi (x) 6 ε
682
CHAPITRE 19. INTÉGRATION SUR UN SEGMENT
On peut alors définir deux fonctions en escalier ϕ et ψ qui vont résoudre notre problème.
Pour 1 6 i 6 n, on pose ϕ(x) = ϕi (x) et ψ(x) = ψi (x) sur ]ai−1 , ai [.
Pour 0 6 i 6 n, on pose ϕ(ai ) = ψ (ai ) = f (ai ).
Les fonctions ϕ et ψ sont bien définies sur [a, b] et ce sont évidemment des fonctions en escalier
Par construction, l’encadrement ϕ(x) 6 f (x) 6 ψ(x) est vérifié sur chaque intervalle ]ai−1 , ai [ mais
aussi en les ai .
Enfin, l’encadrement 0 6 ψ(x) − ϕ(x) 6 ε est aussi vérifié pour les mêmes raisons.
19.2 Construction de l’intégrale
19.2.1 Intégrale d’une fonction en escalier
Soit a < b ∈ R.
19.2.1.1 Définition
Soit f : [a, b] → R une fonction en escalier et σ = (a0 , . . . , an ) une subdivision adaptée à f .
Pour tout i ∈ {1, . . . , n} notons hi la valeur de f sur l’intervalle ]ai−1 , ai [ et posons
n
X
Iσ (f ) = hi (ai − ai−1 ).
i=1
On peut montrer que Iσ (f ) est indépendante de la subdivision σ adaptée à f choisie. En effet si l’on forme
une subdivision σ 0 en adjoignant un point à la subdivision σ, on montre facilement que Iσ (f ) = Iσ0 (f ).
En raisonnant par récurrence, on montre que la propriété perdure si σ 0 est plus fine que σ. Enfin, en
transitant par la réunion des deux subdivisions, on observe que la propriété est encore valable quand σ et
σ 0 sont des subdivisions toutes deux adaptées à f .
Définition
La quantité Iσ (f ) est appelée intégrale de la fonction en escalier f sur le segment [a, b].
On la note (temporairement) I[a,b] (f ).
683
19.2. CONSTRUCTION DE L’INTÉGRALE
19.2.1.2 Propriétés
Proposition
Pour f : [a, b] → R en escalier et λ ∈ R on a
dém. :
Soit σ = (a0 , . . . , an ) une subdivision adaptée à f .
Pour tout i ∈ {1, . . . , n}, notons hi la valeur de la fonction f sur ]ai−1 , ai [.
Puisque σ est adaptée à λf et que λhi est la valeur de la fonction λf sur ]ai−1 , ai [, on a
n
X n
X
I[a,b] (λ.f ) = λhi (ai − ai−1 ) = λ hi (ai − ai−1 ) = λI[a,b] (f )
i=1 i=1
Proposition
Pour f, g : [a, b] → R en escalier on a
dém. :
Soit σ = (a0 , . . . , an ) une subdivision adaptée à f et à g.
Pour tout i ∈ {1, . . . , n}, notons hi la valeur de la fonction f sur ]ai−1 , ai [ et ki la valeur de g sur
]ai−1 , ai [.
Puisque σ est adaptée à f + g et que hi + ki est la valeur de f + g sur ]ai−1 , ai [, on a
n
X n
X n
X
I[a,b] (f +g) = (hi + ki )(ai−1 − ai ) = hi (ai−1 − ai )+ ki (ai−1 − ai ) = I[a,b] (f )+I[a,b] (g)
i=1 i=1 i=1
Proposition
Soient f, g : [a, b] → R en escalier.
Si f > 0 alors I[a,b] (f ) > 0.
Si f 6 g alors I[a,b] (f ) 6 I[a,b] (g).
dém. :
Supposons f > 0.
Soit σ = (a0 , . . . , an ) une subdivision adaptée à f .
Pour tout i ∈ {1, . . . , n}, notons hi la valeur de la fonction f sur ]ai−1 , ai [.
Puisque la fonction f est positive, on a hi > 0 pour tout i ∈ {1, . . . , n} et donc
n
X
I[a,b] (f ) = hi (ai − ai−1 ) > 0
i=1
684
CHAPITRE 19. INTÉGRATION SUR UN SEGMENT
Supposons f 6 g.
Puisque la fonction g − f est positive, l’étude précédente donne I[a,b] (g − f ) > 0.
Or I[a,b] (g − f ) = I[a,b] (g) − I[a,b] (f ) et donc I[a,b] (g) > I[a,b] (f ).
Proposition
Soient f : [a, b] → R en escalier et c ∈ ]a, b[.
dém. :
Soit σ = (a0 , . . . , an ) une subdivision adaptée à f .
Quitte à ajouter un point à la subdivision σ, on peut supposer qu’il existe k ∈ {1, . . . , n − 1} tel que c =
ak .
Pour tout i ∈ {1, . . . , n}, notons hi la valeur de la fonction f sur ]ai−1 , ai [.
k
X
Puisque (a0 , . . . , ak ) est une subdivision de [a, c] adaptée à f[a,c] , on a I[a,c] (f ) = hi (ai − ai−1 ).
i=1
Xn
Puisque (ak , . . . , an ) est une subdivision de [c, b] adaptée à f[c,b] , on a I[c,b] (f ) = hi (ai − ai−1 ).
i=k+1
On en déduit
n
X
I[a,c] (f ) + I[c,b] (f ) = hi (ai − ai−1 ) = I[a,b] (f )
i=1
19.2.2 Définition de l’intégrale d’une fonction continue par morceaux.
Soient a < b ∈ R et f : [a, b] → R continue par morceaux.
éléments de Φ et Ψ.
Comme la fonction f est continue par morceaux, elle est bornée et donc il existe m, M ∈ R vérifiant
m 6 f 6 M . On en déduit que l’ensemble Φ est non vide car ϕ = m est élément de Φ et par suite
Z
Remarque Par construction, la valeur de f s’interprète comme étant l’aire comprise entre l’axe
[a,b]
des abscisses et la courbe Γf , celle-ci étant comptée positivement au dessus de l’axe des abscisses et
négativement en dessous.
Z
En effet f = max I − = min I + puisque f ∈ Φ et f ∈ Ψ.
[a,b]
19.2.3.1 Linéarité
Théorème
Soient f, g : [a, b] → R continues par morceaux et λ ∈ R
Z Z Z Z Z
λf = λ f et f +g = f+ g
[a,b] [a,b] [a,b] [a,b] [a,b]
dém. :
Cas λ > 0 :
Pour toute fonction ϕ : [a, b] → R enZescalier inférieure à f , on a λϕ
Z 6 λf . Par définition de l’intégrale
de la fonction λϕ, on a I[a,b] (λϕ) 6 λf et donc λI[a,b] (ϕ) 6 λf .
[a,b] Z [a,b]Z
on peut conclure λf = λ f.
[a,b] [a,b]
Cas λ 6 0 :
Même principe mais la multiplication par un scalaire négatif renverse les inégalités.
Etude de la somme :
Soient ϕ1 et ϕ2 : [a, b] → R des fonctions en escalier respectivement inférieures à f et g.
La fonction ϕ1 + ϕ2 est alors inférieure à f + g et par définition de l’intégrale de la fonction f + g, on a
Z
I[a,b] (ϕ1 + ϕ2 ) = I[a,b] (ϕ1 ) + I[a,b] (ϕ2 ) 6 f +g
[a,b]
dém. :
f − g est une fonction en escalier à paliers nuls.
Z
Remarque On ne modifie pas f en changeant les valeurs de f en un nombre fini de points.
[a,b]
19.2.3.2 Croissance
Théorème
Soient f, g : [a,Zb] → R continues par morceaux
Si f > 0 alors f > 0.
Z[a,b] Z
Si f 6 g alors f6 g.
[a,b] [a,b]
dém. : Z
Si f est positive alors la fonction nulle est une fonction en escalier inférieure à f donc f >
[a,b]
I[a,b] (0̃) = 0. Z Z Z
Si f 6 g alors g − f > 0 donc g − f > 0 puis par linéarité g− f > 0.
[a,b] [a,b] [a,b]
Remarque Ces résultats se prolongent au cas où les inégalités sont vraies sauf en un nombre fini de
points.
Corollaire
Pour f : [a, b] → R continue par morceaux, on a
Z Z
f 6 |f |
[a,b] [a,b]
dém. :
On a − |f | 6 f 6 |f | donc par croissance
Z Z Z
− |f | 6 f6 |f |
[a,b] [a,b] [a,b]
Théorème
Pour f : [a, b] → R continue par morceaux et c ∈ ]a, b[,
Z Z Z
f= f+ f
[a,b] [a,c] [c,b]
dém. :
Soient ϕ1 : [a, c] → R une fonction en escalier inférieure à f[a,c] , ϕ2 : [c, b] → R une fonction en escalier
inférieure à f[c,b] et ϕ : [a, b] → R la fonction définie par ϕ(t) = ϕ1 (t) si t ∈ [a, c] et ϕ(t) = ϕ2 (t) si
t ∈ ]c, b]. Z
La fonction ϕ est en escalier et est inférieure à f donc I[a,b] (ϕ) 6 f.
[a,b]
Or
I[a,b] (ϕ) = I[a,c] (ϕ) + I[c,b] (ϕ) = I[a,c] (ϕ1 ) + I[c,b] (ϕ2 )
donc Z
I[a,c] (ϕ1 ) + I[c,b] (ϕ2 ) 6 f
[a,b]
Définition
On appelle valeur moyenne d’une fonction f : [a, b] → R continue par morceaux le réel
Z
1
µ(f ) = f
b − a [a,b]
Théorème
Pour f, g : [a, b] → R continues par morceaux,
Z Z
f g 6 sup |f | |g|
[a,b] [a,b] [a,b]
dém. :
Par l’inégalité triangulaire Z Z
f g 6 |f g|
[a,b] [ab]
Z Z
f g 6 M |g|
[a,b] [ab]
Théorème
Pour f, g : [a, b] → R continues
Z !2 Z ! Z !
2 2
fg 6 f g
[a,b] [a,b] [a,b]
dém. :
Par linéarité Z Z Z Z
2 2 2
(λf + g) = λ f + 2λ f+ g2
[a,b] [a,b] [a,b] [a,b]
Z
Or (λf + g)2 > 0 donc par croissance (λf + g)2 > 0.
Z [a,b]
Si f2 =
6 0 alors la fonction du second degré
[a,b]
Z Z Z
λ 7→ λ2 f 2 + 2λ fg + g2
[a,b] [a,b] [a,b]
Z de signe constant son discriminant ∆ est négatif ce qui donne l’inégalité voulue.
étant
Si f 2 = 0 alors la fonction affine
[a,b]
Z Z
λ 7→ 2λ fg + g2
[a,b] [a,b]
Z
étant de signe constant le coefficient de λ dans son expression doit être nulle et donc f g = 0 et
[a,b]
l’inégalité voulue est encore vraie.
19.2.4 Intégrale de deux bornes
Soit I un intervalle de R.
Définition
Une fonction f : I → R est dite continue par morceaux si pour tout [a, b] ⊂ I, f[a,b] est
0
continue par morceaux. On note Cpm (I, R) l’ensemble des fonctions continue par morceaux
de I vers R.
Exemple La fonction partie entière x 7→ E(x) est continue par morceaux sur R.
Définition
Soient f : I → R continue par morceaux et a, b ∈ I.
Z b Z b
On définit f (ou encore f (t)dt ) par :
a a
Z
f si a < b
Z b
[a,b]
f= Z0 si a = b
a
− f si a > b
[b,a]
Z a Z b
Remarque Pour tout a, b ∈ I, f =− f.
b a
Z b
Exemple ∀a, b ∈ R, 1dt = b − a.
a
Théorème
Soient f, g : I → R continues par morceaux et λ ∈ R. Pour tout a, b ∈ I on a
Z b Z b Z b Z b Z b
λf = λ f et f +g = f+ g
a a a a a
Théorème
Soient f : I → R continue par morceaux. Pour tout a, b, c ∈ I,
Z b Z c Z b
f= f+ f
a a c
dém. :
Il suffit de discuter selon les positions relatives de a, b, c dans I.
Z b Z a
( !)Si f > 0 alors f > 0 lorsque a 6 b et f 6 0 lorsque b 6 a.
a b
Lors d’intégration d’inégalités, il faut vérifier le bon ordre des bornes d’intégration.
Définition
On appelle primitive d’une fonction f : I → R, s’il en existe, toute fonction F : I → R
dérivable vérifiant F 0 = f .
Proposition
Si f : I → Rf admet une primitive F alors l’ensemble des primitives de f est constitué des
fonctions de la forme t 7→ F (t) + C avec C ∈ R
dém. :
Soit G : I → R dérivable.
G est primitive de f si, et seulement si, (G − F )0 = 0 c’est-à-dire si, et seulement si, G − F est une
fonction constante.
Définition Z
On note f (t) dt = F (t) + C te pour signifier que F est une primitive de f et pour rappeler
que les autres s’obtiennent par addition
Z d’une constante.
Abusivement, on écrit parfois aussi f (t) dt = F (t)
Z
Exemple Pour f : I → R dérivable, f 0 (t)dt = f (t) + C te .
Proposition
Soient f, g : I → R et λ ∈ R.
Si F et G sont primitives de f et g alors λF et F + G sont respectivement primitives de λf
et f + g.
dém. :
(λF )0 = λF 0 = λf et (F + G)0 = F 0 + G0 = f + g.
Z
f (t) f (t) dt I
n+1
t
tn avec n ∈ N + C te R
n+1
1 1 1
avec n ∈ N\ {0, 1} − + C te R+? ou R−?
tn n−1t n−1
1 α+1
tα avec α ∈ R\ {−1} t + C te R+?
α+1
1
ln |t| + C te R+? ou R−?
t
et et + C te R
ln t t ln t − t + C te R+?
sin t − cos t + C te R
cos t sin t + C te R
sht cht + C te R
cht sht + C te R
1
arctan t + C te R
1 + t2
1 1 1 + t
ln + C te ]−∞, −1[ , ]−1, 1[ et ]1, +∞[
1 − t2 2 1 − t
1
√ arcsin t + C te ]−1, 1[
1 − t2
1 p
√ ln(t + t2 + 1) + C te R
1 + t2
1 p
√ ln t + t2 − 1 + C te ]−∞, −1] et [1, +∞[
2
t −1
4 2
eit + e−it eit − e−it
cos4 t sin2 t =
2 2i
En développant et en recombinant les exponentielles imaginaires, on obtient
1
cos4 t sin2 t = − (cos 6t + 2 cos 4t − cos 2t − 2)
32
On en déduit
Z
1 1 1 t
cos4 t sin2 t dt = − sin 6t − sin 4t + sin 2t + + C te
192 64 64 16
Z Z
Exemple Détermination cos2 t dt et sin2 t dt
Via cos 2t = 2 cos2 t − 1 = 1 − 2 sin2 t, on obtient
Z Z
1 1 1 t
2
cos t dt = sin 2t + t + C et te
sin2 t dt = − sin 2t + + C te
4 2 4 2
Z
Exemple Détermination de cos t cos 2t dt sur R.
Via
1
cos a cos b = (cos(a + b) + cos(a − b))
2
on obtient
1
cos t cos 2t = (cos 3t + cos t)
2
puis Z
1 1
cos t cos 2t dt = sin 3t + sin t + C te
6 2
Pour déterminer une primitive d’une expression formée par une somme de produits de fonctions ch et sh,
on procède par linéarisation via les exponentielles réelles
Z
Exemple Détermination de ch2 tsh2 t dt sur R.
2 2 2
et + e−t et − e−t e2t − e−2t
ch2 tsh2 t = =
2 2 4
En développant et en recombinant les exponentielles, on obtient
1 1
ch2 tsh2 t = ch4t −
8 8
puis Z
1 t
ch2 tsh2 t dt = sh4t − + C te
32 8
dém. :
Unicité :
Soient F et G deux fonctions solutions.
Puisque F et G sont primitives d’une même fonction, elles diffèrent d’une constante. Or elles prennent la
même valeur en a, la constante est donc nulle et les fonctions F et G égales.
Existence :
Soit F : I → R la fonction définie par
Z x
F (x) = f (t) dt
a
On a immédiatement F (a) = 0.
Soit x ∈ I qui n’est pas extrémité droite de I.
Z x+h
1 1
(F (x + h) − F (x)) − f (x) = f (t) − f (x) dt
h h x
∀t ∈ I, |t − x| 6 α ⇒ |f (t) − f (x)| 6 ε
Pour 0 < h 6 α on a
∀t ∈ [x, x + h] , |f (t) − f (x)| 6 ε
puis
Z x+h
1
(F (x + h) − F (x)) − f (x) 6 1
h h ε dt = ε
x
On en déduit
1
lim (F (x + h) − F (x)) = f (x)
h→0+ h
De même, pour x ∈ I qui n’est pas extrémité gauche de I, on a
1
lim (F (x + h) − F (x)) = f (x)
h→0− h
Exemple On peut définir la fonction ln en tant que primitive s’annulant en 1 de la fonction inverse sur
l’intervalle ]0, +∞[.
Corollaire
Soient f : I → R continue et F une primitive de f .
Z b
b
∀a, b ∈ I, f (t)dt = [F (t)]a = F (b) − F (a)
a
dém. : Z x
Considérons l’application G : x 7→ f (t)dt.
a
La fonction G est une primitive de f , donc il existe C ∈ R tel que G = F + C.
Z b
Puisque G(a) = F (a) + C = 0, on a C = −F (a) puis f (t) dt = G(b) = F (b) + C = F (b) − F (a).
a
Z 1 1
n 1 n+1 1
Exemple t dt = t = .
0 n+1 0 n+1
Z 1
dt 1 π
Exemple = [arctan t]0 = .
0 1 + t2 4
Z π/2 π/2
1 t π
Exemple cos2 t dt = sin(2t) + = .
0 4 2 0 4
dém. : Z x
Considérons la fonction F : x 7→ f (t) dt.
a
La fonction F est croissante car F 0 = f > 0.
Z b
De plus F (b) = F (a) car f (t) dt = 0.
a
On en déduit que F est constante puis f = F 0 = 0̃.
Corollaire
Soient a < b et f : [a, b] → R continue.
Z b
Si |f (t)| dt = 0 alors f = 0.
Zab
Si f 2 (t)dt = 0 alors f = 0.
a
dém. :
Les fonctions |f | et f 2 sont continues et positives.
Corollaire
Soient a < b ∈ R et f : [a, b] → R continue.
Z b
Si f > 0 et f 6= 0̃ alors f (t) dt > 0.
Z a Z b
dt t
Si √ = arcsin + C te et f 6= 0̃ alors f (t) dt < 0.
a2 − t2 x=ta a a
dém. :
C’est une contraposition de l’implication énoncée dans le théorème.
Remarque Cet outil permet de justifier des inégalités strictes entre intégrales.
Corollaire
Soient a < b ∈ R et f : [a, b] → R continue.
Z b
Si f (t) dt = 0 alors la fonction f s’annule.
a
dém. :
Si f est de signe constant alors f est la fonction nulle.
Sinon f change de signe et donc s’annule en vertu du théorème des valeurs intermédiaires.
Exemple Soit f : [a, b] → R continue. Montrons qu’il existe c ∈ [a, b] tel que µ(f ) = f (c).
Considérons la fonction continue g : t 7→ f (t) − µ(f ).
Puisque
Z b Z b
g(t) dt = f (t) dt − (b − a)µ(f ) = 0
a a
la fonction g s’annule et donc il existe c ∈ [a, b] tel que g(c) = 0 ce qui donne f (c) = µ(f ).
Ce résultat peut aussi être établi en appliquant le théorème des accroissements finis.
t 0 α 1 t 0 α 1
ou
f (t) + 0 − f (t) − 0 +
Z b
Dans les deux cas, on a (t − α)f (t)dt 6= 0 car intégrale d’une fonction continue de signe constant
a
non nulle.
Or Z b Z b Z b
(t − α)f (t) dt = tf (t) dt − α f (t) dt = 0
a a a
C’est absurde.
Remarque Pour étudier la limite d’une intégrale qu’on ne sait pas calculer, on peut néanmoins
considérer ce qui précède pour « deviner »l’éventuelle limite puis justifier celle-ci en procédant par
comparaison. . .
Puisque la fonction intégrée tend « essentiellement »vers 0 quand n → +∞, on peut présumer que
(In ) tend vers 0. . . Montrons par comparaison |In − 0| −−−−−→ 0.
n→+∞
Z 1 Z 1
e
|In − 0| = tn et dt 6 e tn dt = →0
0 0 n+1
Puisque la fonction intégrée tend « essentiellement »vers 1 quand n → +∞, on peut présumer que
Z 1
(In ) tend vers 1 dt = 1. . . Etudions |In − 1|.
0
1 1 1 1
tn
Z Z Z Z
dt 1
tn dt =
|In − 1| = − 1 dt = dt 6 →0
0 1 + tn 0 0 1 + tn 0 n+1
19.4.4 Fonction définie par une intégrale dont les bornes dépendent de la variable
Soit f : I → R continue et deux fonctions u, v : J → R deux fonctions dérivables prenant leurs valeurs
dans I. Z v(x)
Considérons la fonction ϕ : x 7→ f (t) dt.
u(x)
Pour étudier la dérivée de ϕ, il suffit d’introduire une primitive F de la fonction f . En effet, on peut alors
écrire g(x) = F (v(x)) − F (u(x)) ce qui permet d’affirmer que g est dérivable et d’obtenir
Remarque Cette formule est utile pour déterminer des primitives de fonctions dont la dérivée est
simple :
Exemple Sur R,
Z Z Z
t 1
arctan tdt = 1 × arctan t dt = t arctan t − dt = t arctan t − ln(1 + t2 ) + C te
1 + t2 2
Z
19.5.2 Détermination de P (x)eαx dx
Z
Exemple Déterminons (x2 + 1)e2x dx sur R.
(x2 + 1) 2x x2 − x + 1 2x
Z Z Z
2 2x 2x 1 2x
(x + 1)e dx = e − x e dx = e + e
2 2 2
1 2 1 3 2x
= x − x+ e + C te
2 2 4
Z
Exemple Déterminons (x3 + x2 ) e −x dx sur R.
La primitive cherchée est de la forme
Z
(x3 + x)e−x dx = (ax3 + bx2 + cx + d)e−x + C te
Or 0
(ax3 + bx2 + cx + d)e−x = (−ax3 + (3a − b)x2 + (2b − c)x + (c − d))e−x
On est donc ramené à résoudre le système
−a = 1
3a − b = 1
2b − c = 0
c−d=0
c = −8
d = −8
Z Z
19.5.3 Détermination de P (x) cos(αx)dx et P (x) sin(αx)dx
Z
Exemple Déterminons x2 sin x cos x dx sur R.
Z Z Z
2 1 1 1
x sin x cos x dx = 2
x sin 2x = − x2 cos 2x + x cos 2x
2 4 2
puis Z Z
1 1 1
x2 sin x cos x dx = − x2 cos 2x + x sin 2x − sin 2x
4 4 4
et enfin Z
1 1 1
x2 sin x cos x dx = (− x2 + ) cos 2x + x sin 2x + C te
4 8 4
Z
Exemple Déterminons (x3 + x2 + x + 1) sin x dx sur R.
Z
(x3 + x2 + x + 1) sin x dx = (ax3 + bx2 + cx + d) cos x + (αx3 + βx2 + γx + δ) sin x + C te
a = −1, α = 0, b = −1, β = 3, c = 5, γ = 2, d = 1, δ = −5
Z
Remarque Les méthodes qui précèdent permettent aussi de déterminer P (x)ch(αx)dx et
Z
P (x)sh(αx) dx.
Z
Exemple Déterminons (x + 1)shx dx sur R.
Z Z
(x + 1)shx dx = (x + 1)chx − chx = (x + 1)chx − shx
dém. :
La fonction uv est primitive de la fonction continue (uv)0 = u0 v + uv 0 .
Z b
b
On en déduit u0 v + uv 0 = [uv]a puis par linéarité la relation énoncée.
a
Remarque L’intégration par parties est utile pour calculer directement des intégrales ou pour former
une relation sur les termes d’une suites d’intégrales.
Exemple On étudie
Z π/2
In = sinn (t) dt
0
Pour n > 2,
Z π/2
In = sin t. sinn−1 (t) dt
0
Par intégration par parties,
π/2
Z π/2
In = − cos t. sinn−1 t 0 + (n − 1) cos2 (t) sinn−2 (t) dt
0
Or π/2
− cos t. sinn−1 t 0 = 0
et Z π/2 Z π/2
n−2
2
cos (t) sin (t) dt = (1 − sin2 (t)) sinn−2 (t) dt = In − In−2
0 0
On en déduit Z
b |f (a)| + |f (b)| 1 b 0
Z
f (t) sin(nt) dt 6 + |f (t)| dt → 0
n n a
a
puis
Z b
f (t) sin(nt) dt → 0
a
Le même principe peut être repris pour obtenir
Z b
f (t) cos(nt) dt → 0
a
Z Z
ln t 1
Exemple dt = u0 u = (ln t)2 + C te .
t 2
u0
Z Z
dt
Exemple = = ln |ln t| + C te .
t ln t u
u0
Z Z Z
sin t
Exemple tan t dt = dt = − = − ln |cos t| + C te .
cos t u
u0 1
Z Z
t
Exemple dt = = ln(1 + t2 ) + C te .
1 + t2 u 2
1 u0
Z Z
t 1
Exemple dt = = arctan t2 + C te .
1 + t4 2 1 + u2 2
1 u0
Z Z
t p
Exemple √ dt = √ = 1 + t2 + C te .
1 + t2 2 u
Z Z Z
1
Exemple 3
cos t dt = 2
cos t(1 − sin t) dt = u0 (1 − u2 ) = sin t − sin3 t + C te
3
Lors de cette manipulation, on dit qu’on a réalisé le changement de variable défini par la relation x =
u(t).
Exemple Calculons Z
cos t sinn t dt
Exemple Calculons Z Z
dt 2dt
=
ch t et + e−t
Procédons au changement de variable x = et pour lequel dx = et dt = x dt
On obtient Z Z
dt 2dx
= = arctan et + C te
ch t x(x + 1/x)
u0
Ici le changement de variable a révélé une forme qu’on n’avait pas forcément entrevue...
1 + u2
Exemple Calculons Z
dt
√
t+t
√
Procédons au changement de variable x = t pour lequel t = x2 et dt = 2x dx.
Z
dt
Z
2x dx √
√ = 2
= ln(1 + x) + C te = 2 ln(1 + t) + C te
t+t x+x
Exemple Calculons Z
dt
et +1
Procédons au changement de car x = et pour lequel dx = et dt = x dt
et
Z Z Z
dt dx 1 1 x te
= = − dx = ln + C = ln + C te
et + 1 x=et x(x + 1) x x+1 x+1 1 + et
dém. :
Soit F une primitive de la fonction continue f .
La fonction F ◦ u est primitive de u0 × f 0 ◦ u et par suite
Z b Z u(b)
b u(b)
f (u(t))u0 (t)dt = [F (u(t))]a = [F (x)]u(a) = f (x)dx
a u(a)
Remarque Pour exploiter cette formule, on écrit :
x = u(t), dx = u0 (t) dt
pour t = a, x = u(a),
pour t = b, x = u(b).
Ceci permet de transformer formellement une intégrale en l’autre.
On dit alors qu’on a réalisé le changement de variable défini par la relation x = u(t).
Exemple Calculons Z e
dt
1 t + t ln t
On procède au changement de variable x = ln t pour lequel dx = dt/t.
Pour t = 1, x = 0 et pour t = e, x = 1.
On obtient Z e Z 1
dt dx
= = ln 2
t=1 t + t ln t x=0 x+1
Exemple Calculons √
Z 3
t dt
1 t + t2
√
On procède au changement de variable√x = t pour lequel t = x2 et dt = 2x dx.
Pour t = 1, x = 1 et pour t = 3, x = 3.
On obtient
Z 3 √ Z √3 √
t dt 2x2 dx 3 π
2
= 2 4
= [2 arctan x]1 =
t=1 t + t x=1 x + x 6
Exemple Calculons
Z 2
dt
1 t + t3
On procède au changement de variable x = 1/t pour lequel dx = − dt/t2 .
Pour t = 1, x = 1 et pour t = 2, x = 1/2.
Z 2 Z 1/2 Z 1 1
dt x dx x dx 1 2 1 8
=− = = ln(1 + x ) = ln
t=1 t + t3 t=1 x2 + 1 1/2
2
x +1 2 1/2 2 5
Exemple Calculons
Z 1 p
1 − t2 dt
0
On procède au changement de variable t = sin x pour lequel dt = cos x dx.
Pour x = 0, t = 0 et pour x = π/2, t = 1.
Après linéarisation, on obtient
Z 1 Z 1
p π
2
1 − t dt = cos2 x dx =
t=0 x=0 4
Dans cet exemple, le changement de variable est réalisé dans le sens inverse des exemples précédents,
c’est possible car l’égalité du théorème de changement de variable peut être utilisée dans les deux sens !
Z
dt
Par un changement de variable affine, nous allons transformer cette étude en .
t2 +1
Posons le changement de variable t = ax, on obtient
Z Z Z
dt a dx 1 dx 1 t
= = = arctan + C te
t2 + a2 a2 x2 + a2 a x2 + 1 a a
Z b
Exemple Soient a, b ∈ R tels que a < b, calculons Jp,q = (t − a)p (b − t)q dt pour p, q ∈ N.
Z 1 a
p q
Cette étude ressemble à celle, particulière, t (1 − t) dt déjà menée.
0
Par un changement de variable affine transformant le segment [a, b] en [0, 1], nous allons transformer la
première en la seconde.
Posons le changement de variable t = a + x(b − a), on obtient
Z b Z 1
p!q!
Jp,q = (t − a)p (b − t)q dt = (b − a)p+q+1 tp (1 − t)q dt = (b − a)p+q+1
a 0 (p + q + 1)!
dém. : Z b Z b+τ
Par le changement de variable x = t+τ pour lequel dx = dt, on obtient f (t + τ ) dt = f (x) dx.
a a+τ
Proposition
Soient a > 0 et f : [−a, a] → R continue.
Si f est paire alors Z a Z a
f (t)dt = 2 f (t)dt
−a 0
dém. :
Par le changement de variable t = −x pour lequel dt = − dx, on obtient
Z 0 Z a Z a
f (t) dt = f (−x) dx = f (−t) dt
−a 0 0
Z 0 Z a Z a Z a
Si f est paire f (t) dt = f (t) dt puis f (t) dt = 2 f (t) dt
−a 0 −a 0
Z 0 Z a Z a
Si f est impaire f (t) dt = − f (t) dt puis f (t) dt = 0
−a 0 −a
Proposition
Soit f : R → R continue et T périodique.
Pour tout a ∈ R, on a Z a+T Z T
f (t)dt = f (t)dt
a 0
dém. :
Par la relation de Chasles
Z a+T Z 0 Z T Z a+T
f (t) dt = f (t)dt + f (t)dt + f (t) dt
a a 0 T
Or Z a Z a
f (x + T ) dx = f (x) dx
0 0
car f est T périodique et la relation initiale donne alors
Z a+T Z T
f (t) dt = f (t) dt
a 0
Remarque On peut étendre les résultats qui précèdent aux fonctions continues par morceaux en
procédant à un découpage aux points de discontinuité des intégrales de celles-ci.
Z ak
On approche chaque intégrale f (t) dt par l’aire du rectangle à droite suivant
ak−1
Z ak
Ainsi, on approche f (t) dt par
ak−1
1 b−a
(ak − ak−1 )f (ak ) = f (ak )
2 n
Z b
En sommant ces approximations, on approche f (t)dt par la quantité
a
n
b−a X b−a
Rn+ = f (ak ) = (f (a1 ) + · · · + f (an )) .
n n
k=1
Z ak
On peut aussi approcher l’intégrale f (t) dt par l’aire du rectangle à gauche suivant
ak−1
Z ak
Ainsi on approche f (t) dt par
ak−1
1 b−a
(ak − ak−1 )f (ak−1 ) = f (ak−1 )
2 n
Z b
puis on approche f (t) dt par la quantité
a
n−1
b−a X b−a
Rn− = f (ak ) = (f (a0 ) + · · · + f (an−1 ))
n n
k=0
Définition
Les quantités Rn+ et Rn− sont appelées somme de Riemann de la fonction f associées à la
méthodes des rectangles à droite et à gauche.
Théorème
Si f : [a, b] → R est de classe C 1 alors
Z
b (b − a)
+/−
f (t) dt − Rn 6 M
2n
a
avec M = max |f 0 |.
[a,b]
Ainsi les suites (Rn+ ) et (Rn− ) convergent vers l’intégrale de f sur [a, b].
dém. :
Or en vertu de l’inégalité des accroissements finis, pour tout t ∈ [ak−1 , ak ], |f (t) − f (ak )| 6 M (ak − t)
et donc
Z n Z ak n
b X X M (b − a)2 (b − a)2
+
f (t)dt − Rn 6 M (ak − t) dt = = M
2n2 2n
a ak−1
k=1 k=1
Remarque On peut aussi obtenir la convergence des suites (Rn+ ) et (Rn− ) avec une hypothèse moindre.
Théorème
Z b
Si f : [a, b] → R est continue alors Rn+/− → f (t)dt.
a
dém. :
En reprenant les calculs ci-dessus
Z
b X n Z ak
+
f (t) dt − Rn 6 |f (t) − f (ak )| dt
a ak−1 k=1
Soit ε > 0. Puisque la fonction f est continue sur le segment [a, b], elle y est uniformément continue en
vertu du théorème de Heine. Par suite il existe α > 0 vérifiant
b−a
Pour n assez grand, (b − a)/n 6 α et alors pour tout t ∈ [ak−1 , ak ], |t − ak | 6 6 α donc
n
|f (t) − f (ak )| 6 ε.
On a alors
Xn Z ak n Z
X ak Z b
|f (t) − f (ak )| dt 6 ε dt = ε dt = ε(b − a)
k=1 ak−1 k=1 ak−1 a
Z b Z b
Finalement Rn+ → f (t) dt et de façon semblable, on obtient Rn− → f (t) dt.
a a
Corollaire
Si f : [0, 1] → R est continue alors
n Z 1 n−1 Z 1
1X k 1X k
f → f (t) dt et f → f (t) dt
n n 0 n n 0
k=1 k=0
Exemple Etudions
n
X 1
lim
n→∞ n+k
k=1
On peut écrire
n n n
X 1 1X 1 1X k
= k
= f
n+k n 1+ n
n n
k=1 k=1 k=1
1
avec f : x 7→ continue sur [0, 1].
1+x
On en déduit
n Z 1
X 1 dt
→ = ln 2
n+k 0 1+t
k=1
Exemple Etudions
2n
X n
lim
n→∞ k2
k=n+1
On peut écrire
2n n n n
n2
X n 1X 1X 1 1X k
= = = f
k2 n (n + k)2 n (1 + k/n)2 n n
k=n+1 k=1 k=1 k=1
1
avec f : x 7→ continue sur [0, 1].
(1 + x)2
On en déduit
2n Z 1
X n dt 1
→ =
k2 0 (1 + t)2 2
k=n+1
Exemple Etudions
1pn
lim (n + 1)(n + 2) . . . (2n)
n→∞ n
On peut écrire
s !
1pn n 1 2 n
ln (n + 1)(n + 2) . . . (2n) = ln 1+ 1+ ··· 1 +
n n n n
donc
n n
1pn 1X k 1X k
ln (n + 1)(n + 2) . . . (2n) = ln 1 + = f
n n n n n
k=1 k=1
puis
1pn 4
(n + 1)(n + 2) . . . (2n) →
n e
Z b n Z
X ak
f (t) dt = f (t) dt
a k=1 ak−1
Z ak
On approche maintenant chaque intégrale f (t) dt par l’aire du trapèze suivant
ak−1
Z ak
Ainsi, on approche f (t) dt par
ak−1
1 b−a
(ak − ak−1 )(f (ak−1 ) + f (ak )) = (f (ak−1 ) + f (ak ))
2 2n
Z b
En sommant ces approximations, on approche f (t) dt par la quantité
a
n
X b−a b−a f (a0 ) f (an )
Tn = (f (ak−1 ) + f (ak )) = + f (a1 ) + · · · + f (an−1 ) + .
2n n 2 2
k=1
Théorème
Si f : [a, b] → R est de classe C 2 alors
Z
b M (b − a)
f (t) dt − Tn 6
12n2
a
avec M = max |f 00 |.
[a,b]
dém. :
Par construction de la méthode des trapèzes
Z n Z n
b X ak b−a X
f (t) dt − Tn = f (t) dt − (f (ak−1 ) + f (ak ))
2n
a
k=1 ak−1
k=1
n Z ak Z ak
X
6 f (t) dt − ϕk (t) dt
ak−1 ak−1
k=1
Pour poursuivre, montrons que pour chaque t ∈ [ak−1 , ak ], il existe u ∈ [ak−1 , ak ] vérifiant
(t − ak−1 )(t − ak ) 00
f (t) − ϕk (t) = f (u)
2
Lorsque t = ak−1 ou t = ak , la propriété est immédiate car n’importe quel u ∈ [ak−1 , ak ] convient.
Pour t ∈ ]ak−1 , ak [, considérons la fonction
(x − ak−1 )(x − ak )
ψ : x 7→ f (x) − ϕk (x) − Kt
2
définie à partir d’une constante Kt choisie de sorte que ψ(t) = 0.
La fonction ψ est de classe C 2 et s’annule en au moins trois points ak−1 , ak et t. Par application du
théorème de Rolle, on peut affirmer que la dérivée seconde de ψ s’annule et donc il existe u ∈ [ak−1 , ak ]
vérifiant ψ 00 (u) = 0. Or ψ 00 (x) = f 00 (x)−Kt car la dérivée seconde d’une fonction affine est nulle. Ainsi
ψ 00 (u) = 0 donne Kt = f 00 (u) et puisque la constante Kt a été choisie de sorte que ψ(t) = 0 on obtient
(t − ak−1 )(t − ak ) 00
f (t) − ϕk (t) = f (u)
2
On en déduit
(t − ak−1 )(ak − t)
|f (t) − ϕk (t)| 6 M
2
puis
ak ak
(t − ak−1 )(ak − t)
Z Z
|f (t) − ϕk (t)| dt 6 M dt
ak−1 ak−1 2
Par une intégration par parties, on peut facilement calculer cette dernière intégrale et obtenir
ak
(b − a)3
Z
|f (t) − ϕk (t)| dt 6 M
ak−1 12n3
On en déduit Z
b n
X (b − a)3 (b − a)3
f (t) dt − T 6 M= M
n 3
12n 12n2
a
k=1
Remarque L’erreur d’approximation est en O(1/n2 ), c’est honorable mais on peut faire mieux avec la
méthode qui suit.
n
b−a X ak−1 + ak
Sn = f (ak−1 ) + 4f + f (ak ) .
6n 2
k=1
La méthode de Simpson est la méthode numérique la plus utilisée pour calculer des intégrales.
19.8 Extension aux fonctions complexes
I désigne un intervalle non singulier de R.
Les définitions qui suivent prolongent celles vue précédemment.
19.8.1 Construction de l’intégrale d’une fonction complexe
Définition
On dit qu’une fonction f : I → C est continue par morceaux si les fonctions réelles Re(f ) et
Im(f ) le sont.
0
On note Cpm (I, C) l’ensemble des fonctions continues par morceaux de I vers C.
Définition
Soient f : I → C continue par morceaux et a, b ∈ I.
On appelle intégrale de la fonction f de a à b le complexe
Z b Z b Z b
f (t) dt = Re(f )(t) dt + i Im(f )(t) dt
a a a
Z 2π Z 2π Z 2π
Exemple eit dt = cos t dt + i sin t dt = 0 + i.0 = 0.
0 0 0
1 1 1 1
t−i
Z Z Z Z
dt t dt 1 π
Exemple = dt = dt + i = ln 2 − i .
0 t+i 0 t2 + 1 0
2
t +1 0 t2 +1 2 4
Théorème
Soient f, g : I → C continues par morceaux, λ ∈ C.
Pour tout a, b ∈ I,
Z b Z b Z b Z b Z b Z b Z b
λf = λ f, f +g = f+ g et f¯ = f
a a a a a a a
dém. :
Par étude des parties des parties réelles et imaginaires.
Théorème
Soit f : I → C continue par morceaux.
Pour tout a, b, c ∈ I,
Z b Z c Z b
f= f+ f
a a c
dém. :
Par étude des parties des parties réelles et imaginaires.
( !)Les propriétés de croissance et de positivité de l’intégrale disparaissent dans le cadre des fonctions
Z 2π
complexes. Par exemple, l’intégrale eit dt est nulle alors la fonction t 7→ eit ne s’annule pas.
0
Théorème
Soient a 6 b ∈ R et f : [a, b] → C continue par morceaux. On a
Z Z
b b
f (t) dt 6 |f (t)| dt
a a
dém. : Z
Z b b
Posons J = f (t) dt. On peut écrire J = reiθ avec r = f (t) dt.
a a
Considérons alors la fonction continue par morceaux g : I → C définie par g(t) = f (t)e−iθ .
On a
Z b Z b
g(t) dt = e−iθ f (t) dt = e−iθ J = r ∈ R+
a a
donc !
Z b
r = Re g(t) dt
a
Or
Z b ! Z Z
b b Z b Z b
Re g(t) dt = Re(g)(t) dt 6 |Re(g)(t)| dt 6 |g(t)| dt = |f (t)| dt
a a a a a
donc Z Z
b b
r= f (t) dt 6 |f (t)| dt
a a
Définition
On appelle primitive de f : I → C, s’il en existe, toute fonction F : I → C dérivable vérifiant
F0 = f.
Z
1 αt 0
Exemple Pour α ∈ C? , eαt dt = e + C te car eαt = αeαt .
α
Proposition
On a équivalence entre :
(i) F est primitive de f : I → C ;
(ii) Re(F ) et Im(F ) sont primitives de Re(f ) et Im(f ).
dém. :
0 0
Pour F dérivable, on sait que (ReF ) = Re(F 0 ) et (ImF ) = Im(F 0 ).
Théorème
Soit f : I → C continue.
Pour tout a ∈ I, f possède une unique primitive s’annulant en a, c’est la fonction
Z x
x 7→ f (t) dt
a
dém. :
Unicité :
Deux primitives d’une même fonction diffèrent d’une constante, si donc elle prennent la même valeur en
a, elles sont égales.
Existence : Z x Z x
Les fonctions x 7→ Re(f (t)) dt et x 7→ Im(f (t)) dt sont primitives s’annulant en a des fonctions
a Z x a Z x Z x
réelles Re(f ) et Im(f ) donc x 7→ f (t) dt = Re(f (t)) dt + i Im(f (t)) dt est primitive
a a a
s’annulant en a de la fonction x 7→ f (t).
Corollaire
Z b
Si F est une primitive d’une fonction continue f : I → C alors pour tout a, b ∈ I, f (t)dt =
a
b
[F (t)]a .
dém. :
Semblable à celle du cadre réel.
Z 2π Z 2π
Exemple Soit a ∈ R déterminons eat cos(t)dt et eat sin(t) dt.
0 0
Z 2π Z 2π Z 2π
eat cos(t)dt + i eat sin(t)dt = e(a+i)t dt
0 0 0
Or
2π
e2πa − 1 e2πa − 1
Z
1 h (a+i)t i2π
e(a+i)t dt = e = = 2 (a − i)
0 a+i 0 a+i a +1
Par suite
2π 2π
e2aπ − 1 1 − e2aπ
Z Z
eat cos(t) dt = et eat sin(t) dt =
0 a2 + 1 0 a2 + 1
Z π
Exemple Calculons teit dt.
0
Par intégration par parties
Z π Z π
it π
it
π
eit = iπ + eit 0 = −2 + iπ
te dt = −ite 0 + i
0 0
ou plus succinctement
n x
(x − a)k (x − t)n (n+1)
X Z
f (x) = f (k) (a) + f (t) dt
k! a n!
k=0
n
X (x − a)k
Le terme polynomial f (k) (a) est appelée partie régulière du développement de
k!
k=0
Taylor de Zf à l’ordre n en a.
x
(x − t)n (n+1)
Le terme f (t) dt est appelé reste intégral de ce développement.
a n!
dém. :
Par récurrence sur n ∈ N.
Pour n = 0 : on a la formule connue
Z x
f (x) = f (a) + f 0 (t) dt
a
Puisque la fonction f (n+1) est de classe C 1 on peut réaliser une intégration par parties sur le reste intégral
et ainsi
Z x x Z x
(x − t)n (n+1) (x − t)n+1 (n+1) (x − t)n+1 (n+2)
f (t) dt = − f (t) + f (t) dt
a n! (n + 1)! a a (n + 1)!
et ainsi
x x
(x − t)n (n+1) (x − a)n+1 (n+1) (x − t)n+1 (n+2)
Z Z
f (t) dt = f (a) + f (t) dt
a n! (n + 1)! a (n + 1)!
puis
n+1 x
(x − a)k (k) (x − t)n+1 (n+2)
X Z
f (x) = f (a) + f (t)dt
k! a (n + 1)!
k=0
Récurrence établie.
19.9.2 Inégalité de Taylor Lagrange
Théorème
Soient f : I → C une fonction de classe C n+1 telle que f (n+1) soit bornée et a ∈ I.
Pour tout x ∈ I, on a
n
n+1
X (x − a)k (k) |x − a|
f (x) − f (a) 6 M
k! (n + 1)!
k=0
avec M = sup f (n+1)
I
dém. :
Par la formule de Taylor avec reste intégral on peut écrire
n x
(x − a)k (x − t)n (n+1)
X Z
(k)
f (x) − f (a) = f (t) dt
k! a n!
k=0
Cas x > a
Z x Z x Z x
(x − t)n (n+1) (x − t)n (n+1) (x − t)n (x − a)n+1
f (t) dt 6 (t) dt 6 M dt = M
n! n! n! (n + 1)!
f
a a a
Cas x 6 a
Z x Z a Z a
(x − t)n (n+1) (t − x)n (n+1) (t − x)n (a − x)n+1
f (t) dt6 (t) dt 6 M dt = M
n! n! n! (n + 1)!
f
a x x
Remarque Cette énoncé est une généralisation de l’inégalité des accroissements finis qui se voit alors
comme le cas particulier n = 1.
Remarque L’hypothèse « f (n+1) est bornée »est automatiquement vérifiée si l’intervalle I est un
segment [a, b].
19.9.3 Applications
Exemple Montrons
n
X 1
lim =e
n→∞ k!
k=0
En appliquant l’inégalité de Taylor Lagrange sur le segment [0, 1], on obtient que pour tout x ∈ [0, 1],
n
X xk xn+1
f (x) − 6 e
k! (n + 1)!
k=0
et donc
n
X 1
→e
k!
k=0
Exemple Montrons
x3 x3 x5
∀x ∈ [0, π/2] , x − 6 sin x 6 x − +
6 6 120
Pour cela formons le développement de Taylor de la fonction sin à l’ordre 4 en 0.
On obtient Z x
x3 (x − t)4
sin x = x − + cos t dt
6 0 24
Pour x ∈ [0, π/2], on a ∀t ∈ [0, x] , 0 6 cos t 6 1
Par suite Z x Z x
(x − t)4 (x − t)4 x5
06 cos t dt 6 dt =
0 24 0 24 120
puis l’encadrement proposé.
La fonction f 0 est encore dérivable et donc f est deux fois dérivable avec f 00 (x) = g(x).
Finalement f est solution du problème posé.
Calcul de primitives
725
20.1. PRIMITIVES DE FONCTIONS RATIONNELLES
Or
x + 21
Z
1
ln x2 + x + 1
2 dx =
x + 12 + 3 2
4
et Z
1 2 2x + 1
= √ arctan √
1 2 3
x+ 2 + 4
3 3
Par suite Z
dx 1 2x + 1
= ln x2 + x + 1 + i arctan √
x−j 2 3
Z
αx + β
20.1.2 Détermination de dx sur R
x2 + px + q
Soient α, β ∈ R et p, q ∈ R tels que p2 − 4q < 0.
Notons que l’équation x2 + px + q = 0 n’a pas de racines réelles.
On peut écrire
α
αx + β (2x + p) + λ
2
= 2 2
x + px + q x + px + q
Par suite Z Z Z
αx + β α (2x + p) dx
dx = dx + λ
x2 + px + q 2 x2 + px + q x2 + px + q
On a Z
2x + p
2
dx = ln(x2 + px + q)
x + px + q
Z
dx
Il reste à déterminer . Pour cela on écrit le trinôme du dénominateur sous forme canonique
x2 + px + q
p 2 4q − p2 p 2
x2 + px + q = x + + = x+ + δ2
2 4 2
On réalise le changement de variable : u = x + p/2
Z Z Z
dx dx du 1 2x + p
2
= 2 = 2 2
= arctan
x + px + q p u +δ δ 2δ
x+ + δ2
2
Z
x+1
Exemple Déterminons dx sur R.
x2 + x + 1
Z 1 1
2 (2x + 1) + 2
Z Z Z
x+1 1 2x + 1 1 dx
2
dx = 2
dx = 2
dx + 2
x +x+1 x +x+1 2 x +x+1 2 x +x+1
avec Z
2x + 1
dx = ln(x2 + x + 1)
x2 + x + 1
et Z Z Z
dx dx dt 2 2x + 1
2
= 1 3
= 3
=√ √ arctan √
x +x+1 2
(x + 2 ) + 4 t=x+ 2 3
t + 4 a= 23 3
1
3
Finalement Z
x+1 1 1 2x + 1
dx = ln(x2 + x + 1) + √ arctan √
x2 + x + 1 2 3 3
x2
Z Z
1 dt 1 1 3
3
dx = = ln |1 + t| = ln 1 + x
1+x t=x3 31+t 3 3
Z
dx
Exemple Déterminons sur ]−∞, −1[ , ]−1, 1[ ou ]1, +∞[.
1 − x2
On a la décomposition en éléments simples
1 −1 −1/2 1/2
= = +
1 − x2 (x − 1)(x + 1) x−1 x+1
On en déduit
Z Z Z
dx 1 dx 1 dx 1 1 1 x + 1
2
= − = ln |x + 1| − ln |x − 1| = ln
1−x 2 x+1 2 x−1 2 2 2 x − 1
Remarque Pour une fonction rationnelle réelle, il est recommandé de regrouper les termes conjugués
1 1
en et avant de déterminer une primitive.
x − a x − ā
Z
x
Exemple Déterminons dx sur ]−∞, −1[ ou ]−1, +∞[.
x3 + 1
Puisque x + 1 = (x + 1)(x − x + 1) = (x + 1)(x + j)(x + j 2 ), on a la décomposition
3 2
x a b b̄ a αx + β
= + + = +
x3 + 1 x+1 x+j x + j2 x + 1 x2 − x + 1
avec
x 1
a= 2
=−
x − x + 1 x=−1 3
x
x× −−−−−→ 0 donne a + α = 0 donc α = 1/3.
x3 + 1 x→+∞
Enfin, en évaluant la relation en 0, on obtient a + β = 0 donc β = 1/3.
x 1 1 1 x+1
=− +
x3 +1 3 x + 1 3 x2 − x + 1
D’une part Z
dx
= ln |x + 1|
x+1
D’autre part
2x − 1
Z Z Z
x+1 1 3 dx
dx = dx +
x2 − x + 1 2 x2 − x + 1 2 x2 − x + 1
avec
2x − 1
Z
1
dx = ln x2 − x + 1
x2 − x + 1 2
et
2x − 1
Z Z
dx dx 2
= = √ arctan √
x2 − x + 1 1 2 3
x− 2 + 4
3 3
Au final
2x − 1
Z
x 1 1 1
dx = − ln |x + 1| + ln x2 − x + 1 + √ arctan √
x3 +1 3 6 3 3
Z
dx
Exemple Déterminons sur ]−∞, 0[ ou ]0, +∞[.
x(x2 + 2x + 3)
2
En introduisant ω et ω̄ les racines de x + 2x + 3 = 0, on a la décomposition
1 a λ λ̄ a bx + c
= + + = + 2
x(x2 + 2x + 3) x x − ω x − ω̄ x x + 2x + 3
avec
1 1
a= 2
=
x + 2x + 3 x=0 3
1
x −−−−−→ 0 donne a + b = 0 donc b = −1/3.
x(x2
+ 2x + 3) x→+∞
En évaluant en 1, on obtient 1/6 = a + (b + c)/6 donc c = −2/3.
Z Z Z
dx 1 dx 1 x+2
= − dx
x(x2 + 2x + 3) 3 x 3 x2 + 2x + 3
avec Z Z Z
x+2 1 x+1 dx
2
dx = 2
dx +
x + 2x + 3 2 x + 2x + 3 (x + 1)2 + 2
Au final
Z
dx 1 1 1 x+1
= ln |x| − ln(x2 + 2x + 3) − √ arctan √ + C te
x(x2 + 2x + 3) 3 6 3 2 2
x2 + 1
Z
Exemple Déterminons dx sur R
(x2
+ x + 1)2
Puisque (x2 + x + 1)2 = (x − j)2 (x − j 2 )2 , on a la décomposition
x2 + 1 a b ā b̄ a ā αx + β
2 2
= 2
+ + 2 2
+ 2
= 2
+ 2 2
+ 2
(x + x + 1) (x − j) x−j (x − j ) x−j (x − j) (x − j ) x +x+1
avec
x2 + 1
j
a= 2 2
=
(x − j ) x=j 3
x2 + 1
x× −−−−−→ 0 donne α = 0.
(x2+ x + 1)2 x→+∞
1 1 4
En évaluant en 0, on obtient 1 = + 2 + β donc β = .
3j 3j 3
1 jx − 1
Z
a 1 j
dx = − =− 2
(x − j)2 3x−j 3x +x+1
Par conjugaison
1 j2x − 1
Z
ā
2 2
dx = − 2
(x − j ) 3x +x+1
Enfin Z Z
dx dx 2 2x + 1
2
= 2 = √ arctan √
x +x+1 x + 12 + 43
3 3
Finalement :
x2 + 1
Z
1 x+2 8 2x + 1
2 2
dx = 2
+ √ arctan √
(x + x + 1) 3x +x+1 3 3 3
P (X, Y )
R(X, Y ) = avec P, Q ∈ R [X, Y ] , Q 6= 0
Q(X, Y )
Théorème
Notons f (x) = R(cos x, sin x)
Si f (−x) d(−x) = f (x) dx alors on pose t = cos x
Si f (π − x) d(π − x) = f (x) dx alors on pose t = sin x
Si f (x + π) d(x + π) = f (x) dx alors on pose t = tan x Z
Dans chaque cas, le changement de variable proposé transforme la détermination de f (x) dx
en la détermination d’une primitive d’une fonction rationnelle en t.
dém. :
P (X, Y )
Ecrivons R(X, Y ) = avec P, Q polynômes de R [X, Y ].
Q(X, Y )
Cas f (−x) d(−x) = f (x) dx :
En regroupant les puissances paires et les puissances impaires de Y au numérateur et au dénominateur,
on obtient
P1 (X, Y 2 ) + Y P2 (X, Y 2 )
R(X, Y ) =
Q1 (X, Y 2 ) + Y Q2 (X, Y 2 )
Le dénominateur apparaît désormais comme n’étant constitué que de puissances paires de Y et en développant
le numérateur, on parvient à écrire
Ainsi
R(X, Y ) = R1 (X 2 , Y ) + XR2 (X 2 , Y )
puis
R(X, Y ) = R1 (X 2 , Y 2 ) + XR2 (X 2 , Y ) + Y R3 (X 2 , Y 2 ) + XY R4 (X 2 , Y 2 )
f (x) = f1 (cos2 x) + cos x.f2 (cos2 x) + sin x.f3 (cos2 x) + cos x. sin x.f4 (cos2 x)
Par suite
sin x
f (x) = f1 (cos2 x) + cos x. sin x.f4 (cos2 x) = f1 (cos2 x) + cos2 x.f4 (cos2 x)
cos x
1
Sachant cos2 x = , on obtient f (x) = g(tan x) avec g fonction rationnelle.
1 + tan2 x
Par suite en posant t = tan x,
Z Z
g(t)
f (x) dx = dt
1 + t2
sin3 x
Z
Exemple Déterminons dx sur R.
1 + cos2 x
Ici f (−x) d(−x) = f (x) dx.
Posons t = cos x.
sin3 x 1 − cos2 x
Z Z
dx = sin x dx
1 + cos2 x 1 + cos2 x
donc
sin3 x t2 − 1
Z Z
dx = dt = t − 2 arctan t = cos x − 2 arctan(cos x)
1 + cos2 x t2 + 1
Z i π
dx π h
Exemple Déterminons sur Ik = − + kπ, + kπ (avec k ∈ Z )
cos x 2 2
Ici f (π − x) d(π − x) = f (x) dx.
Posons t = sin x. Z Z Z
dx cos x dx dt 1 1 + sin x
= 2
= 2
= ln
cos x cos x 1−t 2 1 − sin x
Z
dx
Exemple Détermination de sur R.
1 + sin2 x
Ici f (x + π) d(x + π) = f (x) dx.
Posons t = tan x.
π
Or la fonction tangente n’est pas définie en les xk = + kπ avec k ∈ Z.
2
On neipeut donc réaliser leh changement de variable voulu que sur les intervalles
π π
Ik = − + kπ, + kπ = ]xk−1 , xk [ (avec k ∈ Z )
2 2 Z
dx
Commençons par déterminer sur chaque Ik .
1 + sin2 x
2 2
t = tan x, dt = (1 + tan x) dx = (1 + t ) dx et
1 t2
sin2 x = 1 − cos2 x = 1 − 2
=
1+t 1 + t2
donc
Z
dx
Z
dt
Z
dt 1
Z
dt 1 √
= = = 1 =
√ arctan( 2 tan x)
1 + sin2 x 2
(1 + t )(1 + t2
1+t2 )
1 + 2t 2 2 t2 +2 2
Z
dx
Déterminons maintenant sur R.
1 + sin2 x
1 1
Soit F une primitive de x 7→ 2 sur R, il en existe car x 7→ est continue sur R.
1 + sin x 1 + sin2 x
1 √
∀x ∈ Ik , F (x) = √ arctan( 2 tan x) + Ck
2
π
La continuité de F en xk = + kπ va donner une relation entre Ck et Ck+1 :
2
D’une part
π
F (xk ) = lim F (x) = √ + Ck
x→xk−
2 2
D’autre part
π
F (xk ) = lim F (x) = − √ + Ck+1
x→xk+
2 2
π kπ
On en déduit Ck+1 = √ + Ck puis Ck = √ + C0 .
2 2
Finalement
1 √ kπ
√ arctan( 2 tan x) + √ + C0
si x ∈ Ik
F (x) = 2 2
(2k + 1)π
√ + C0 si x = xk
2 2
Inversement
Etant assuré de l’existence de primitives sur R et sachant celles-ci déterminées à une constante près, les
fonctions proposées sont bien solutions.
En application, calculons
Z 2π
dx
0 1 + sin2 x
On a
Z 2π
dx 2π
= [F (x)]0 = F (2π) − F (0)
0 1 + sin2 x
√
0 ∈ I0 donc F (0) = C0 et 2π ∈ I2 donc F (2π) = 2π + C0 .
Ainsi
Z 2π
dx √
2 = 2π
0 1 + sin x
x 1
Attention : Lors du changement de variable t = tan on a dt = (1 + t2 ) dx.
2 2
1
Il ne faut pas oublier le facteur !
2
Z
dx
Exemple Déterminons sur Ik = ]−π + 2kπ, π + 2kπ[.
1 + cos x
Ici, les règles de Bioche échouent.
x
Réalisons le changement de variable t = tan .
2
Z Z Z
dx 2 1 x
= 2 dt = dt = t = tan
1 + cos x 1 + t2 1 + 1−t
1+t2
2
Z π/2
dx
Exemple Calculons .
0 2 + sin x
Les règles de Bioche échouent.
x
Réalisons le changement de variable t = tan .
2
Z π/2 Z 1 Z 1
dx 2 dt 1 dt π
= 2 2t = 2
= √
0 2 + sin x 0 1 + t 2 + 1+t2 0 t +t+1 3 3
Z
cos x, sin x ou tan x alors il peut être pertinent de calculer R(chx, shx) dx par le changement de
variable resp. t = chx, shx ou t = thx.
Z
dx
Exemple Déterminons sur R.
chx
Les règles de Bioche invitent au changement de variable t = shx.
Z Z Z
dx chx dx dt
= = = arctan t = arctan(shx)
chx 1 + sh2 x t=shx 1 + t2
r
n ax + b
20.2.4 Fonctions rationnelles en x et
cx + d
Soient n ∈ N tel que n > 2 et a, b, c, d ∈ R tels que ad − bc 6= 0.
Pour R ∈ R(X, Y ), on veut déterminer
Z r !
n ax + b
R x, dx
cx + d
r
1−x
Z
1
Exemple Déterminons dx sur ]−1, 0[ ou ]0, 1].
r 1+xx
1−x
On pose t = .
1+x
1 − t2 2 4t
On a x = = −1 + et par suite dx = − dt.
1 + t2 1 + t2 (1 + t2 )2
Ainsi Z r
1 1−x 4t2
Z
dx = dt
x 1+x (t2 − 1)(t2 + 1)
Via une décomposition en éléments simples on peut écrire
4t2 1 1 2
2 2
= − +
(t − 1)(t + 1) t − 1 t + 1 1 + t2
Par suite
r √ √ r
1−x t − 1 1+x− 1−x 1−x
Z
1
dx = ln
+ 2 arctan t = ln √ √ + 2 arctan
x 1+x t + 1 1+x+ 1−x 1+x
(1 + x)1/3 − 1
Z
Exemple Déterminons dx sur ]0, +∞[.
x(1 + x)2/3
On pose t = (1 + x)1/3 .
On a x = t3 − 1 et par suite dx = 3t2 dt
Ainsi
(1 + x)1/3 − 1
Z Z
dt
dx = 3
x(1 + x)2/3 t2 + t + 1
Puisque Z Z
dt dt 2 2t + 1
= = √ arctan √
t2 + t + 1 1 2 3
t+ 2 + 4
3 3
on obtient Z
(1 + x)1/3 − 1 √ 2(1 + x)1/3 + 1
dx = 2 3 arctan √
x(1 + x)2/3 3
Z
dx
Exemple Déterminons √ √ sur ]0, +∞[.
√ x+ 3x
On pose t = 6 x, on a x = t6 et dx = 6t5 dt.
Ainsi Z Z 3
dx t dt
√ √ =6
x+ 3x t+1
t3 1
= t2 − t + 1 −
t+1 t+1
On en déduit
√ √ √ √
Z
dx
√ √ = 2 x − 3 3 x + 6 6 x − 6 ln(1 + 6 x)
x+ x3
√
20.2.5 Fonctions rationnelles en x et ax2 + bx + c
Soient a, b, c ∈ R tels que a 6= 0 et ∆ = b2 −
Z 4ac 6=p
0.
Pour R ∈ R(X, Y ), on veut déterminer R(x, ax2 + bx + c) dx sur tout intervalle où cela est
possible.
On commence par écrire le trinôme ax2 + bx + c sous forme canonique
2 !
2 b ∆
ax + bx + c = a x+ − 2
2a 4a
p
Par un changement
p pde variablep affine, il est alors possible de transformer ax2 + bx + c en l’une des
formes 1 − u2 , u2 + 1 ou u2 − 1. On réalise ensuite les changements de variable respectifs u =
sin t, u = sht, u = ±cht et on sait alors parvenir à une fonction rationnelle.
Z p
Exemple Déterminons 3 + 2x − x2 dx.
On réécrit le trinôme 3 + 2x − x2 sous forme canonique
3 + 2x − x2 = 4 − (x − 2
p1) . p p
En posant x − 1 = 2u, 3 + 2x − x2 est transformé en 4 − 4u2 = 2 1 − u2
Procédons au changement de variable correspondant
Z p Z p
2
3 + 2x − x dx = 4 1 − u2 du
Z
dx
Exemple Déterminons √ sur R
x2
+x+1
2
On réécrit le trinôme x + x + 1 sous forme canonique
2
2 1 3
x +x+1= x+ +
2 4
√ √
1 3 p 2 3p 2
En posant x + = u, x + x + 1 est transformé en u + 1.
2 2 2
Procédons au changement de variable correspondant
Z Z
dx du
√ = √
2
x +x+1 u2 + 1
Posons ensuite u = sht soit encore t = argshx.
Z Z
du
√ = dt = t = argshu
u2 + 1
Par l’expression logarithmique de la fonction argsh et en rappelant qu’une primitive n’est déterminée
qu’à une constante près, on parvient à
Z
dx p
√ = ln(2x + 1 + 2 x2 + x + 1)
x2 + x + 1
Z p
Exemple Déterminons x2 + x dx sur R+ .
On réécrit le trinôme x2 + x sous forme canonique
2
1 1
x2 + x = x + −
2 4
1 1 p 1p 2
En posant x + = u, x2 + x est transformé en u − 1.
2 2 2
Procédons au changement de variable correspondant
Z p Z
1 p 2
x2 + x dx = u − 1 du
4
Pour x ∈ R+ , u = 2x + 1 ∈ [1, +∞[, on peut donc écrire u = cht avec t = arg chu.
Z p Z Z
1 1 1
2 2
u − 1 du = sh t dt = e2t − 2 + e−2t = sh(2t) − t
4 4 2
Ainsi Z p
1 1
x2 + x dx = sh(2argch(2x + 1)) − argch(2x + 1)
16 8
Par l’expression logarithmique de la fonction arg ch, on a
p
argch(2x + 1) = ln(2x + 1 + 2 x2 + x)
p
De plus sachant ch(argch(2x + 1)) = 2x + 1 et sh(argch(2x + 1)) = 2 x2 + x, on obtient finalement
Z p
1 p 1 p
x2 + x dx = (2x + 1) x2 + x − ln(2x + 1 + 2 x2 + x)
4 8
p
Pour déterminer un primitive sur ]−∞, −1] de la fonction x 7→ x2 + x, on reprend les calculs qui
précèdent mais on pose u = −cht car dans le cas présent u = 2x + 1 ∈ ]−∞, −1].
Développements limités
739
21.1. DÉVELOPPEMENTS LIMITÉS
1
Exemple DLn (0) de x 7→
1−x
On a
1 − xn+1
1 + x + · · · + xn =
1−x
donc
1 xn+1
= 1 + x + · · · + xn +
1−x 1−x
Or
xn+1 x
= xn = o(xn )
1−x 1−x
x
car −−−→ 0.
1 − x x→0
Ainsi
1
= 1 + x + · · · + xn + o(xn )
1−x
ce qui est développement limité à l’ordre n en 0.
Proposition
Si f : D → C admet un DLn (a) de la forme :
dém. :
via
21.1.2 Unicité
Théorème
Si f : D → C admet un DLn (a) alors celui-ci est unique.
dém. :
Par l’absurde, supposons que f admet deux développements limités à l’ordre n en a distincts :
et
et
En simplifiant, on obtient
Ainsi
avec ε −
→ 0.
a
En simplifiant par (x − a)m pour x 6= a, on obtient am − bm = ε(x)
En passant à la limite quand x → a (avec x 6= a ), on conclut am − bm = 0.
C’est absurde.
Corollaire
Supposons I symétrique par rapport à 0 et D = I ou D = I\ {0}.
Si f : D → C admet un développement limité à l’ordre n en 0 et si f est une fonction paire
(resp. impaire) alors la partie régulière de f ne contient que des termes d’exposants pairs (resp.
impairs).
dém. :
Cas f paire :
Quand x → 0, on a
f (x) = a0 + a1 x + · · · + an xn + o(xn )
En substituant −x à x, on obtient
∀k ∈ {0, 1, . . . , n} , ak = (−1)k ak
dém. :
Par la formule de Taylor avec reste-intégrale, on a pour tout x ∈ I
n−1 x
f (k) (a) (x − t)n−1 (n)
X Z
f (x) = (x − a)k + f (t)dt
k! a (n − 1)!
k=0
La fonction f (n) étant continue, on peut écrire f (n) (t) = f (n) (a) + ε(t) avec ε −
→ 0.
a
On a alors
Z x Z x Z x
(x − t)n−1 (n) (x − t)n−1 (n) (x − t)n−1
f (t) dt = f (a)dt + ε(t) dt
a (n − 1)! a (n − 1)! a (n − 1)!
D’une part
x
(x − t)n−1 (n) (x − a)n (n)
Z
f (a)dt = f (a)
a (n − 1)! n!
D’autre part
x Z x
(x − t)n−1 (x − t)n−1
Z
n
ε(t) dt 6 sup |ε(t)| dt = |x − a| sup |ε(t)|
a (n − 1)! t∈[a,x] a (n − 1)! t∈[a,x]
Par suite
n
X f (k) (a)
f (x) = (x − a)k + o((x − a)n )
k!
k=0
Corollaire
Si f est de classe C ∞ sur I alors f admet un développement limité en tout point de I et à tout
ordre.
( !)Ce résultat ne peut être utilisé que pour une fonction définie et régulière en a.
21.1.4 DL de référence
1
Exemple DLn (0) de x 7→ .
1−x
On a déjà vu la relation
n
1 X
= xk + o(xn )
1−x
k=0
= 1 + x + · · · + xn + o(xn )
1
Exemple DLn (0) de x 7→ .
1+x
En remplaçant x par −x, la relation précédente donne
n
1 X
= (−1)k xk + o(xn )
1+x
k=0
= 1 − x + x + · · · + (−1)n xn + o(xn )
2
Puisque f (0) = 0 et pour tout k ∈ N? f (k) (0) = (−1)k (k − 1)!, la formule de Taylor-Young donne
n
X (−1)k−1
ln(1 + x) = xk + o(xn )
k
k=1
1 (−1)n−1 n
= x − x2 + · · · + x + o(xn )
2 n
1 1
En particulier ln(1 + x) = x − x2 + x3 + o(x3 ).
2 3
On alors f (k) (0) = α(α − 1)...(α − k + 1) pour tout k ∈ N, et la formule de Taylor-Young donne
Remarque Pour α = p ∈ N :
! ! ! !
p p p p
(1 + x)p = + x+ x2 + · · · + xn + o(xn )
0 1 2 n
pour k ∈ N et α ∈ R.
Ainsi !
n
α
X α
(1 + x) = xk + o(xn )
k=0
k
! ! ! !
α α α α
= + x+ x2 + · · · + xn + o(xn )
0 1 2 n
!
α (−1)(−2)...(−k)
Exemple Pour α = −1, = = (−1)k et on retrouve
k k!
1
= 1 − x + x2 + · · · + (−1)n xn + o(xn )
1+x
α(α − 1) 2
Pour α = 1/2, (1 + x)α = 1 + αx + x + o(x2 ) donne
2
√ 1 1
1 + x = 1 + x − x2 + o(x2 )
2 8
Pour α = −1/2, on obtient
1 1 3
√ = 1 − x + x2 + o(x2 )
1+x 2 8
( !)La formule donnant le développement limité de (1 + x)α ne peut s’appliquer que pour un exposant
α ∈ R fixé. En particulier, elle ne s’applique pas à une expression du type (1 + x)x .
( !)Ne pas développer cette expression car sinon on perd la visualisation des ordres de grandeurs au
voisinage de 1.
puis
√ √
1 3 π 1 π 2 3 π 3 π 3
cos x = + x− − x− − x− +o x−
2 2 3 4 3 12 3 3
√
Exemple DL2 (2) de x 7→ x.
Quand x → 2
x=2+
√ − 2pavec h → 0.
√ h, h = x√
x = 2 + h = 2 1 + h/2.
√ 1 1
Or 1 + u = 1 + u − u2 + o(u2 ) quand u → 0
2 8
p 1 1
donc pour u = h/2 → 0 on a 1 + h/2 = 1 + h − h2 + o(h2 ),
4 32
puis
√ √
√ √ 2 2
x= 2+ (x − 2) − (x − 2)2 + o((x − 2)2 )
4 32
1 1 1 1
cos x = 1 − x2 + x4 + o(x4 ) et chx = 1 + x2 + x4 + o(x4 )
2 24 2 24
donc
1 1 2 1 1 1
cos xchx = 1 + − x + − + x4 + o(x4 )
2 2 24 4 24
puis
1
cos xchx = 1 − x4 + o(x4 )
6
1 1 1
ln(1 + x) = x − x2 + x3 + o(x3 ) et ex = 1 + x + x2 + o(x2 )
2 3 2
donc
x 1 2 1 1 1
ln(1 + x)e = x + 1 − x + − + x3 + o(x3 )
2 2 2 3
puis
1 1
ln(1 + x)ex = x + x2 + x3 + o(x3 )
2 3
1 1 1
ln(1 + x) = x − x2 + x3 + o(x3 ) et 1 − cos x = x2 + o(x3 )
2 3 2
donc
1 3 1 4
ln(1 + x)(1 − cos x) = x − x + o(x4 )
2 4
Ainsi on a pu substituer f (x) à u dans le DLn (0) de g(u) et cela a été possible car f (x) −−−→ 0
x→0
Si l’on connaît alors un développement limité de f , on peut en déduire un développement limité de
g(f (x)).
2
Exemple DL3 (0) de x 7→ ex+x .
Quand x → 0,
2
ex+x = eu avec
u = x + x2 → 0.
Nous sommes amenés à réaliser un DL(0) de u 7→ eu .
Commençons car calculer les développement limites de puissances de u à la précision o(x3 ).
u2 = x2 + 2x3 + o(x3 ),
u3 = x3 + o(x3 )
et o(u3 ) = o(x3 ).
Un développement limité à l’ordre 3 de eu peut alors être transformé en développement limité à l’ordre
3 en x.
1 1
eu = 1 + u + u2 + u3 + o(u3 )
2 6
donc
x+x2 1 2 1
e =1+x+ 1+ x + 1+ x3 + o(x3 )
2 6
puis
2 3 7
ex+x = 1 + x + x2 + x3 + o(x3 )
2 6
1 1
ln(1 + u) = u − u2 + u3 + o(u3 )
2 3
donc
1 1
ln(1 + x2 + x3 ) = x2 + x3 − x4 − x5 − x6 + o(x6 )
2 6
√
Exemple DL2 (0) de x 7→ cos x.
Quand x → 0, r
√ 1 √
cos x = 1 − x2 + o(x2 ) = 1 + u
2
avec
1
u = − x2 + o(x2 ) → 0 et o(u) = o(x2 ).
2
√ 1
1 + u = 1 + u + o(u)
2
donc
√ 1
cos x = 1 − x2 + o(x2 )
4
1
Exemple DL3 (0) de x 7→ e 1 + x .
Quand x → 0,
2
1
−x3 +o(x3 )
e 1+x = e1−x+x = e.eu
avec
u = −x + x2 − x3 + o(x3 ) → 0,
u2 = x2 − 2x3 + o(x3 ),
u3 = x3 + o(x3 )
et o(u3 ) = o(x3 ).
1 1
eu = 1 + u + u2 + u3 + o(u3 )
2 6
donc
1 3e 2 13e 3
e 1+x = e − ex + x − x + o(x3 )
2 6
√
Exemple DL2 (0) de x 7→ 1 + ex .
Quand x → 0,
√ √ √
r r
√ 1 2 1 1
x
1 + e = 2 + x + x + o(x ) = 2 1 + x + x2 + o(x2 ) = 2 1 + u
2
2 2 4
avec
1 1
u = x + x2 + o(x2 ) → 0,
2 4
1
u2 = x2 + o(x2 )
4
et o(u2 ) = o(x2 ).
√ 1 1
1 + u = 1 + u − u2 + o(u2 )
2 8
donc √ √
√ √ 2 3 2 2
1 + ex = 2+ x+ x + o(x2 )
4 32
1
Exemple DL4 (0) de x 7→
cos x
Quand x → 0,
1 1 1
= =
cos x 1 − 12 x2 + 24
1 4
x + o(x4 ) 1+u
avec
1 1
u = − x2 + x4 + o(x4 ) → 0,
2 24
1
u2 = x4 + o(x4 ) et o(u2 ) = o(x4 )
4
1
= 1 − u + u2 + o(u2 )
1+u
donne
1 1 5
= 1 + x2 + x4 + o(x4 )
cos x 2 24
sin x 1
tan x = = sin x
cos x cos x
Puisque le développement limité de sin x commence par x, un développement limité à l’ordre 4 de
1/cos x suffit à poursuivre les calculs.
Quand x → 0,
1 1 1
= =
cos x 1 − 12 x2 + 24
1 4
x + o(x4 ) 1−u
avec
1 1
u = x2 − x4 + o(x4 ) → 0.
2 24
1
u2 = x4 + o(x4 )
4
et o(u2 ) = o(x4 ).
1
= 1 + u + u2 + o(u2 )
1−u
donne
1 1 5
= 1 + x2 + x4 + o(x4 )
cos x 2 24
puis
1 1 5 1 5
tan x = x − x3 + x + o(x5 ) 1 + x2 + x4 + o(x4 )
6 120 2 24
En développant, on obtient
1 2
tan x = x + x3 + x5 + o(x5 )
3 15
21.2.5 DL délicats
Lors des calculs, des divisions peuvent réduire l’ordre d’un développement limité. En anticipant celles-ci,
on peut éviter de devoir reprendre un calcul initié avec des développements trop courts.
Exemple DL3 (0) de x 7→ (cos x)1/x
1
(cos x)1/x = e x ln(cos x)
1
Pour former le développement limité voulu, on développe à l’ordre 3 l’expression ln(cos x).
x
Puisque la division par x, réduit l’ordre d’un développement limité, nous allons former un
développement limité à l’ordre 4 de ln(cos x).
1 2 1 4 4
ln(cos x) = ln 1 − x + x + o(x ) = ln(1 + u)
2 24
avec
1 1
u = − x2 + x4 + o(x4 )
2 24
Par composition de développements limités
1 1
ln(cos x) = − x2 − x4 + o(x4 )
2 12
puis
1 1 1
ln(cos x) = − x − x3 + o(x3 )
x 2 12
1 1
(cos x)1/x = eu avec u = − x − x3 + o(x3 ).
2 12
Par composition de développements limités, on obtient
1 1 5
(cos x)1/x = 1 − x + x2 − x3 + o(x3 )
2 8 48
3/x2
sin x
Exemple DL2 (0) de x 7→ .
x
3/x2
sin x 3 sin x
= exp ln
x x2 x
sin x
A cause de la division par x2 , on forme un développement limité à l’ordre 4 du terme ln .
x
A cause de la division par x, on part d’un développement limité à l’ordre 5 du terme sin x.
1 1 5
sin x = x − x3 + x + o(x5 )
6 120
donc
sin x 1 1 4
ln = ln 1 − x2 + x + o(x4 )
x 6 120
Par composition
sin x 1 1 4
ln = − x2 − x + o(x4 )
x 6 180
On en déduit
3 sin x 1 1
ln = − − x2 + o(x2 )
x2 x 2 60
puis
3/x2
sin x 1 1 1 1 2 2 1 1
= exp − − x2 + o(x2 ) = √ e− 60 x +o(x ) = √ − √ x2 + o(x2 )
x 2 60 2 e 60 e
ln(1 + x) − x
Exemple DL2 (0) de x 7→ .
chx − 1
Les développements limités de ln(1 + x) − x et chx − 1 commençant par un terme en x2 , une division
par x2 aura lieu durant les calculs. On initie donc ceci avec des développements limités à l’ordre 4.
puis
ln(1 + x) − x 2 1 1
= −1 + x − x2 + o(x2 ) 1 − x2 + o(x2 )
chx − 1 3 2 12
et en développant
ln(1 + x) − x 2 5
= −1 + x − x2 + o(x2 )
chx − 1 3 12
Théorème
Soit f : I → C dérivable et a ∈ I.
Si f 0 admet un développement limité à l’ordre n en a de la forme :
dém. :
Considérons la fonction ϕ : I → R définie par
an
ϕ(x) = f (x) − (f (a) + a0 (x − a) + · · · + (x − a)n+1 )
n+1
La fonction ϕ est dérivable, ϕ(a) = 0 et ϕ0 (x) = o((x − a)n ) = (x − a)n ε(x) avec ε −
→ 0.
a
Par l’inégalité des accroissements finis
n
sup |ϕ0 (t)| 6 |x − a| sup |ε(t)|
t∈[a,x] t∈[a,x]
1 (−1)n n+1
ln(1 + x) = x − x2 + · · · + x + o(xn+1 )
2 n+1
( !)On peut intégrer un développement limité mais on ne peut pas dériver un développement limité. Plus
précisément, il se peut que la fonction dérivée ne possède pas de développement limité.
Exemple Soient n ∈ N? et
1 + x + x2 cos(1/x) si x 6= 0
f (x) =
1 sinon
Quand x → 0, on a f (x) = 1 + x + o(x) et ainsi f admet un développement limité à l’ordre 1 en 0.
f est dérivable sur R? et
f 0 (x) = 1 + 2x2 cos(1/x) + sin(1/x)
Aussi, par limite de taux de variation, la fonction f est dérivable en 0 et f 0 (0) = 1.
Ainsi la fonction f est dérivable sur R.
Cependant la dérivée de f n’admet pas de limite en 0 et donc a fortiori n’admet pas de développement
limité en 0.
f 0 n’a pas de limite en 0 donc n’y admet pas de DL.
Remarque Ici pour obtenir le développement limité de y 0 , on n’a pas procéder par dérivation mais par
intégration connaissant l’existence du développement de y 0 .
f (x) = xchx
La fonction f est de classe C ∞ sur R et f 0 (x) = xshx + chx > chx > 1 > 0.
La fonction f réalise donc une bijection de R vers R et son application réciproque f −1 est de classe C ∞ .
Réalisons un développement limité à l’ordre 5 de f −1 en 0.
Puisque f −1 est de classe C ∞ , elle admet un DL5 (0).
De plus, f est impaire, donc f −1 aussi et le DL5 (0) de f −1 est de la forme
f −1 (y) = ay + by 3 + cy 5 + o(y 5 )
a
a 3
f −1 (f (x)) = ax + + b x3 + + b + c x5 + o(x5 ) = x
2 24 2
a=1
a/2 + b = 0
a/24 + 3b/2 + c = 0
et on en déduit
1 17
a = 1, b = − et c =
2 24
gn gn−1 · · · g0
Remarque Dans un développement asymptotique, chaque terme de la somme est négligeable devant le
précédent.
21.3.2 Détermination
Pour forme un développement asymptotique, on exploite les techniques calculatoires des développements
limité sans se limiter à l’obtention de terme de la forme (x − a)n . . .
√
Exemple Développement
√ asymptotique √de x 7→ ln(1 + x) à la précision x2 en 0.
On a ln(1 + x) = ln(1 + u) avec u = x.
Quand√ x → 0, on a u → 0. √
u = x, u2 = x, u3 = x x, u4 = x2 et o(u4 ) = o(x2 ).
Or
1 1 1
ln(1 + u) = u − u2 + u3 − u4 + o(u4 )
2 3 4
donc par composition
√ √ 1 1 √ 1
ln(1 + x) = x − x + x x − x2 + o(x2 )
2 3 4
1
Exemple Développement asymptotique de x 7→ à 3 termes en 0.
ex − 1
Quand x → 0,
1 1 1 1
= =
ex − 1 x + 21 x2 + 61 x3 + o(x3 ) x 1 + 21 x + 16 x2 + o(x2 )
Or
1 1 1 1
= avec u = x + x2 + o(x2 )
1 + 21 x + 16 x2 + o(x2 ) 1+u 2 6
donc
1 1 1
1 1 2 = 1 − x + x2 + o(x2 )
1+ 2x + 6x + o(x2 ) 2 12
puis
1 1 1 1
= − + x + o(x)
ex − 1 x 2 12
√
Exemple Développement asymptotique de x 7→ x + 1 à 3 termes en +∞.
Quand x → +∞, √ √ √
x+1= x 1+u
avec u = 1/x → 0.
Or
√ 1 1
1 + u = 1 + u − u2 + o(u2 )
2 8
donc
√ √
1 1 1
x + 1 = x + √ − 3/2 + o
2 x 8x x3/2
1
Exemple Développement asymptotique de x 7→ √ à 3 termes en +∞.
x2 + x + 1
Quand x → +∞,
1 1 1
√ = √
x2 + x + 1 x 1+u
1 1
avec u = + 2 → 0.
x x
Or
1 1 3
√ = 1 − u + u2 + o(u2 )
1+u 2 8
donc
1 1 1 1 1
√ = − − +o
x2 + x + 1 x 2 8x x
avec u = 1/n2 → 0.
Puisque
√ 1 1
1 + u = 1 + u − u2 + o(u2 )
2 8
on obtient
p 1 1 1
n2 +1=1+ 2 − 4 +o
2n 8n n4
n ln(n + 1) = n ln n + n ln (1 + u)
avec u = 1/n → 0.
Puisque
1
ln(1 + u) = u − u2 + o(u2 )
2
on obtient
1 1
n ln(n + 1) = n ln n + 1 − +o
2n n
√
Exemple Développement asymptotique à trois termes de n n.
√ 1
n
n = n1/n = e n ln n = eu
1
avec u = ln n → 0.
n
Puisque
1
eu = 1 + u + u2 + o(u2 )
2
on obtient 2 2 !
√
n
ln n 1 ln n ln n
n=1+ + +o
n 2 n n
Remarque Si le terme général de la suite n’est pas explicite, les termes d’un développement
asymptotique peuvent parfois s’obtenir les uns après les autres. . .
Z 1
1 x dx
Exemple Développement asymptotique à la précision de un = n
.
n 0 1+x
Z 1 Z 1 n+1 Z 1
un − 1 = un −
x 1
xn+1 dx =
x dx 6 dx 6
1 + xn →0
2 0
0 0 n + 2
1 1
Ainsi un → ce qui permet d’écrire un = + o(1), c’est un développement asymptotique à un terme.
2 2
1 1
Posons vn = un − → 0 de sorte que un = + vn et cherchons un équivalent simple de vn .
2 2
Z 1 n+1
x
vn = − dx
0 1 + xn
1 1 1
Z
1
= − x2 ln(1 + xn ) 0 + 2x ln(1 + xn )dx
n n 0
1 1
Z
1
= − ln 2 + 2x ln(1 + xn ) dx
n n 0
Puisque
Z 1 Z 1 Z 1
2
2x ln(1 + xn ) dx = 2x ln(1 + xn ) dx 6 2xn+1 dx =
→0
0 0 0 n+2
On a Z 1
1 n 1
2x ln(1 + x ) dx = o
n 0 n
puis
ln 2 1
vn = − +o
n n
et enfin
1 ln 2 1
un = − +o
2 n n
Exemple Pour n ∈ N, étudions l’équation tan x = x d’inconnue x ∈ ]−π/2 + nπ, π/2 + nπ[ = In .
Considérons la fonction ϕ : x 7→ tan x − x définie sur In .
ϕ est dérivable et ϕ0 (x) = tan2 x > 0 sauf pour x = nπ.
Ainsi ϕ est strictement croissante et l’étude des limite de ϕ assure que ϕ réalise une bijection de In vers
R. Par suite, l’équation tan x = x admet une unique solution xn ∈ In
Formons un développement asymptotique à trois termes de xn .
On a
donc xn ∼ nπ.
Ainsi on peut écrire xn = nπ + o(n).
Considérons maintenant
yn = xn − nπ
puis
π
xn = nπ + + o(1)
2
Considérons maintenant
zn = xn − nπ − π/2 = yn − π/2
On a
π 1
zn = − arctan xn = − arctan
2 xn
1
donc zn ∼ −
nπ
Ainsi
1 1
zn = − +o
nπ n
et enfin
π 1 1
xn = nπ + − +o
2 nπ n
1
Exemple Déterminons un équivalent simple de − cot x quand x → 0.
x
cos x 1 1 − 12 x2 + o(x2 ) 1 1
cot x = = 1 2 2
= − x + o(x)
sin x x 1 − 6 x + o(x ) x 3
donc
1 1
− cot x ∼ − x
x 3
1 1
Exemple Déterminons un équivalent simple de √ −√ quand x → +∞.
x+1 x−1
1 1 1 1 1 1
√ =√ p = √ − 3/2 + o
x+1 x 1 + 1/x x 2x x3/2
et
1 1 1 1 1 1
√ =√ p = √ + 3/2 + o
x−1 x 1 − 1/x x 2x x3/2
donc
1 1 1
√ −√ ∼− √
x+1 x−1 x x
Quand x → 0,
1
tan x = x + x3 + o(x3 ) donc tan 2x − 2 tan x ∼ 2x3
3
1
sin x = x − x3 + o(x3 ) donc sin 2x − 2 sin x ∼ −x3
6
Par suite
tan 2x − 2 tan x 2x3
∼ → −2
sin 2x − 2 sin x −x3
Exemple Etudions
1 1
lim −
x→0 x2 tan2 x
Quand x → 0,
1 3
1 1 tan2 x − x2 (tan x − x)(tan x + x) 3x × 2x 2
− 2 = 2 = ∼ →
x 2 tan x 2
x tan x x2 tan2 x x 4 3
Exemple Etudions
x2
1
lim cos
x→+∞ x
Quand x → +∞
x2
1 2 1
cos = exp x ln cos
x x
Or
1 1 1
cos =1− 2 +o
x 2x x2
1 1 1 1
donc ln cos ∼ − 2 puis x2 ln cos → − et enfin
x 2x x 2
x2
1 1
cos →√
x e
Exemple Etudions
√ √
n
!n
n
a+ b
lim pour a, b > 0
n→+∞ 2
Quand n → +∞,
√
1 1 1
n
a = e n ln a = 1 + ln a + o
n n
donc √ √
n
1 √
n
a+ b 1
=1+ ln ab + o
2 n n
puis
√ √ !n
n
1 √
n
a+ b 1
= exp n ln 1 + ln ab + o
2 n n
Or
1 √ √
1
n ln 1 + ln ab + o → ln ab
n n
donc √
√ n
!n
√
n
a+ b
→ ab
2
f (x) = a0 + a1 (x − a) + o(x − a)
x + o(x2 ) − x + o(x2 )
f 0 (x) = = o(1) → 0
x2
Par suite f 0 est continue en 0.
y = a0 + a1 (x − a)
Ainsi les deux premiers termes du développement limité de f en a correspondent au second membre de
l’équation de la tangente à f en a.
Etudions maintenant la position du graphe de f par rapport à T en a. Pour cela déterminons le signe de
la quantité
quand x → a.
Soit k le plus petit entier supérieur ou égal à 2 tel que ak 6= 0.
On a
Cas k impair
Le terme (x − a)k s’annule en changeant de signe en a.
Dans ce cas le graphe de f traverse sa tangente T en a et le signe de ak permet de préciser de quel côté
de a, Γf est au dessus de T .
f (x) = ln(x2 + 2x + 2)
Quand x → 0, on obtient
1
f (x) = ln 2 + x − x3 + o(x3 )
6
L’équation de la tangente à f en 0 est
y = ln 2 + x
1
Puisque f (x) − (ln 2 + x) ∼ − x3 + o(x3 ) quand x → 0, la courbe traverse sa tangente en 0 en étant
6
d’abord au dessus puis en dessous.
quand x → +∞.
1 3
La droite d’équation y = x + est asymptote à f en +∞ et puisque > 0, la courbe est au dessus de
2 8x
celle-ci.
Théorème
Pour tout n 6 m, on a
−−→ −−→
−−→ −−→ dOM hn dn OM −−→
OM (t0 + h) = OM (t0 ) + h (t0 ) + · · · + n
(t0 ) + hn ε(h)
dt n! dt
−−→
avec ε(h) → ~o.
0
dém. :
Par les coordonnées des vecteurs.
−−→ −−−→
Remarque Le terme hn ε(h) est parfois aussi noté o(hn ).
21.4.6.2 Tangente
Théorème
S’il existe un plus petit entier p > 1 tel que
−−→
dp OM
(t0 ) 6= ~0
dtp
alors Γ admet une tangente en M (t0 ) dirigée par ce vecteur.
dém. :
Sous réserve d’existence, la tangente en M (t0 ) est la droite limite des droites pivotantes (M (t0 )M (t))
quand t → t0 . Par la formule de Taylor-Young :
−−→
−−→ −−−→ hp dp OM −−−→
OM (t0 + h) = OM0 + p
(t0 ) + o (hp )
p! dt
donc
−−→
−−−→ hp dp OM −−−→
M0 M (t0 + h) = p
(t0 ) + o (hp )
p! dt
Remarque Si ~v (t0 ) 6= ~0 (i.e. M (t0 ) régulier) alors p = 1 et on retrouve que la vitesse dirige la tangente
lorsqu’elle n’est pas nulle.
Si ~v (t0 ) = ~0 et ~a(t0 ) 6= ~0 alors p = 2 et la tangente en un point stationnaire est dirigée par l’accélération
lorsque cette dernière n’est pas nulle.
Supposons de plus, qu’il existe un plus petit entier q > p + 1 tel que
−−→
dq OM
~v = (t0 ) ne soit pas colinéaire à ~u
dtq
−−→
dj OM
pour tout p < j < q, (t0 ) = λj ~u,
dtj
q −−→
d OM
et pour j = q, (t0 ) = ~v .
dtq
On obtient alors
hq −−−→
−−→ −−−→ 1 p
OM (t0 + h) = OM0 + h + o(hp ) ~u + ~v + o(hq )
p! q!
−−−→ −−−→
Or o(hq ) = o(hq )~u + o(hq )~v car les composantes de o(hq ) dans ~u, ~v sont combinaisons linéaires des
composantes dans la base (~i, ~j) et ces dernières sont en o(hq ).
On parvient alors à la relation
hp
q
−−−−−−−−−→
h
M0 M (t0 + h) = + o(hp ) ~u + + o(hq ) ~v
p! q!
hp hq
L’étude du signe de x = + o(hp ) et de y = + o(hq ) permet de positionner le point M (t0 + h)
p! q!
dans le repère oblique (M0 ; ~u, ~v ).
Remarque Un point régulier est soit un point ordinaire, soit un point d’inflexion.
Un point birégulier est un point ordinaire.
Remarque Lorsque p et q sont pairs, il est impossible de préciser le sens de parcours sur les deux
branches, il arrive même parfois que celles-ci se superposent.
Par la formule de Taylor-Young, les coefficients de ces développements limités déterminent les nombres
dérivés successifs de x et y en t0 .
Ainsi M (t0 ) est le point de coordonnées (a0 , b0 ) et pour k > 1,
On peut alors raisonner à partir des ~uk au lieu des vecteurs dérivés successifs :
- le premier ~up non nul donne la direction de la tangente ;
- le premier ~uq suivant non colinéaire à ~up donne la position de la courbe par rapport à sa tangente.
(
x = t − sin t
Exemple Etudions en t = 0.
y = 1 − cos t
1 3 1
x(t) = t + o(t3 ) et y(t) = t2 + o(t3 ) quand t → 0
6 2
On obtient
0 0 0 1/6
M (0) , ~u1 , ~u2 , ~u3
0 0 1/2 0
Remarque Pour les figures, comme seuls la direction et le sens des vecteurs ~uk importe, il est fréquent
de représenter des vecteurs de longueur quelconque.
x = et
(
Exemple Etudions 2 en t = 0.
y = (t + 1)
1 1
x(t) = 1 + t + t2 + t3 + o(t3 ) et y(t) = 1 + 2t + t2 quand t → 0
2 6
On obtient
1 1 1/2 1/6
M (0) , ~u1 , ~u2 , ~u3
1 2 1 0
p = 1, q = 3, on a un point d’inflexion
(
x = et − t
Exemple Etudions en t = 0.
y = t2 (t + 3)
1 1 1
x(t) = 1 + t2 + t3 + t4 + o(t4 ) et y(t) = 3t2 + t3 + o(t4 ) quand t → 0
2 6 24
On obtient
1 0 1/2 1/6 1/24
M (0) , ~u1 , ~u2 , ~u3 , ~u4
0 0 3 1 0
p = 2, q = 4, on a un point de rebroussement de seconde espèce.
K désigne R ou C.
I désigne un intervalle non singulier de R.
Une équation différentielle d’ordre n en la fonction inconnue x 7→ y(x) est une égalité E exprimée à
l’aide de x, y, y 0 , . . . , y (n) .
Une solution sur un intervalle I de cette équation différentielle est une fonction n fois dérivable x 7→ y(x)
telle que, pour tout x ∈ I, l’égalité E soit vérifiée pour x, y(x), y 0 (x), . . . , y (n) (x).
Exemple E : xy 0 = y(y + 1) + x2 est une équation différentielle d’ordre 1.
La fonction x 7→ x tan x est solution de celle-ci sur l’intervalle ]−π/2, π/2[.
On ne sait résoudre qu’assez peu d’équations différentielles parmi lesquelles les suivantes. . .
y 0 + a(x)y = 0
775
22.1. EQUATION LINÉAIRE DU PREMIER ORDRE
Exemple E : (x2 + 1)y 0 + xy = 1 n’est pas à proprement parler une équation différentielle linéaire
d’ordre 1 car il y a ici une fonction de x en facteur de y 0 . Cependant elle se ramène à une équation
linéaire d’ordre 1 car l’équation différentielle E est équivalente à l’équation différentielle
x 1
y0 + y=
1 + x2 1 + x2
Théorème
Soient a, b : I → K continues, x0 ∈ I et y0 ∈ K.
Il existe une unique solution sur l’intervalle I à l’équation différentielle
y 0 + a(x)y = b(x)
Considérons alors B la primitive de x 7→ b(x)eA(x) qui s’annule en x0 ; celle-ci existe aussi car la fonction
x 7→ b(x)eA(x) est continue sur l’intervalle I.
Puisque les fonctions x 7→ y(x)eA(x) et B sont primitives sur I de la même fonction x 7→ b(x)eA(x) ,
celles-ci diffèrent ne différent que d’une constante et, connaissant les valeurs de chacune en x0 , on obtient
y(x)eA(x) = B(x) + y0 pour tout x ∈ I.
Ainsi y(x) = (B(x) + y0 )e−A(x) pour tout x ∈ I ce qui détermine la fonction y de façon unique.
Existence :
Considérons A la primitive de a qui s’annule en x0 et B la primitive de x 7→ b(x)eA(x) qui s’annule
en x0 .
Soit y : I → K la fonction définie par y(x) = (B(x) + y0 )e−A(x) .
D’une part y(x0 ) = (B(x0 ) + y0 ) e−A(x0 ) = y0 .
D’autre part, y est dérivable et y 0 (x) = −a(x)y(x) + B 0 (x)e−A(x) donc y 0 (x) + a(x)y(x) = b(x).
Ainsi y est solution de l’équation différentielle étudiée et satisfait la condition initiale y(x0 ) = y0 .
Remarque En pratique, la formule solution proposée par ce théorème n’est pas employée.
E : y 0 + a(x)y = b(x)
Si y1 désigne une solution particulière de l’équation E alors les solutions de E sont les
fonctions de la forme x 7→ y1 (x) + y0 (x) avec y0 solution de l’équation homogène E0 :
y 0 + a(x)y = 0.
dém. :
Supposons y1 solution de E sur I.
Soit y : I → K une fonction dérivable.
y est solution de E sur I si, et seulement si, pour tout x ∈ I, y 0 (x) + a(x)y(x) = b(x) i.e. y 0 (x) +
a(x)y(x) = y10 (x) + a(x)y1 (x) ce qui équivaut encore à (y − y1 )0 (x) + a(x)(y − y1 )(x) = 0.
Ainsi, y est solution de E sur I si, et seulement si, la fonction x 7→ y(x)−y1 (x) est solution de l’équation
homogène E0 : y 0 + a(x)y = 0.
Remarque Pour résoudre une équation différentielle E : y 0 + a(x)y = b(x) :
- on présente le type d’équation différentielle ;
- on résout l’équation homogène associée : y0 (x) = . . . ;
- on détermine une solution particulière : y1 (x) = . . . ;
- on exprime la solution générale : y(x) = y0 (x) + y1 (x).
Remarque Afin de trouver une solution particulière, il arrive parfois qu’on décompose le second
membre en plusieurs fonctions plus simples ; on peut alors exploiter le résultat suivant :
Proposition
Soient E : y 0 + a(x)y = b1 (x) + b2 (x) continues.
Si, pour i ∈ {1, 2}, yi est solution de l’équation y 0 + a(x)y = bi (x)
alors la fonction y1 + y2 est solution de y 0 + a(x)y = b1 (x) + b2 (x).
dém. :
C’est immédiat par le calcul.
Définition
On appelle équation caractéristique associée à l’équation différentielle linéaire à coefficient
constant E : y 0 + ay = 0 (avec a ∈ K ) l’équation r + a = 0.
Proposition
Les solutions de l’équation E : y 0 + ay = 0 sont les fonctions y : x 7→ λeαx avec λ parcourant
K et où α désigne la solution de l’équation caractéristique associée.
dém. :
Soit y une fonction dérivable.
La fonction x 7→ y(x)eax est dérivable et
0
(y(x)eax ) = (y 0 (x) + ay(x)) eax
Par suite y est solution de l’équation E si, et seulement si, la fonction x 7→ y(x)eax est constante ce qui
donne y de la forme x 7→ λe−ax avec λ ∈ K.
Exemple Résolvons sur R l’équation E : y 0 = y.
E est une équation différentielle linéaire d’ordre 1 homogène à coefficient constant d’équation
caractéristique r = 1. Sa solution générale est y(x) = λex avec λ parcourant K.
dém. :
Cas a = 0 :
On chercher une solution particulière à l’équation y 0 = P (x).
En déterminant une primitive de P s’annulant en 0, on obtient une solution particulière de la forme
x 7→ xQ(x) avec Q fonction polynomiale de même degré que P .
Cas a 6= 0 :
Posons n = deg P et écrivons P (x) = a0 + a1 x + · · · + an xn .
Considérons ensuite Q(x) = b0 + b1 x + · · · + bn xn .
Q0 (x) + aQ(x) = (b1 + ab0 ) + (2b2 + ab1 )x + · · · + (nbn + abn−1 )xn−1 + abn xn
ce qui est possible car a 6= 0, on obtient une solution particulière x 7→ Q(x) de la forme annoncée.
Exemple Résolvons sur R l’équation E : y 0 + y = x.
E est une équation différentielle linéaire d’ordre 1 à coefficients constants.
Solution homogène y(x) = λex .
Solution particulière y(x) = x − 1.
Solution générale
y(x) = x − 1 + λe−x avec λ parcourant K
Proposition
Si b(x) = P (x)eαx avec α ∈ K et P une fonction polynomiale alors on peut trouver une
solution particulière à l’équation
E : y 0 + ay = b(x)
dém. :
Soit y une fonction dérivable et z : x 7→ y(x)e−αx une fonction dérivable telle que y(x) = z(x)eαx .
On a
y 0 (x) + ay(x) = (z 0 (x) + (a + α)z(x))eαx
Par suite y est solution de l’équation E si, et seulement si, z est solution de l’équation z 0 + (a + α)z =
P (x).
L’étude qui précède assure que cette dernière équation présente une solution particulière de la fonction
z1 (x) = xm Q(x) avec
0 si a + α 6= 0
m=
1 si a + α = 0
et on obtient alors une solution particulière y1 (x) = xm Q(x)eαx à l’équation E de la forme annoncée.
x2 −x
Solution particulière à l’équation E2 : y 0 + y = x e−x , y(x) = e
2
En vertu du principe de superposition, la solution générale de E est
2x − 1 x x2 −x
y(x) = e + e + λ e−x avec λ parcourant K.
2 2
Proposition
Cas K = R
Si b(x) = P (x) cos(ωx) (respectivement P (x) sin(ωx) ) avec ω ∈ R et P une fonction
polynomiale réelle alors on peut trouver une solution particulière à l’équation E en considérant
la partie réelle (respectivement imaginaire) d’une solution de l’équation différentielle complexe
z 0 + az = P (x)eiωx .
dém. :
Si z est solution de l’équation z 0 + az = P (x)eiωx alors en passant à la partie réelle et à la partie
imaginaire la relation z 0 (x) + az(x) = P (x)eiωx , on obtient Re(z)0 (x) + aRe(z)(x) = P (x) cos(ωx) et
Im(z)0 (x) + aIm(z)(x) = P (x) sin(ωx) car a et P (x) sont réels.
Théorème
Soient a : I → K continue et A une primitive de a.
L’ensemble des solutions sur I de l’équation y 0 + a(x)y = 0 est constitué des fonctions de la
forme x 7→ λe−A(x) avec λ parcourant K.
dém. :
Soit y une fonction dérivable définie sur I.
La fonction x 7→ y(x)eA(x) est dérivable et
0
y(x)eA(x) = (y 0 (x) + a(x)y(x)) eA(x)
Par suite la fonction y est solution de l’équation y 0 + a(x)y = 0 si, et seulement si, la fonction x 7→
y(x)eA(x) est constante ce qui donne y de la forme x 7→ λe−A(x) avec λ ∈ K.
Remarque La seule solution à l’équation y 0 + a(x)y = 0 qui s’annule est la fonction nulle.
y 0 + xy = 0 ⇔ y 0 = −xy
et Z
1
−x dx = − x2 + C te
2
Solution générale de E sur R
2
y(x) = λe−x /2
avec λ parcourant K
1
E : y0 + y=0
x
E est une équation différentielle linéaire d’ordre 1 homogène
Z
1 1 dx
y0 + y = 0 ⇔ y 0 = − y et − = ln |x|
x x x
λ0 (x) = b(x)eA(x)
Par détermination de primitive, ceci permet d’obtenir une fonction λ puis une fonction y convenables.
Exemple Résolvons sur R l’équation
2x 1
E : y0 + y=
1 + x2 1 + x2
E est une équation différentielle linéaire d’ordre 1.
2x 2x
y0 + y = 0 ⇔ y0 = − y
1 + x2 1 + x2
et Z
2x dx
= ln(1 + x2 )
1 + x2
λ
Solution homogène y(x) =
1 + x2
Solution particulière :
λ(x)
Cherchons celle-ci de la forme y(x) = avec x 7→ λ(x) dérivable.
1 + x2
2x λ0 (x) 1
y 0 (x) + 2
y(x) = = ⇔ λ0 (x) = 1
1+x 1 + x2 1 + x2
x
λ(x) = x convient et y(x) = est solution particulière de E.
1 + x2
Solution générale
x+λ
y(x) = avec λ parcourant K
x2 + 1
E : (1 − x2 )y 0 − xy = 1
et
Z
x dx 1
= − ln(1 − x2 )
1 − x2 2
λ
Solution homogène y(x) = √
1 − x2
Solution particulière :
λ(x)
Cherchons celle-ci de la former y(x) = √ avec x 7→ λ(x) fonction dérivable.
1 − x2
p 1
(1 − x2 )y 0 (x) − xy(x) = 1 − x2 λ0 (x) = 1 ⇔ λ0 (x) = √
1 − x2
arcsin x
λ(x) = arcsin x convient et y(x) = √ est solution particulière de E.
1 − x2
Solution générale
arcsin x + λ
y(x) = √ avec λ parcourant K
1 − x2
E : y 0 − xy = x
y 0 − xy = 0 ⇔ y 0 = xy
et
Z
1 2
x dx = x
2
2
Solution homogène y(x) = λex /2
Solution particulière y(x) = −1 (celle-ci est apparente, il n’est pas nécessaire de mettre en place la
méthode précédente)
Solution générale
2
y(x) = −1 + λex /2
avec λ parcourant R
y 00 + ay 0 + by = c(x)
y 00 + ay 0 + b = 0
r2 + ar + b = 0
d’inconnue r ∈ C.
Théorème
Soient a, b ∈ K, c : I → K une fonction continue, x0 ∈ I et y0 , y1 ∈ K.
Il existe une unique solution sur I à l’équation différentielle
y 00 + ay 0 + by = c(x)
Puisque la fonction z est dérivable et puisque y 0 = z + αy, la fonction y est deux fois dérivable et
Ainsi, y est solution de E sur I si, et seulement si, la fonction x 7→ y(x)−y1 (x) est solution de l’équation
homogène E0 : y 00 + ay 0 + by = 0.
Remarque Pour résoudre l’équation différentielle E : y 00 + ay 0 + by = c(x) :
- on présente le type de l’équation différentielle ;
- on résout l’équation homogène associée : y0 (x) = . . . :
- on détermine une solution particulière : y1 (x) = . . . ;
- on exprime la solution générale : y(x) = y0 (x) + y1 (x).
Remarque Afin de trouver une solution particulière, il arrive parfois qu’on décompose le second
membre en plusieurs fonctions plus simples ; on peut alors exploiter le résultat suivant :
Proposition
Soient a, b ∈ K et c1 , c2 : I → K continues.
Si, pour i ∈ {1, 2}, yi est solution de l’équation y 00 + ay 0 + by = ci (x)
alors la fonction y1 + y2 est solution de y 00 + ay 0 + bqy = c1 (x) + c2 (x).
dém. :
C’est immédiat par le calcul.
Théorème
Soient a, b ∈ C et E0 : y 00 + ay 0 + by = 0.
Si l’équation caractéristique r2 + ar + b = 0 possède deux racines distinctes α et β alors les
solutions sur R de E0 sont les fonctions de la forme
dém. :
Notons α, β les deux racines de l’équation r2 + ar + b = 0.
Soit y : R → C une fonction deux fois dérivable et z : R → C définie par z(x) = y(x)e−αx .
z est deux fois dérivable et y 00 (x) + ay 0 (x) + by(x) = (z 00 (x) + (α − β)z 0 (x)) eαx car a = α + β.
Ainsi y est solution de E sur R si, et seulement si, z est solution sur R de l’équation z 00 + (α − β)z 0 = 0.
Cas α 6= β
z est solution de l’équation z 00 + (α − β)z 0 = 0 si, et seulement si, z 0 (x) = γe(β−α)x soit
γ
z(x) = e(β−α)x + λ avec λ, µ parcourant C
β−α
Par suite, on obtient que y est de la forme
γ
y : x 7→ λeαx + µeβx avec µ = parcourant C
β−α
Cas α = β
z est solution de l’équation z 00 = 0 si, et seulement si, z(x) = λx + µ avec λ, µ ∈ C.
Exemple Résolvons sur R l’équation
y 00 + (1 + 2i)y 0 + (i − 1)y = 0
r2 + (1 + 2i)r + (i − 1) = 0
∆ = (1 + 2i)2 − 4(i − 1) = 1.
Les racines de l’équation caractéristique sont −i et −(1 + i).
La solution générale de l’équation étudiée est y(x) = (λ + µe−x )e−ix avec λ, µ parcourant C.
Théorème
Soient a, b ∈ R et E0 : y 00 + ay 0 + by = 0.
Si l’équation caractéristique r2 + ar + b = 0 possède deux racines réelles distinctes α et β
alors les solutions sur R de E0 sont les fonctions de la forme
dém. :
Les deux premiers cas se traitent comme dans le cadre complexe.
Traitons le cas où l’équation caractéristique r2 + ar + b = 0 possède deux racines complexes conjuguées
α ± iω.
Les fonctions complexes solutions de E0 sont les fonctions de la forme :
avec λ, µ ∈ C.
Parmi celle-ci les fonctions réelles vérifient y(0) ∈ R et y(2π/ω) ∈ R ce qui donne λ + µ ∈ R et
λ − µ ∈ iR.
Par suite Im(λ) + Im(µ) = 0 et Re(λ) = Re(µ).
Posons alors γ = λ + µ ∈ R et δ = i(λ − µ) ∈ R.
La fonction y est alors de la forme
avec γ, δ ∈ R.
Inversement, une telle fonction est solution de l’équation E0 .
Exemple Résolvons sur R l’équation
y 00 + 4y 0 + 4y = 0
C’est une équation différentielle linéaire d’ordre 2 homogène à coefficients constants d’équation
caractéristique r2 + 4r + 4 = 0 de racine double r = −2.
Solution générale
y(x) = (λx + µ)e−2x avec λ, µ parcourant R
dém. :
Cas a = b = 0 :
On cherche une solution particulière à l’équation y 00 = P (x).
En déterminant une primitive de P s’annulant en 0 et en déterminant une primitive cette dernière s’annulant
encore en 0, on obtient une solution particulière de la forme x 7→ x2 Q(x) avec Q fonction polynomiale
de même degré que P .
Cas a 6= 0 et b = 0 :
On cherche une solution particulière à l’équation y 00 + ay 0 = P (x).
Considérons alors l’équation z 0 + az = P (x).
On peut trouver une solution particulière à celle-ci de la forme z(x) = Q(x) avec Q fonction polynomiale
de même degré que P .
En déterminant une primitive de Q s’annulant en 0, on obtient une solution particulière de la forme
x 7→ xR(x) avec R fonction polynomiale de même degré que P .
Cas b 6= 0 :
Posons n = deg P et écrivons P (x) = a0 + a1 x + · · · + an xn .
Considérons ensuite Q(x) = b0 + b1 x + · · · + bn xn .
Par identification des coefficients polynomiaux, l’équation Q00 (x) + aQ0 (x) + bQ(x) = P (x) conduit au
système
2b2 + ab1 + bb0 = a0
..
.
n(n − 1)bn + b(n − 1)bn−1 + abn = an−2
anbn + bbn−1 = an−1
bbn = an
E : y 00 + y 0 + y = x2 + 1
Solution particulière
On cherche celle-ci de la forme y(x) = ax2 + bx + c.
Proposition
Si c(x) = P (x)eα.x avec P fonction polynomiale et α ∈ K alors on peut trouver une solution
à l’équation
E : y 00 + ay 0 + by = P (x)eαx
de la forme y(x) = xm Q(x)eαx avec Q fonction polynomiale de même degré que P et
si α non racine de r2 + ar + b = 0
0
m= 1 si α racine simple de r2 + ar + b = 0
2 si α racine double de r2 + ar + b = 0
dém. :
En effet si y(x) = z(x)eαx avec z une fonction deux fois dérivable alors
y 00 (x) + ay 0 (x) + by(x) = z 00 (x) + (2α + a)z 0 (x) + (α2 + aα + b)z(x) eαx
E : y 00 − 2y 0 + y = xe−x
E est une équation différentielle linéaire d’ordre 2 à coefficients constants d’équation caractéristique
r2 − 2r + 1 = 0 de racine double 1.
Solution homogène y(x) = (λx + µ)ex .
Solution particulière :
On cherche celle-ci de la forme y(x) = (ax + b)e−x .
x + 1 −x
Pour a = 1/4 et b = 1/4, y(x) = e est solution particulière.
4
Solution générale
1
y(x) = (x + 1)e−x + (λx + µ)ex avec λ, µ parcourant R
4
E : y 00 − 3y 0 + 2y = xex
E est une équation différentielle linéaire d’ordre 2 à coefficients constants d’équation caractéristique
r2 − 3r + 2 = 0 de racines 1 et 2.
Solution homogène y(x) = λex + µe2x .
Solution particulière :
On cherche celle-ci de la forme y(x) = (ax2 + bx)ex .
Proposition
Cas K = R.
Si c(x) = P (x) cos(ωx) (resp. c(x) = P (x) sin(ωx) ) avec P fonction polynomiale et ω ∈
R alors on peut trouver une solution particulière à l’équation E : y 00 + ay 0 + by = c(x)
en considérant la partie réelle (resp. imaginaire) d’une solution de l’équation différentielle
complexe z 00 + az 0 + bz = P (x)eiωx .
dém. :
Sachant que a, b ∈ R et P (x) réel, en passant à la partie réelle et la partie imaginaire la relation z 00 (x) +
az 0 (x) + bz(x) = P (x)eiωx on obtient que Re(z) et Im(z) sont solutions respectivement des équations
1 1 − 2i ix
z(x) = eix = e convient
1 + 2i 5
Par le principe de superposition
3 sin x − cos x
y(x) = + (λ cos x + µ sin x)e−x avec λ, µ parcourant R
5
y 00 + 2my 0 + ω02 y = 0
R 0 1
q 00 + q + q=0
L LC
L’équation y 00 + 2my 0 + ω02 y = 0 est une équation différentielle linéaire d’ordre 2 à coefficients constant
d’équation caractéristique r2 + 2mr + ω02 = 0 et de discriminant ∆ = 4(m2 − ω02 ).
∆ = (2iω0 )2
L’équation caractéristique a pour racines ±iω0 .
La solution générale de l’équation différentielle est
q 2
2
∆ = 2i ω0 − m2 = (2iω)2
q
avec ω = ω02 − m2 .
L’équation caractéristique a pour racines −m ± iω.
La solution générale de l’équation différentielle est
2π
On parle de mouvement pseudo périodique de pseudo-période T = avec T > T0 .
0
ω
La solution correspondant aux conditions initiales y(0) = y0 et y (0) = 0 est
m
y(t) = y0 cos(ωt) + sin(ωt) )e−mt
ω
Cette équation est une équation différentielle linéaire d’ordre 2 dont l’équation homogène a été résolue ci-
dessus. Cherchons maintenant une solution particulière et pour cela déterminons une solution particulière
à l’équation complexe z 00 + 2mz 0 + ω02 z = Aeiωt de la forme z(t) = Beiωt .
L’équation
z 00 + 2mz 0 + ω02 z = Aeiωt
est vérifiée si
(−ω 2 + 2imω + ω02 )B = A
i.e. pour
A
B=
ω02 − ω 2 + 2imω
On peut écrire B = |B| e−iϕ avec
A
|B| = p 2
(ω0 − ω 2 )2 + 4m2 ω 2
et
(ω 2 − ω 2 ) + 2imω
eiϕ = p 02
(ω0 − ω 2 ) + 4m2 ω 2
On obtient alors
A
z(t) = p ei(ωt−ϕ)
(ω02 − ω)2 + 4m2 ω 2
solution particulière de l’équation complexe puis
A
y(t) = p 2 cos(ωt − ϕ)
(ω0 − ω)2 + 4m2 ω 2
Remarque Lorsque m > 0, la solution homogène tend vers 0 quand t → +∞ et donc, pour t assez
grand, c’est la solution particulière ci-dessus obtenue qui demeure ; celle-ci ne dépend pas des
conditions initiales, on parle alors de régime permanent (ou forcé). Préalablement, on dit que le régime
est transitoire.
est minimale.
Si 2m2 − ω02 > 0 alors l’amplitude est maximale pour ω = 0.q
Si 2m2 − ω02 < 0 alors l’amplitude est maximale pour ωr = ω02 − 2m2 ; cette quantité est appelée
pulsation de résonance.
Exemple y 00 + (x2 + 1)y + (x − 1)y = 1 est une équation différentielle linéaire d’ordre 2 définie sur R.
Attention : On ne peut pas introduire d’équation caractéristique pour résoudre une telle équation et il
n’y a pas de démarche générale à connaître.
Dans la pratique, une telle équation se résout par un changement de fonction inconnue ou un
changement de variable ramenant le problème à une situation que l’on sait résoudre.
E : (1 + x2 )y 00 + 4xy 0 + (1 − x2 )y = 0
∀x ∈ R, z 00 (x) − z(x) = 0
Résolvons l’équation z 00 − z = 0.
C’est une équation différentielle linéaire d’ordre 2 homogène d’équation caractéristique r2 − 1 = 0 et de
solution générale : z(x) = λex + µe−x avec λ, µ parcourant K.
Par suite, la solution générale de E est
λex + µe−x
y(x) = avec λ, µ parcourant K
1 + x2
E : x2 y 00 − 2xy 0 + 2y = ln x
La résolution de cette équation différentielle linéaire d’ordre 2 à coefficients constants donne pour
solution générale
1
z(t) = (t + 3) + λet + µe2t
2
On en déduit que la solution générale de E est
1
y(x) = (ln x + 3) + λx + µx2 avec λ, µ parcourant K
2
Attention : Lorsqu’on dérive les relations du type y(x) = z(t) il faut prendre soin de dériver de part et
dy dz
d’autre par rapport à la même variable x ou t. L’emploi de notations et peut s’avérer pertinente.
dx dt
E : (1 + x2 )2 y 00 + 2x(1 + x2 )y 0 + y = 0
et
2xz 0 (arctan x) z 00 (arctan x)
y 00 (x) = − +
(1 + x2 )2 (1 + x2 )2
Par suite y est solution de E sur R si, et seulement si,
∀x ∈ R, z 00 (arctan x) + z(arctan x) = 0
z 00 (t) + z(t) = 0
La résolution de cette équation différentielle linéaire d’ordre 2 à coefficients constants donne pour
solution générale
z(t) = λ cos t + µ sin t
On en déduit que la solution générale de E
λ + µx
y(x) = √ avec λ, µ parcourant K
1 + x2
Dans ce chapitre, on étudie les notions de continuité et de dérivabilité (partielle) des fonctions de deux
variables réelles. La théorie et les résultats se généralisent aux fonctions de 3 voire n variables.
On note (. | .) le produit scalaire canonique sur R2 et k . k la norme euclidienne associée.
Les éléments de R2 seront, selon l’interprétation voulu, appelés points ou vecteurs ; par exemple le couple
(0, 0) est appelé point O ou vecteur nul.
23.1 Limite et continuité des fonctions de deux variables réelles
23.1.1 Fonctions réelles de deux variables réelles
Définition
On appelle fonction réelle de deux variables définies sur une partie X de R2 toute application
(
X ⊂ R2 → R
f:
x = (x1 , x2 ) 7→ f (x) = f (x1 , x2 )
L’ensemble de ces fonctions est noté F(X, R) et est muni d’une structure d’anneau et de R-
espace vectoriel pour les lois usuelles.
Remarque Les fonctions de deux variables réelles peuvent se visualiser comme opérant sur deux
variables réelles x1 , x2 (c’est l’expression f (x1 , x2 ) ) ou bien comme opérant sur un couple x élément
de R2 (c’est l’expression f (x) ).
Remarque Les deux variables réelles sont fréquemment notées x1 , x2 dans la théorie ou x, y dans la
pratique. Bien évidemment d’autres notations sont tout à fait possibles et on saura s’adapter à ces
dernières.
Exemple La fonction
x sin(xy)
f : (x, y) 7→
x2 + y 2
est une fonction réelle de deux variables réelles définies sur R2 \ {(0, 0)}.
801
23.1. LIMITE ET CONTINUITÉ DES FONCTIONS DE DEUX VARIABLES RÉELLES
Définition
On appelle fonction polynomiale réelle de deux variables définie sur une partie X de R2 toute
application de la forme
X→R
m X n
p: X
(x1 , x2 ) 7→
ap,q xp1 xq2
p=0 q=0
Définition
On appelle fonction rationnelle réelle de deux variables définie sur une partie X de R2 toute
application de la forme :
X → R
f: p(x1 , x2 )
(x1 , x2 ) 7→
q(x1 , x2 )
avec p, q des fonctions polynomiales telles que q ne s’annule pas sur X.
x+y
Exemple (x, y) 7→ est une fonction rationnelle réelle définie sur R? × R? .
xy
Définition
On appelle surface représentative d’une fonction f : X ⊂ R2 → R l’ensemble
Remarque Tout comme pour les fonctions d’une variable réelles, on peut parler de fonction de deux
variables réelles minorée, majorée, bornée et on peut aussi parler d’extremum d’une fonction de deux
variables.
En revanche, il n’y a pas de notion de monotonie définie pour les fonctions de deux variables
f (x, y) = x2 + y 2
23.1.2 Limite
Soit a = (a1 , a2 ) ∈ R2 .
23.1.2.1 Définition
Définition
Pour α > 0, on note D(a, α) le disque de centre a et de rayon α,
D(a, α) = x ∈ R2 / kx − ak 6 α
Définition
On dit qu’une fonction f : X ⊂ R2 → R est définie au voisinage de a si le domaine X de
définition de f intercepte tous les disques centrés en a i.e.
∀α > 0, D(a, α) ∩ X 6= ∅
Exemple Une fonction f : R+? × ]α, β[ → R est définie au voisinage de tout élément de R+ × [α, β]
Définition
On suppose que f : X ⊂ R2 → R est une fonction définie au voisinage de a.
On dit que f tend vers ` ∈ R en a si
∀M ∈ R, ∃α > 0, ∀x ∈ X, kx − ak 6 α ⇒ f (x) 6 M
Remarque Ces définitions sont analogues à celles proposées pour définir les limites des fonctions
réelles d’une variable réelle.
∀x ∈ R2 , kx − ak 6 α ⇒ |f (x) − C| = 0 6 ε
∀x ∈ R2 , kx − ak 6 α ⇒ |f (x) − 0| = kx − ak 6 ε
1
Exemple Soit f : R2 \ {a} → R définie par f (x) =
kx − ak
On a f (x) −−−→ +∞.
x→a
En effet, pour tout M > 0, en prenant α = 1/M > 0, on a
1 1
∀x ∈ R2 \ {a} , kx − ak 6 α ⇒ f (x) = > =M
kx − ak α
Proposition
Soient f : X = X 0 ∪ X 00 ⊂ R2 → R et ` ∈ R̄.
Si f (x) −−−−−−−→
0
` et f (x) −−−−−−−→
00
` alors f (x) −−−−−−→ `.
x→a,x∈X x→a,x∈X x→a,x∈X
dém. :
Soit ε > 0. Il existe α0 , α00 > 0 vérifiant
∀x ∈ X = X 0 ∪ X 00 , kx − ak 6 α ⇒ |f (x) − `| 6 ε
23.1.2.2 Propriétés
Théorème
Soit f : X ⊂ R2 → R définie au voisinage de a ∈ R2 .
Si f → ` ∈ R̄ et si f → `0 ∈ R̄ alors ` = `0 .
a a
dém. :
Cas `, `0 ∈ R
Soit ε > 0. Il existe α, α0 > 0 tels que
∀x ∈ X, kx − ak 6 α ⇒ kf (x) − `k 6 ε et ∀x ∈ X, kx − ak 6 α0 ⇒ kf (x) − `0 k 6 ε
Considérons un x ∈ X tel que kx − ak 6 min(α, α0 ), il en existe car f est supposée définie au voisinage
de a.
Pour cet x, on a à la fois
|f (x) − `| 6 ε et |f (x) − `0 | 6 ε
On en déduit |` − `0 | 6 2ε et puisque ceci vaut pour tout ε > 0, on obtient ` = `0 .
Cas ` ∈ R et `0 = +∞.
Soient ε = 1/2 et M = |`| + 1.
Il existe α, α0 > 0 tels que
Considérons un x ∈ X tel que kx − ak 6 min(α, α0 ), il en existe car f est supposée définie au voisinage
de a.
Pour cet x, on a à la fois
|f (x) − `| 6 1/2 et f (x) > |`| + 1
ce qui est absurde car |f (x) − `| 6 1/2 entraîne |f (x)| 6 |`| + 1/2.
Les cas restants sont semblables.
Définition
Si f → ` ∈ R̄ alors on dit que ` est la limite de f en a et on note
a
Théorème
Soit f : X ⊂ R2 → R définie au voisinage de a ∈ R2 et ` ∈ R̄.
On a équivalence entre :
(i) f → ` ;
a
(ii) ∀(xn ) ∈ X N , xn → a ⇒ f (xn ) → `.
dém. :
Cas ` ∈ R.
(i) ⇒ (ii) Supposons que f tend vers ` en a. Soit (xn ) une suite d’éléments de X convergeant vers a.
Pour tout ε > 0, il existe α > 0 tel que
∀x ∈ X, kx − ak 6 α ⇒ |f (x) − `| 6 ε
∀n > N, kxn − ak 6 α
et alors
∀n ∈ N, |f (xn ) − `| 6 ε
En faisant varier n, ceci détermine une suite (xn ) d’éléments de X convergeant vers a mais dont l’image
par f ne tend pas vers `.
Les cas ` = +∞ et ` = −∞ sont analogues.
Proposition
Soient f, g, h : X ⊂ R2 → R définies au voisinage de a ∈ R2 et ` ∈ R.
Si |f (x) − `| 6 g(x) et g → 0 alors f → `.
a a
Si g 6 f 6 h et si g → ` et h → ` alors f → `.
a a a
Si f 6 g et f → +∞ alors g → +∞.
a a
Si f 6 g et g → −∞ alors f → −∞.
a a
dém. :
On peut procéder de façon élémentaire ou encore exploiter la caractérisation séquentielle des limites et
les résultats analogues relatifs aux suites réelles.
Proposition
Soient f, g : X ⊂ R2 → R définie au voisinage de a ∈ R2 telles que f → ` ∈ R̄ et g → `0 ∈ R̄.
a a
Si ` + `0 est définie dans R̄ alors f + g → ` + `0 .
a
Si ``0 est définie dans R̄ alors f g → ``0 . R̄
a
dém. :
On peut procéder de façon élémentaire ou encore exploiter la caractérisation séquentielle des limites et
les résultats analogues relatifs aux suites réelles.
Proposition
Soient ( (
X ⊂ R2 → R D⊂R→R
f: et ϕ :
(x1 , x2 ) 7→ f (x1 , x2 ) t → ϕ(t)
telles que f (X) ⊂ D
Si f (x) −−−→ ` ∈ R̄ et si ϕ(t) −−→ `0 ∈ R̄ alors (ϕ ◦ f )(x) −−−→ `0 .
x→a t→` x→a
dém. :
On peut procéder de façon élémentaire ou encore exploiter la caractérisation séquentielle des limites et
les résultats analogues relatifs aux suites réelles.
Proposition
Soient ( (
D ⊂ R → R2 X ⊂ R2 → R
γ: et f :
t → (x1 (t), x2 (t)) (x1 , x2 ) 7→ f (x1 , x2 )
telles que γ(D) ⊂ X
Si γ(t) −−−→ a et f (x) −−−→ ` ∈ R̄ alors (f ◦ γ)(t) −−−→ `.
t→t0 x→a t→t0
dém. :
On peut procéder de façon élémentaire ou encore exploiter la caractérisation séquentielle des limites et
les résultats analogues relatifs aux suites réelles.
23.1.2.3 Exemples d’étude
Soient p1 : (x1 , x2 ) 7→ x1 et p2 : (x1 , x2 ) 7→ x2 définies sur R2 .
En tout a = (a1 , a2 ) ∈ R2 , on a p1 → a1 et p2 → a2 car
a a
Autrement dit , on a
x1 −−−→ a1 et x2 −−−→ a2
x→a x→a
Exemple Etudions p
lim x2 + xy + y 2
(x,y)→(0,0)
Attention : Cette démarche ne consiste pas à faire tendre x vers 0 puis y vers 0 ce qui serait incorrect.
Ici, c’est le couple (x, y) qui tend vers (0, 0).
Exemple Etudions
1
lim
(x,y)→(0,0) x2 + y 2
Quand (x, y) → (0, 0) avec (x, y) 6= (0, 0), on a x → 0, y → 0 et donc x2 + y 2 → 0 avec x2 + y 2 > 0.
1
Or 1/t −−−−→ +∞ donc par composition de limite 2 → +∞.
t→0 + x + y2
1
Ainsi lim = +∞.
(x,y)→(0,0) x2 + y 2
Exemple Etudions
xy
lim p
(x,y)→(0,0) x2 + y 2
1ère méthode
Quand (x, y) → (0, 0) avec (x, y) 6= (0, 0), on a
xy 1p
− 0 6 x2 + y 2 → 0
p
x2 + y 2 2
xy
donc par comparaison lim p =0
(x,y)→(0,0) x2 + y 2
2ème méthode
Quand (x, y) → (0, 0) avec (x, y) 6=p(0, 0), on peut écrire en passant en coordonnées polaires
x = r cos θ et y = r sin θ avec r = x2 + y 2 → 0+ et θ bien choisi.
On a alors
xy
p = r cos θ sin θ → 0
x2 + y 2
xy
On retrouve lim p =0
(x,y)→(0,0) x2 + y 2
Exemple Etudions
x2 + y 2
lim
(x,y)→(0,0) x4 + y 4
1ère méthode
Quand (x, y) → (0, 0) avec (x, y) 6= (0, 0), on a
x2 + y 2 x2 + y 2 1
4 4
> 2 2 2
> 2 → +∞
x +y (x + y ) x + y2
x2 + y 2
donc par comparaison lim = +∞
(x,y)→(0,0) x4 + y 4
2ème méthode
Quand (x, y) → (0, 0) avec (x, y) 6=p(0, 0), on peut écrire en passant en coordonnées polaires
x = r cos θ et y = r sin θ avec r = x2 + y 2 → 0+ et θ bien choisi.
On a alors
x2 + y 2 1 1 1
= 2 > 2 → +∞
x4 + y 4 r cos4 θ + sin4 θ 2r
x2 + y 2
On retrouve lim = +∞.
(x,y)→(0,0) x4 + y 4
Exemple Etudions
xy
lim
(x,y)→(0,0) x2 + y 2
Quand (x, y) → (0, 0) avec (x, y) 6=p(0, 0), on peut écrire en passant en coordonnées polaires
x = r cos θ et y = r sin θ avec r = x2 + y 2 → 0+ et θ bien choisi
On a alors
xy
= cos θ sin θ
x2 + y2
qui ne semble pas avoir de limite. . .
xy
Posons f (x, y) = 2 définie sur R2 − {(0, 0)}.
x + y2
On a
f (0, 1/n) = 0 → 0 et f (1/n, 1/n) → 1/2
En vertu de la caractérisation séquentielle des limites, si f admet une limite en (0, 0) celle-ci doit valoir
0 et 1/2 ; c’est absurde. On peut donc affirmer l’inexistence de la limite étudiée.
Exemple Etudions
x2 − y 2
lim
(x,y)→(0,0) x2 + y 2
Quand (x, y) → (0, 0) avec (x, y) 6=p(0, 0), on peut écrire en passant en coordonnées polaires
x = r cos θ et y = r sin θ avec r = x2 + y 2 → 0+ et θ bien choisi
On a alors
x2 − y 2
= cos 2θ
x2 + y 2
qui ne semble pas avoir de limite. . .
x2 − y 2
Posons f (x, y) = 2 définie sur R2 − {(0, 0)}.
x + y2
On a f (1/n, 0) = 1 → 1 et f (0, 1/n) = −1 → −1
On peut affirmer l’inexistence de la limite étudiée.
Remarque Si on étudie une limite quand (x, y) → (a, b), on ramène le problème en (0, 0) par
translation des variables, x = a + h, y = b + k avec (h, k) → (0, 0). Comme dans les exemples
p cerner les ordres de grandeur en passant en coordonnées polaires h = r cos θ,
précédents, on peut alors
k = r sin θ avec r = h2 + k 2 → 0.
23.1.3 Continuité
23.1.3.1 Définition
Définition
On dit que f : X ⊂ R2 → R est continue en un point a ∈ X si f → f (a).
a
On dit que f est continue sur X si f est continue en tout point a ∈ X.
On note C(X, R) l’ensemble des fonctions réelles définies et continues sur X.
23.1.3.2 Opérations
Proposition
Soient f, g : X → R et λ ∈ R.
Si f et g sont continues alors λ.f, f + g, f g le sont aussi.
Ainsi C(X, R) est un sous-espace vectoriel et un sous anneau de F(X, R).
dém. :
Par opérations sur les limites en tout point a ∈ X.
Exemple Les fonctions σ : R2 → R et π : R2 → R définie par
σ(x1 , x2 ) = x1 + x2 et π(x1 , x2 ) = x1 x2
Proposition
Soient ( (
X ⊂ R2 → R D⊂R→R
f: et ϕ :
(x1 , x2 ) 7→ f (x1 , x2 ) t → ϕ(t)
telles que f (X) ⊂ D
Si f et ϕ sont continues alors ϕ ◦ f : (x1 , x2 ) 7→ ϕ(f (x1 , x2 )) est continue.
dém. :
Par opérations sur les limites en tout point a ∈ X.
Exemple Si f : X → R est continue et ne s’annule pas sur X alors 1/f est continue.
Proposition
Soient ( (
D ⊂ R → R2 X ⊂ R2 → R
γ: et f :
t → (x1 (t), x2 (t)) (x1 , x2 ) 7→ f (x1 , x2 )
telles que γ(D) ⊂ X
Si f et γ sont continues alors f ◦ γ : t 7→ f (x1 (t), x2 (t)) l’est aussi.
dém. :
Par opérations sur les limites en tout point t ∈ D.
23.1.3.3 En pratique
Exemple L’application
xy + x sin y
(x, y) 7→
x2 + y 2 + 1
2
(1 − x2 )(1 − y 2 ) si (x, y) ∈ [−1, 1]
f : (x, y) 7→
0 sinon
Soit a = (x0 , y0 ) ∈ R2 .
2
Cas a ∈ ]−1, 1[
Sur un disque centré en a de rayon α > 0 suffisamment petit, on a f (x, y) = (1 − x2 )(1 − y 2 ) ce qui
permet d’affirmer que f est continue en a.
2
Cas a ∈ R2 \ [−1, 1]
Sur un disque centré en a de rayon α > 0 suffisamment petit, on a f (x, y) = 0 ce qui permet à nouveau
d’affirmer que f est continue en a.
2 2
Cas a ∈ [−1, 1] \ ]−1, 1[ .
2
Quand x → a avec a ∈ [−1, 1] , on a
2
et quand x → a avec a ∈
/ [−1, 1] , on a
f (x, y) = 0 → 0 = f (a)
On peut donc affirmer que f (x) tend vers f (a) quand x → a et donc encore une fois f est continue en a.
Définition
Soient f : X ⊂ R2 → R et a = (a1 , a2 ) ∈ X.
On appelle première application partielle de f au point a la fonction d’une variable réelle
f (., a2 ) : x1 7→ f (x1 , a2 )
f (a1 , .) : x2 7→ f (a1 , x2 )
Remarque Sur cette figure, on perçoit que les applications partielles en un point ne déterminent par
entièrement la fonction autour du point.
Proposition
Si f : X ⊂ R2 → R est continue alors les applications partielles de f en tout point a =
(a1 , a2 ) ∈ X sont continues.
dém. :
L’application partielle f (., a2 ) est continue par composition de l’application continue t 7→ (t, a2 ) avec
l’application f supposée continue. Il en est de même pour f (a1 , .).
Attention : La réciproque est fausse ; la continuité des applications partielles n’assure pas la continuité
de la fonction.
Exemple Considérons
(x + y)2
si (x, y) 6= (0, 0)
f (x, y) = x2 + y 2
1 sinon
(x + y)2
f (., y) : x 7→ si y 6= 0 et f (., 0) : x 7→ 1
x2 + y 2
(x + y)2
f (x, .) : y 7→ si x 6= 0 et f (0, .) : y 7→ 1
x2 + y 2
En fait, par la continuité des applications partielles de f , on connaît la continuité de f en tout point
lorsqu’on s’en rapproche de façon horizontale ou verticale ; ceci ne permet d’affirmer la continuité au
point lorsqu’on s’en rapproche de façon oblique.
Définition
Les fonctions réelles f1 , f2 sont appelées fonctions coordonnées de f .
Exemple f (x, y) = (x + y, x − y) définit une fonction de R2 vers R2 dont les fonctions coordonnées
sont polynomiales.
Définition
Soit a ∈ R2 tel que f est définie au voisinage de a.
On dit que f converge vers ` ∈ R2 en a et on note f → ` si
a
Proposition
En écrivant ` = (`1 , `2 ), on a équivalence entre :
(i) f −
→ `;
a
(ii) kf (x) − `k −−−→ 0 ;
x→a
(iii) f1 −
→ `1 et f2 −
→ `2 .
a a
dém. :
On a (i) ⇔ (ii) car
kf (x) − `k 6 ε ⇔ |kf (x) − `k − 0| 6 ε
On a (ii) ⇒ (iii) car
Proposition
Soient ( (
X ⊂ R2 → R2 Y ⊂ R2 → R
f: ,g:
(x1 , x2 ) 7→ f (x1 , x2 ) (y1 , y2 ) 7→ g(y1 , y2 )
telles que f (X) ⊂ Y .
Si f → b et g → ` ∈ R̄ alors g ◦ f → `.
a b a
dém. :
Cas ` ∈ R
Soit ε > 0. Il existe β > 0 tel que
∀y ∈ Y, ky − bk 6 β ⇒ |g(x) − `| 6 ε
Définition
On dit que f : X ⊂ R2 → R est continue en a ∈ X si f → f (a).
a
On dit que f est continue si f l’est en tout point a ∈ X.
On note C(X, R2 ) l’ensemble des fonctions à valeurs dans R2 définies et continues sur X.
Proposition
La fonction f : X ⊂ R2 → R2 est continue si ses fonctions coordonnées f1 et f2 le sont.
dém. :
Car f (x) −
→ f (a) si, et seulement si, f1 (x) −
→ f1 (a) et f2 (x) −
→ f2 (a).
a a a
Exemple La fonction f : (x, y) 7→ (x + y, x − y) est continue sur R2 car ses fonctions coordonnées le
sont.
Proposition
Soient ( (
X ⊂ R2 → R2 B ⊂ R2 → R
f: et g :
(x1 , x2 ) 7→ f (x1 , x2 ) (y1 , y2 ) 7→ g(y1 , y2 )
telles que f (X) ⊂ B
Si f et g sont continues alors g ◦ f l’est aussi.
dém. :
Par composition de limites.
Remarque Ce résultat se généralise évidemment au cas où g serait une fonction à valeurs dans R2 .
∀a ∈ U, ∃α > 0, D(a, α) ⊂ U
Exemple
Exemple Le produit cartésien de deux intervalles ouverts de R est une partie ouverte de R2 .
Définition
On dit que f est dérivable en a selon le vecteur h si l’application t 7→ f (a + t.h) est dérivable
en 0.
Si tel est le cas, son nombre dérivé est appelé nombre dérivé de f en a selon le vecteur h et on
le note Dh f (a). Ainsi et sous réserve d’existence
1
Dh f (a) = lim (f (a + t.h) − f (a))
t→0 t
Remarque Le calcul de Dh f (a) ne prend en compte que les valeurs de f sur la droite passant par a et
dirigé par h.
On a
1 1
(a1 + t h1 )(a2 + t h2 )2 − a1 a22 −−−→ a22 h1 + 2a1 a2 h2
(f (a + t.h) − f (a)) =
t t t→0
Pour i = 1 ou 2.
Définition
Pour i = 1 ou 2 et sous réserve d’existence, on appelle nombre dérivé partiel de f en a selon
sa i-ème variable, le nombre dérivé de f en a selon le vecteur ei . Celui-ci est noté Di f (a) au
lieu de Dei f (a).
Définition
Sous réserve d’existence, on appelle dérivée partielle de f selon sa i-ème variable l’application
(
U →R
Di f :
a 7→ Di f (a)
Attention : On ne parle pas de la dérivée d’une fonction de deux variables réelles mais de ses deux
dérivées partielles.
Théorème
Les dérivées partielles de f sont les dérivées de ses applications partielles.
dém. :
Considérons les applications partielles de f au point (x1 , x2 )
1 1
(f (x1 + t, x2 ) − f (x1 )) = (f1 (x1 + t) − f1 (x1 ))
t t
Par suite D1 f (x1 , x2 ) existe si, et seulement si, f10 (x1 ) existe et si tel le cas
d d
D1 f (x1 , x2 ) = (f (x1 , x2 )) et D2 f (x1 , x2 ) = (f (x1 , x2 ))
dx1 dx2
Remarque Si on convient de noter (x, y) le couple de variables réelles de f , il est alors fréquent de
noter
∂f ∂f
et
∂x ∂y
au lieu de D1 f et D2 f les deux dérivées partielles de f .
Ainsi
∂f d 1
(x, y) = (f (x, y)) = lim (f (x + t, y) − f (x, y))
∂x dx t→0 t
et
∂f d 1
(x, y) = (f (x, y)) = lim (f (x, y + t) − f (x, y))
∂y dy t→0 t
Remarque Si on convient plutôt de noter (u, v) le couple de variables réelles de f , les dérivées
partielles de f sont notées
∂f ∂f
et
∂u ∂v
Exemple Considérons la fonction définie sur R+? × RR2 donnée par la relation f (x, t) = xt .
On a
∂f ∂f
(x, t) = txt−1 et (x, t) = ln x.xt
∂x ∂t
∂f
(0, 0) = 0
∂x
De même on obtient
∂f
(0, 0) = 0
∂y
Remarque Dans l’exemple précédent, la fonction n’est pas continue en (0, 0) car
Soit i = 1 ou 2.
Proposition
Soient f, g : U → R et λ ∈ R.
Si les dérivées partielles Di f et Di g existent alors les dérives partielles Di (λf ), Di (f +
g), Di (f g) existent et on a les identités
Di (λf ) = λDi f , Di (f + g) = Di f + Di g et Di (f g) = Di f × g + f × Di g
dém. :
C’est immédiat puisque les dérivées partielles sont les dérivées des applications partielles
Proposition
Soient ( (
U ⊂ R2 → R I⊂R→R
f: et ϕ :
(x1 , x2 ) 7→ f (x1 , x2 ) t → ϕ(t)
telles que f (U ) ⊂ I
Si Di f et ϕ0 existent alors Di (ϕ ◦ f ) existe et
Di (ϕ ◦ f ) = Di f × ϕ0 ◦ f
dém. :
C’est immédiat puisque les dérivées partielles sont les dérivées des applications partielles
∂f ∂f
(x, y) = yg 0 (xy) et (x, y) = xg 0 (xy)
∂x ∂y
Comme pour les fonctions à valeurs réelles, on définit la notion de dérivée selon un vecteur et de dérivées
partielles pour les fonctions à valeurs dans R2 . On peut étudier une fonction à valeurs dans R2 à partir de
ses fonctions coordonnées en vertu du résultat suivant
Proposition
Soit (
U → R2
f:
(x1 , x2 ) 7→ (f1 (x1 , x2 ), f2 (x1 , x2 ))
dém. :
Pour étudier la dérivabilité de f au point a selon le vecteur h on étudie la convergence quand h → 0 de
1 1 1
[f (a + h) − f (a)] = [f1 (a + h) − f1 (a)] , [f2 (a + h) − f2 (a)]
h h h
Cette convergence est liée aux convergences des fonctions coordonnées associées c’est-à-dire à la dérivabilité
des fonctions coordonnées f1 et f2 au point a selon le vecteur h.
Remarque Sous réserve d’existence, on a pour i = 1 ou 2
Di f = (Di f1 , Di f2 )
puisque les dérivées partielles sont les dérivées selon les vecteurs de la base canonique.
Théorème
Soient f : U → R une fonction de classe C 1 et a ∈ U .
Pour tout h = (h1 , h2 ) tel que a + h ∈ U , on peut écrire :
∆(h)
ε(h) = −−−−−→ 0
khk h→(0,0)
Puisque a ∈ U et que U est ouvert, il existe α > 0 tel que
[a1 − α, a1 + α] × [a2 − α, a2 + α] ⊂ U
avec
et
∆2 (h) = f (a1 , a2 + h2 ) − f (a1 , a2 ) − h2 D2 f (a1 , a2 )
Considérons l’application partielle t 7→ f (t, a2 + h2 ), celle-ci est définie au moins sur l’intervalle
[a1 − α, a1 + α] et a pour fonction dérivée t 7→ D1 f (t, a2 ). En lui appliquant le théorème des accroissements
finis entre a1 et a1 + h1 on obtient l’existence d’un élément c1 (h) compris entre a1 et a1 + h1 vérifiant :
De même, en considérant l’application partielle t 7→ f (a1 , t), on obtient l’existence d’un élément c2 (h)
compris entre a2 et a2 + h2 vérifiant
∆(h)
6 |D1 f (c1 (h), a2 + h2 ) − D1 f (a1 , a2 )| + |D2 f (a1 , c2 (h)) − D2 f (a1 , a2 )|
khk
Quand h → (0, 0), h1 → 0 et h2 → 0 donc, par encadrement
c1 (h) → a1 et c2 (h) → a2
Par composition de limite, sachant que les fonctions D1 f et D2 f sont continues en a, on obtient :
Corollaire
Si f est une fonction de classe C 1 alors f est continue.
dém. :
Quand h → 0,
23.3.2 Gradient
Soient f : U → R une fonction et un point a ∈ U .
Proposition
Si f est de classe C 1 alors f est dérivable en a selon tout vecteur h = (h1 , h2 ) de R2 et
dém. :
Pour étudier Dh f (a), on étudie la convergence quand t → 0 de la quantité
1
(f (a + t.h) − f (a))
t
Or, par développement limité à l’ordre 1, on a
1 |t|
(f (a + t.h) − f (a)) = D1 f (a).h1 + D2 f (a).h2 + ε(t.h)
t t
avec une fonction ε qui converge vers 0 en (0, 0).
On en déduit
1
(f (a + t.h) − f (a)) −−−→ D1 f (a).h1 + D2 f (a).h2
t t→0
Exemple Reprenons la fonction polynomiale définie sur R2 par la relation f (x1 , x2 ) = x1 x22 .
f est de classe C 1 car polynomiale et par un calcul immédiat
On retrouve ainsi, avec plus de simplicité, un résultat obtenu dans un exemple précédent.
(
R2 → R
h 7→ Dh f (a)
Définition
Si f est de classe C 1 , on appelle gradient de f en a le vecteur
1
(gradf (a) | u) = Du f (a) = lim (f (a + tu) − f (a))
t→0 t
Cette quantité est maximale quand u a le sens et la direction du vecteur gradf (a). Ainsi le vecteur
gradient indique la direction de la plus grande pente, son sens donne le sens de progression croissante
sur cette pente et sa norme donne la valeur de cette pente maximale.
Proposition
Soient f, g : U → R et λ ∈ R.
Si f et g sont de classe C 1 alors les fonctions λ.f, f + g, f g le sont aussi.
dém. :
Les dérivées partielles à considérer existent et sont continues.
Remarque Par suite, l’ensemble C 1 (U, R) est un sous-espace vectoriel et un sous anneau de C(U, R).
Proposition
Soient ( (
U →R I→R
f: et ϕ :
(x1 , x2 ) 7→ f (x1 , x2 ) t 7→ ϕ(t)
telles que f (U ) ⊂ I
Si f et ϕ sont de classe C 1 alors ϕ ◦ f : (x1 , x2 ) 7→ ϕ(f (x1 , x2 )) l’est aussi.
dém. :
Les dérivées partielles à considérer existent et sont continues.
Proposition
Soient ( (
I → R2 U →R
ϕ: et f :
t 7→ (ϕ1 (t), ϕ2 (t)) (x1 , x2 ) 7→ f (x1 , x2 )
telles que ϕ(I) ⊂ U
Si f et ϕ sont de classe C 1 alors f ◦ ϕ : t 7→ f (ϕ1 (t), ϕ2 (t)) l’est aussi et
d
(f (ϕ1 (t), ϕ2 (t)) = ϕ01 (t)D1 f (ϕ(t)) + ϕ02 (t)D2 f (ϕ(t))
dt
dém. :
Pour étudier la dérivabilité de f ◦ ϕ en t0 ∈ I, étudions la convergence quand t → 0 du taux de variation
1 1
((f ◦ ϕ)(t0 + t) − (f ◦ ϕ)(t0 )) = (f (a + h) − f (a))
t t
avec a = ϕ(t0 ) et a + h = ϕ(t0 + t) i.e. h = ϕ(t0 + t) − ϕ(t0 ).
On a
a = (ϕ1 (t0 ), ϕ2 (t0 ))
et
h = (h1 , h2 ) = (ϕ1 (t0 + t) − ϕ1 (t0 ), ϕ2 (t0 + t) − ϕ2 (t0 ))
Par développement limité à l’ordre 1 de la fonction f , on peut écrire
1 1
(f (a + h) − f (a)) = [D1 f (a)h1 + D2 f (a).h2 + khk ε(h)]
t t
ou encore
1 ϕ1 (t0 + t) − ϕ1 (t0 ) ϕ2 (t0 + t) − ϕ2 (t0 ) khk
(f (a + h) − f (a)) = D1 f (a) + D2 f (a) + ε(h)
t t t t
Quand t → 0, on a h → (0, 0) par continuité de ϕ1 et ϕ2 .
On a aussi
ϕi (t0 + t) − ϕi (t0 )
→ ϕ0i (t0 )
t
et donc
khk
h
0 0
t =
t
→ k(ϕ1 (t0 ), ϕ2 (t0 )k
et on en déduit
khk
ε(h) → 0
t
et finalement
1
((f ◦ ϕ)(t0 + t) − (f ◦ ϕ)(t0 )) → ϕ01 (t0 )D1 f (ϕ(t0 )) + ϕ02 (t0 )D2 f (ϕ(t0 ))
t
Ainsi la fonction f ◦ ϕ est dérivable en t0 et
La fonction f ◦ϕ est alors dérivable sur I et puisque sa dérivée est continue par opération sur des fonctions
qui le sont, on peut affirmer que la fonction f ◦ ϕ est de classe C 1 .
Remarque En pratique, il convient de savoir mettre en place cette formule en utilisant les notations des
dérivées partielles de f en fonction des notations convenues des variables réelles de f . Autrement dit, si
∂f ∂f
f est vue en le couple de variable (x, y), on écrit et plutôt que D1 f et D2 f .
∂x ∂y
Exemple Soient (
R2 → R
f:
(x, y) 7→ f (x, y)
une fonction de classe C 1 et g : R → R la fonction définie par la relation g(t) = f (cos t, sin t).
Par composition, la fonction g est de classe C 1 et on a
d ∂f ∂f
g 0 (t) = (f (cos t, sin t)) = (− sin t) × (cos t, sin t) + cos t × (cos t, sin t)
dt ∂x ∂y
∂f
Remarque Dans le contexte en cours, écrire n’a aucun sens car t ne désigne pas une variable de f
∂t
∂f
et donc ne désigne par une dérivée partielle de f . . .
∂t
(
R2 → R
Exemple Soient f : une fonction de classe C 1 et g : R → R la fonction définie par
(x, y) 7→ f (x, y)
la relation g(t) = f (2t, 1 + t2 ).
Par composition, la fonction g est de classe C 1 et
∂f ∂f
g 0 (t) = 2 (2t, 1 + t2 ) + 2t (2t, 1 + t2 )
∂x ∂y
Remarque Si, pour changer, on avait convenait de noter (u, v) les variables de la fonction f , la relation
précédente aurait été réécrite
∂f ∂f
g 0 (t) = 2 (2t, 1 + t2 ) + 2t (2t, 1 + t2 )
∂u ∂v
Proposition
f : U → R2 est C 1 si, et seulement si, ses fonctions coordonnées le sont.
dém. :
Car les fonctions coordonnées des dérivées partielles de f , sont les dérivées partielles des fonctions
coordonnées de f au contraire du frère de ma sœur qui n’est pas la sœur de mon frère. . .
Théorème
Soient
( (
U → R2 V →R
f: et g :
(x1 , x2 ) 7→ (f1 (x1 , x2 ), f2 (x1 , x2 )) (y1 , y2 ) 7→ g(y1 , y2 )
telles que f (U ) ⊂ V .
Si les fonctions f et g sont de classe C 1 alors la fonction composée g ◦ f l’est aussi et ses
dérivées partielles sont
et
dém. :
Soit x2 fixé. Considérons les applications partielles des fonctions f1 et f2 suivantes
ϕ1 : x1 7→ f1 (x1 , x2 ) et ϕ2 : x1 7→ f2 (x1 , x2 )
Sous réserve d’existence, la première dérivée partielle de g ◦ f en (x1 , x2 ) est la dérivée de l’application
partielle
x1 7→ g(ϕ1 (x1 ), ϕ2 (x1 )) = g(ϕ(x))
Or, par composition de fonction de classe C 1 , cette dernière fonction est dérivable et
d
(g(ϕ(x1 ))) = ϕ01 (x1 )D1 g(f (x)) + ϕ02 (x1 )D2 g(f (x))
dx1
Sachant
d
D1 (g ◦ f )(x1 , x2 ) = (g(ϕ1 (x1 ), ϕ2 (x1 ))) et Di f (x1 , x2 ) = ϕ0i (x1 )
dx1
on obtient la relation proposée.
Rq Ce résultat se généralise aux fonctions g à valeurs dans R2 .
Remarque En pratique, il convient de savoir adapter ce qui précède aux notations convenues des
dérivées partielles des fonctions engagées. . .
Exemple Soient ( (
R2 → R2 R2 → R
f: et g :
(x, y) 7→ (xy, x2 + y 2 ) (u, v) 7→ g(u, v)
de classe C 1 . (
R2 → R
L’application g ◦ f : est de classe C 1 par composition et on a :
(x; y) 7→ g(xy, x2 + y 2 )
∂(g ◦ f ) ∂g ∂g
(x, y) = y (x + y, x2 + y 2 ) + 2x (x + y, x2 + y 2 )
∂x ∂u ∂v
et
∂(g ◦ f ) ∂g ∂g
(x, y) = x (x + y, x2 + y 2 ) + 2y (x + y, x2 + y 2 )
∂y ∂u ∂v
(
R2 → R
Exemple Soit f : une fonction de classe C 1 et g : R2 → R définie par
(x, y) 7→ f (x, y)
g(u, v) = f (u + v, uv).
g est de classe C 1 par la composition et de plus
∂g d ∂f ∂f
(u, v) = (f (u + v, uv)) = (u + v, uv) + v (u + v, uv)
∂u du ∂x ∂y
et
∂g d ∂f ∂f
(u, v) = (f (u + v, uv)) = (u + v, uv) + u (u + v, uv)
∂v dv ∂x ∂y
Définition
Pour i, j = 1 ou 2, l’application Dj (Di f ), si elle existe, est appelée dérivée partielle d’ordre 2
de f en sa i-ème puis j-ème variable. Celle-ci est notée Dj,i f .
∂2f ∂2f
ou quand i = j
∂xj ∂xi ∂x2i
les dérivées partielles d’ordre 2 de f .
Définition
On dit que f est de classe C 2 sur U si toutes les dérivées partielles d’ordre 2 de f existent et
sont continues sur U .
On note C 2 (U, R) l’ensemble des fonctions de U vers R de classe C 2 .
Proposition
f est de classe C 2 si, et seulement si, ses dérivées partielles (d’ordre 1) existent et sont de
classe C 1 .
dém. :
Les dérivées partielles d’ordre 2 de f sont les dérivées partielles des dérivées partielles de f .
Si f est de classe C 2 alors les dérivées partielles (d’ordre 1) de f existent et admettent des dérivées
partielles continues, elles sont donc de classe C 1 .
Inversement, si les dérivées partielles de f existent et sont de classe C 1 alors f admet des dérivées
partielles d’ordre 2 et celles-ci sont continues donc f est de classe C 2 .
Théorème
Soit une fonction (
U →R
f:
(x1 , x2 ) 7→ f (x1 , x2 )
dém. :
Soit a = (a1 , a2 ) ∈ U .
Puisque a ∈ U et que U est ouvert, il existe α > 0 tel que [a1 − α, a1 + α] × [a2 − α, a2 + α] ⊂ U .
Considérons h = (h1 , h2 ) ∈ R2 tel que khk 6 α de sorte que h1 ∈ [a1 − α, a1 + α] et h2 ∈
[a2 − α, a2 + α].
Posons
∆(h) = f (a1 + h1 , a2 + h2 ) − f (a1 + h1 , a2 ) − f (a1 , a2 + h2 ) + f (a1 , a2 )
Nous allons établir l’égalité voulue en étudiant de deux manières la limite quand h → 0 du rapport
∆(h)
h1 h2
Commençons en considérant l’application t 7→ f (t, a2 + h2 ) − f (t, a2 ). Celle-ci est définie au moins sur
l’intervalle [a1 − α, a1 + α] et a pour fonction dérivée
∂f ∂f
t 7→ (t, a2 + h2 ) − (t, a2 )
∂x1 ∂x1
En lui appliquant le théorème des accroissements finis entre a1 et a1 +h1 qui sont éléments de [a1 − α, a1 + α],
on obtient l’existence d’un élément c1 (h) compris entre a1 et a1 + h1 tel que
∂f ∂f
∆(h) = h1 (c1 (h), a2 + h2 ) − (c1 (h), a2 )
∂x1 ∂x1
∂f
En appliquant à nouveau le théorème des accroissements finis, cette fois-ci à l’application t 7→ (c1 (h), t)
∂x1
entre a2 et a2 + h2 , on obtient l’existence d’un élément c2 (h) compris entre a2 et a2 + h2 tel que
∂2f
∆(h) = h1 h2 (c1 (h), c2 (h))
∂x2 ∂x1
∂2f
Quand h → (0, 0), h1 → 0 et h2 → 0 donc par encadrement c1 (h) → a1 et c2 (h) → a2 . Or est
∂x2 ∂x1
continue donc, par composition de limites
∆(h) ∂2f
→ (a1 , a2 )
h1 h2 ∂x2 ∂x1
En procédant de même, mais en appliquant le théorème des accroissements finis à la fonction t 7→ f (a1 +
h1 , t)−f (a1 , t) entre a2 et a2 +h2 , on obtient l’existence d’un élément d2 (h) intermédiaire à a2 et a2 +h2
tel que
∂f ∂f
∆(h) = h2 (a1 + h1 , d2 (h)) − (a2 + d2 (h))
∂x2 ∂x2
En appliquant une dernière fois le TAF, on obtient d1 (h) intermédiaire à a1 et a1 + h1 tel que
∂2f
∆(h) = h2 h1 (d1 (h), d2 (h))
∂x1 ∂x2
∂2f ∂2f
(a) = (a)
∂x1 ∂x2 ∂x2 ∂x1
xy 3
f (x, y) = si (x, y) 6= (0, 0) et f (0, 0) = 0
x2 + y 2
p (x, y) → (0, 0) avec (x, y) 6= (0, 0), on peut écrire x = r cos θ et y = r sin θ avec
Quand
r = x2 + y 2 → 0 et alors
∂f (y 2 − x2 )y 3 ∂f (3x2 + y 2 )xy 2
(x, y) = 2 2 2
et (x, y) =
∂x (x + y ) ∂y (x2 + y 2 )2
De plus
∂f 1 ∂f 1
(0, 0) = lim (f (t, 0) − f (0, 0)) = 0 et (0, 0) = lim (f (0, t) − f (0, 0)) = 0
∂x t→0 t ∂y t→0 t
et on vérifie comme ci-dessus que les dérivées partielles de f sont continues en (0, 0). Ainsi la fonction
f est de classe C 1 .
Cependant
∂2f
1 ∂f ∂f
(0, 0) = lim (0, t) − (0, 0) = 1
∂y∂x t→0 t ∂x ∂x
et
∂2f
1 ∂f ∂f
(0, 0) = lim (t, 0) − (0, 0) =0
∂x∂y t→0 t ∂y ∂y
Proposition
Soient ( (
U →R I→R
f: et ϕ :
(x1 , x2 ) 7→ f (x1 , x2 ) t 7→ ϕ(t)
telles que f (U ) ⊂ I.
Si f et ϕ sont de classe C 2 alors ϕ ◦ f : (x1 , x2 ) 7→ ϕ(f (x1 , x2 )) l’est aussi.
dém. :
Les dérivées partielles de la fonctions ϕ ◦ f existent et sont de classe C 1 par opérations.
Exemple Si f : U ⊂ R2 → R est de classe C 2 et ne s’annule pas alors la fonction 1/f est de classe C 2 .
Proposition
Soient ( (
I → R2 U →R
γ: et f :
t 7→ (x1 (t), x2 (t)) (x1 , x2 ) 7→ f (x1 , x2 )
telles que γ(I) ⊂ U .
Si f et γ sont de classe C 2 alors f ◦ ϕ l’est aussi.
dém. :
La dérivée de f ◦ γ existe et est de classe C 1 par opérations.
Proposition
Une fonction f : U → R2 est de classe C 2 si, et seulement si, ses fonctions coordonnées le
sont.
Proposition
Soient
( (
U → R2 V →R
f: et g :
(x1 , x2 ) 7→ (f1 (x1 , x2 ), f2 (x1 , x2 )) (y1 , y2 ) 7→ g(y1 , y2 )
telles que f (U ) ⊂ V .
Si f et g sont C 2 alors g ◦ f l’est aussi.
Exemple Soient une fonction f : (x, y) 7→ f (x, y) de classe C 2 définie sur R2 et g(u, v) = f (u + v, uv)
La fonction g est de classe C 2 par composition ; exprimons ses dérivées partielles d’ordre 2.
On a déjà
∂g ∂f ∂f ∂g ∂f ∂f
= +v et = +u
∂u ∂x ∂y ∂v ∂x ∂y
On en déduit
∂2g ∂2f ∂2f ∂2f
2
= 2
+ 2v + v2 2
∂u ∂x ∂x∂y ∂y
∂2g ∂2f ∂2f ∂2f ∂f
= + (u + v) + uv +
∂u∂v ∂x2 ∂x∂y ∂y 2 ∂y
et
∂2g ∂2f ∂2f ∂2f
2
= 2
+ 2u + u2 2
∂v ∂x ∂x∂y ∂y
Définition
Soit f : U → R de classe C 1 . On dit que f admet un point critique en a ∈ U si ses dérivées
partielles s’y annulent.
Théorème
Soient U un ouvert non vide de R2 et f : U → R une fonction de classe C 1 .
Si f admet un extremum local en a ∈ U alors c’est un point critique de f .
dém. :
Quitte à considérer −f , supposons que f admet un minimum local en a = (a1 , a2 ).
Il existe donc α > 0 tel que pour tout x ∈ D(a, α), f (x) > f (a).
Pour i = 1 ou 2, on a
1
Di f (a) = lim (f (a + t.ei ) − f (a))
t→0 t
Attention : La réciproque est fausse : un point critique peut ne pas être extremum local de la fonction.
- on étudie chaque point critique (x0 , y0 ) en se ramenant si besoin en (0, 0) via translation des variables
(
x = x0 + u
y = y0 + v
- enfin on passe éventuellement en coordonnées polaires pour mieux cerner les ordres de grandeur.
f (x, y) = x2 + y 2 + xy + 1
(1) On écrit (
x = r cos θ p
avec r = x2 + y 2 et θ ∈ R
y = r sin θ
On a alors
g(x, y) = r2 (1 + cos θ sin θ) > 0
Il y a donc un minimum en (0, 0).
(2) On a
1 3
g(x, y) = (x + y)2 + y 2 > 0
2 4
1 2
(3) Sachant |xy| 6 (x + y 2 ) on a
2
1 2
g(x, y) > (x + y 2 ) > 0
2
f (x, y) = x2 − y 2 + 1
(1) On écrit (
x = r cos θ p
avec r = x2 + y 2 et θ ∈ R
y = r sin θ
On a alors
g(x, y) = r2 (cos2 θ − sin2 θ)
Or cette expression n’est pas de signe constant au voisinage de (0, 0), on peut donc affirmer que (0, 0)
n’est pas un extremum local de f .
(2) On a
g(1/n, 0) = 1/n2 > 0
donc au voisinage de (0, 0), il existe des valeurs prises par f strictement supérieure à celle en (0, 0).
On en déduit que (0, 0) n’est pas un maximum local.
On a aussi
f (x, y) = x2 + y 2 + 4xy − 1
n’est pas de signe constant au voisinage de (0, 0) donc (0, 0) n’est pas extremum local.
(2) On a
g(x, y) = (x + 2y)2 − 3y 2
donc g(1/n, 0) = 1/n2 > 0 et g(−2/n, 1/n) = −3/n2 < 0.
f (x, y) = r2 (1 − r cos3 θ)
Par suite, au voisinage de (0, 0), f (x, y) > 0 et donc (0, 0) est un minimum local.
Etude en (2/3, 0) :
f (2/3, 0) = 4/27.
On se ramène en (0, 0) par translation
( (
x = 2/3 + u u = x − 2/3
,
y=v v=y
On a
f (x, y) − f (2/3, 0) = v 2 − u2 − u3 =
En posant (
u = r cos θ p
avec r = u2 + v 2 et θ ∈ R
v = r sin θ
Proposition
Soient I et J deux intervalles ouverts non vides de R et U = I × J.
Les solutions sur U de l’équation
∂f
(x, y) = 0
∂x
sont les fonctions f : (x, y) 7→ C(y) où C ∈ C 1 (J, R).
Les solutions sur U de l’équation
∂f
(x, y) = 0
∂y
sont les fonctions f : (x, y) 7→ C(x) où C ∈ C 1 (I, R).
dém. :
Soit f une fonction de classe C 1 solution sur U de l’équation
∂f
(x, y) = 0
∂x
Soit y ∈ J fixé.
∂f
L’application partielle x 7→ f (x, y) a pour dérivée (x, y) = 0, c’est donc une fonction constante.
∂x
Choisissons a ∈ I. On a
∀y ∈ J, C(y) = f (a, y)
Puisque la fonction f est de classe C , la fonction C et de classe C 1 par composition de telles fonctions.
1
z 0 = y.z
Les solution de cette équation différentielle sont les fonctions z(x) = Cexy .
∂f ∂f ∂ 2 f ∂ 2 f ∂2f
, , 2, et
∂x ∂y ∂x ∂x∂y ∂y 2
Proposition
Soient I et J deux intervalles ouverts non vides de R et U = I × J.
Les solutions sur U des équations
et
f : (x, y) 7→ C(x) + D(y)
∂2f
(x, y) = 0
∂x2
Soit y ∈ J fixé.
∂2f
L’application partielle x 7→ f (x, y) a pour dérivée (x, y) = 0, c’est donc une fonction affine.
∂x2
Ainsi il existe C(y), D(y) ∈ R tels que
∂2f
(x, y) = 0
∂x∂y
∂f
La fonction est alors solution sur U de l’équation aux dérivées partielles
∂y
∂g
=0
∂x
∂2f ∂2f 2
2∂ f
x2 + 2xy + y = xy
∂x2 ∂x∂y ∂y 2
en passant aux coordonnées polaires.
Passer aux coordonnées polaires consiste à écrire
(
x = r cos θ
y = r sin θ
Exemple
∂2y 1 ∂2y
2
= 2 2
∂x c ∂t
Modèle : on considère une corde tendue soumise à de petites oscillations, y(x, t) est la hauteur de la
corde au point d’abscisse x et à l’instant t, c est une vitesse de propagation, c’est une constante positive.
Pour résoudre cette équation, on procède au changement de variable
( (
u = x + ct x = (u + v)/2
soit
v = x − ct t = (u − v)/2c
La fonction z est de classe C 2 et on observe que y est solution de l’équation étudiée si, et seulement si,
∂2z
=0
∂u∂v
ce qui donne
z(u, v) = C(u) + D(v)
avec C, D fonctions de classe C 2 définie sur R
puis
y(x, t) = C(x + ct) + D(x − ct)
Cette solution y se comprend comme la somme de deux ondes de propageant à la vitesse c et en sens
inverses.
∂2f ∂2f
=
∂y∂x ∂x∂y
ce qui entraîne
∂P ∂Q
=
∂y ∂x
Cette condition est donc une condition nécessaire pour que le système possède une solution. Voyons, que
dans certaines situations, elle peut être suffisante.
Définition
Soient a, b ∈ R2 . On appelle segment d’extrémités a et b l’ensemble
Définition
On dit qu’un ouvert U de R2 est étoilé s’il existe a ∈ U vérifiant
∀x ∈ U, [a, x] ⊂ U
Exemple
Exemple Toute partie convexe est étoilée, en particulier le produit cartésien de deux intervalles réels est
étoilé.
Théorème
Soient U un ouvert étoilé de R2 et P, Q : U → R des fonctions de classe C 1 .
Le système
∂f
(x, y) = P (x, y)
∂x
∂f
(x, y) = Q(x, y)
∂y
admet une solution sur U si, et seulement si,
∂P ∂Q
=
∂y ∂x
De plus, si tel est le cas, les solutions se déduisent les une des autres par l’addition d’une
constante.
Remarque En sciences physiques, ce résultat permet de caractériser les forces du plan dérivant d’un
potentiel.
Définition
On appelle champ scalaire du plan (resp. de l’espace) toute fonction F : D → R définie sur
une partie D du plan (resp. de l’espace).
Définition
La fonction f est appelée représentation cartésienne du champ scalaire F (dans le repère R ).
On dit que champ scalaire F est continue (resp. de classe C 1 , C 2 ) si la fonction f l’est.
Remarque Par les formules de changement de repère, on peut montrer que la notion ne dépend pas du
choix du repère R du plan P.
Définition
Si l’on convient de noter (x, y) les coordonnées dans R d’un point générique M , on pose, sous
réserve d’existence
∂F ∂f ∂F ∂f
(M ) = (x, y) et (M ) = (x, y)
∂x ∂x ∂y ∂y
Pour tout couple (r, θ) ∈ R+? × R tel que le point M de coordonnées polaires (r, θ) est élément de D,
on pose
f˜(r, θ) = F (M )
Définition
La fonction f˜ est appelée représentation polaire du champ scalaire F (dans le repère R ).
Définition
Si l’on convient de noter les coordonnées polaire dans R d’une point générique M , on pose,
sous réserve d’existence
∂F ∂ f˜ ∂F ∂ f˜
(M ) = (r, θ) et (M ) = (r, θ)
∂r ∂r ∂θ ∂θ
∂F ∂F
(M ) = 2r et (M ) = 0
∂r ∂θ
Remarque Dans la pratique, il est très fréquent de ne pas distinguer les objets F , f et f˜.
Cela permet l’écriture abusive
F (M ) = OM 2 = x2 + y 2 = r2
qui rend les manipulations qui précèdent immédiates.
F (M ) = OM
On a p
F (M ) = x2 + y 2 + z 2
donc
∂F x ∂F y ∂F z
(M ) = p , (M ) = p et (M ) = p
∂x x2 + y 2 + z 2 ∂y x2 + y 2 + z 2 ∂z x2 + y 2 + z 2
On a aussi p
F (M ) = ρ2 + z 2
donc
∂F ρ ∂F
(M ) = p et (M ) = 0
∂ρ ρ2 + z 2 ∂ϕ
On a encore
F (M ) = r
donc
∂F ∂F
(M ) = 1 et (M ) = 0
∂r ∂θ
Soit F~ un champ de vecteurs du plan défini sur D. Pour tout M ∈ D, on peut écrire
P, Q, R : D → P
permettant d’écrire
F~ (M ) = P (M )~i + Q(M )~j + R(M )~k
−−→
Exemple Pour F~ (M ) = OM dans le plan, on obtient
P (M ) = x et Q(M ) = y
−−→
Exemple Pour F~ (M ) = ω
~ ∧ OM dans l’espace, on obtient
P (M ) = ωy z − ωz y, Q(M ) = ωz x − ωx z et R(M ) = ωx y − ωy x
Définition
Un champ de vecteurs est dit continue (resp. de classe C 1 , C 2 ) si ses fonctions composantes le
sont.
Remarque A partir de ses fonctions composantes, on peut définir les dérivées partielles d’un champ de
vecteur F~ .
Remarque On peut montrer que levecteur gradient est indépendant du choix du repère orthonormé R.
Remarque Ce vecteur indique la direction dans laquelle la progression du champ scalaire F est la plus
importante.
−−→ −−→
Exemple Pour F (M ) = OM 2 , on a grad F = 2OM
Proposition
Soient F et G deux champs scalaires de classe C 1 et λ ∈ R. On a
−−→ −−→ −−→ −−→ −−→
grad λ.F = λ.grad F , grad (F + G) = grad F + grad G
et
−−→ −−→ −−→
grad (F G) = F.grad G + G.grad F
dém. :
Par opération sur les dérivées partielles. . .
Proposition
Soit F un champ scalaire de classe C 1 du plan.
On a
−−→ ∂F 1 ∂F
grad F (M ) = (M )~uθ + (M )~vθ
∂r r ∂θ
dém. :
Introduisons f et f˜ les représentations cartésienne et polaire de F . On a
f (M ) = f (x, y) = f˜(r, θ)
∂ f˜ ∂f ∂f
(r, θ) = cos θ (r cos θ, r sin θ) + sin θ (r cos θ, r sin θ)
∂r ∂x ∂y
∂ f˜ ∂f ∂f
(r, θ) = r sin θ (r cos θ, r sin θ) + −r cos θ (r cos θ, r sin θ)
∂θ ∂x ∂y
Ainsi
∂F ∂F ∂F
(M ) = cos θ (M ) + sin θ (M ) (1)
∂r ∂x ∂y
et
∂F ∂F ∂F
(M ) = −ρ sin θ (M ) + r cos θ (M ) (2)
∂θ ∂x ∂y
1 1
Les combinaisons cos θ × (1) − sin θ × (2) et sin θ × (1) + cos θ × (2) donnent alors
r ρ
∂F ∂F 1 ∂F
(M ) = cos θ (M ) − sin θ (M )
∂x ∂r r ∂θ
et
∂F ∂F 1 ∂F
(M ) = sin θ (M ) + cos θ (M )
∂y ∂r r ∂θ
et on en déduit
−−→ ∂F 1 ∂F
grad F (M ) = (M )~uθ + (M )~vθ
∂r r ∂θ
Définition
On dit qu’un champ de vecteurs F~ dérive d’un potentiel scalaire s’il existe un champ scalaire
V de classe C 1 vérifian
−−→
F~ = grad V
Le champ scalaire V est alors appelé potentiel scalaire de F~ .
−−→ 1
Exemple Le champ de vecteur F~ (M ) = OM dérive du potentiel V (M ) = OM 2 .
2
∂P ∂Q
=
∂y ∂x
Inversement, si F~ est défini sur un ouvert étoilé, cette condition est suffisante.
23.6.4.3 Cadre de l’espace
−−→
Si F~ (M ) = P (M )~i + Q(M )~j + R(M )~k alors F~ = grad V si, et seulement si,
∂V
∂x (M ) = P (M )
∂V
(M ) = Q(M )
∂y
∂V (M ) = R(M )
∂z
∂P ∂Q ∂Q ∂R ∂R ∂P
= , = et =
∂y ∂x ∂z ∂y ∂x ∂z
Inversement, si F~ est défini sur un ouvert étoilé, cette condition est suffisante.
23.6.5 Divergence d’un champ de vecteurs
Définition
Soit F~ un champ de vecteurs du plan de classe C 1 et de fonctions composantes P et Q
On appelle divergence du champ de vecteurs F~ le champ scalaire défini par
∂P ∂Q
divF~ (M ) = (M ) + (M )
∂x ∂y
Remarque On peut montrer que ce vecteur est indépendant du choix du repère orthonormé R.
−−→
Exemple Dans le plan, pour F~ (M ) = OM on a divF~ (M ) = 2.
−−→
~ OM
Exemple Dans le plan, pour F (M ) = on a divF~ (M ) = 0.
OM 2
Proposition
Soient F~ , G
~ champs de vecteurs de classe C 1 , F un champ scalaire de classe C 1 et λ ∈ R. On
a
div(λ.F~ ) = λ.divF~ , div(F~ + G)
~ = divF~ + divG ~
et
~ +−
~ = F.divG
div(F.G)
−→ ~
grad F.G
dém. :
Par opérations sur les dérivées partielles. . .
Remarque On peut montrer que ce vecteur est indépendant du choix du repère orthonormé direct R.
−−→ −→
Exemple Pour F~ (M ) = OM on a Rot F~ = ~0.
−−→ −→
Exemple Pour F~ (M ) = ω
~ ∧ OM on a Rot F~ = 2~
ω.
Proposition
Soient F~ , G
~ deux champs de vecteurs de classe C 1 , F un champ scalaire de classe C 1 et λ ∈ R.
On a
−→ −→ −→ ~ =− → −→ ~
Rot (λ.F~ ) = λ.Rot F~ , Rot (F~ + G) Rot F~ + Rot G
et
−→ ~ = F.−→ ~ −−→ ~
Rot (F.G) RotG + grad F ∧ G
dém. :
Par opérations sur les dérivées partielles. . .
Théorème
Si F est un champ scalaire de classe C 2 alors
−→ −−→
Rot(grad F ) = ~0
dém. :
Par opérations sur les dérivées partielles et exploitation du théorème de Schwarz.
−→
Remarque Si F~ dérive d’un champ scalaire alors Rot F~ = ~0.
De plus, la réciproque est vraie lorsque le domaine de définition est étoilé.
~ = ∂ ~i + ∂ ~j (resp. ∇
∇ ~ = ∂ ~i + ∂ ~j + ∂ ~k ).
∂x ∂y ∂x ∂y ∂z
Formellement, on a :
−−→ ~ F~ et −
~ ), divF~ = ∇. →
grad F = ∇(F Rot F~ = ∇
~ ∧ F~
−→ −−→
La propriété Rot(grad f ) = ~0 se relit
~ ∧ (∇f
∇ ~ ) = ~0
−→
La propriété div(Rot F~ ) = 0 se relit
~ ∇
∇.( ~ ∧ F~ ) = 0
I Algèbre 3
1 Eléments de mathématiques 5
1.1 Les objets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Ensembles et éléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Inclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3 Produit cartésien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3.1 Couple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3.2 Multiplet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.4 Fonctions et applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Notions de logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 Assertion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Négation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.3 Conjonction et disjonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.4 Implications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.5 Equivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.6 Quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 Raisonnements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.1 Démonstration d’une assertion . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.2 Démonstration d’une implication . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.3 Démonstration par récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
857
TABLE DES MATIÈRES
3 Ensemble ordonné 55
3.1 Relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.1.2 Ensemble ordonné . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.1.3 Ordre total, ordre partiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.1.4 Deux relations d’ordre sur R2 . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.2 Relation d’ordre et sous ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.2.1 Partie minorée, partie majorée . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.2.2 Extremum d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2.3 Propriétés fondatrices des ensembles de nombres entiers . . . . . . . . . . . . . 61
3.2.4 Borne supérieure, borne inférieure . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.2.5 Propriétés fondatrices des nombres réels . . . . . . . . . . . . . . . . . . . . . . 64
3.3 Fonctions et relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.3.1 Comparaison de fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.3.2 Monotonie de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.3.3 Fonction minorée, majorée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.3.4 Extremum d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.3.5 Borne supérieure et borne inférieure d’une fonction réelle . . . . . . . . . . . . 69
4 Structures algébriques 71
4.1 Loi de composition interne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.1.2 Partie stable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.1.3 Propriétés d’une loi de composition interne . . . . . . . . . . . . . . . . . . . . 72
4.1.3.1 Commutativité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.1.3.2 Associativité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.1.4 Eléments particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.1.4.1 Élément régulier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.1.4.2 Élément neutre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.1.4.3 Élément symétrisable . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.1.5 Itéré d’un élément . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.1.6 Structures produits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.1.6.1 structure sur E × F . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.1.6.2 structure sur E n . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.1.6.3 structure sur F(X, E) . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.1.7 Notation additive et multiplicative . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.2 Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.2.2 Sous-groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.2.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.2.2.2 Groupe des racines n-ième de l’unité . . . . . . . . . . . . . . . . . . 87
4.2.2.3 Groupes géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.2.3 Morphisme de groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.2.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.2.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.2.3.3 Noyau et image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.2.3.4 Quelques morphismes géométriques . . . . . . . . . . . . . . . . . . 91
4.3 Etude du groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.3.1 Permutation de Nn = {1, 2, ..., n} . . . . . . . . . . . . . . . . . . . . . . . . 91
4.3.2 Cycles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.3.3 Décomposition d’une permutation en produit de transpositions . . . . . . . . . . 94
4.3.4 Signature d’une permutation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.3.5 Hors programme : Décomposition d’une permutation en produit de cycles . . . . 97
4.4 Anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.4.2 Sous-anneau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.4.3 Règles de calculs dans un anneau . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.4.4 Eléments inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.4.5 Diviseurs de zéro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
4.4.5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
4.4.5.2 Anneau sans diviseurs de zéro . . . . . . . . . . . . . . . . . . . . . . 105
4.4.5.3 Idempotent et nilpotent . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.5 Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
4.5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
4.5.2 Sous-corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
11 Déterminants 341
11.1 Applications multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341
11.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341
11.1.2 Applications multilinéaires symétriques et antisymétriques . . . . . . . . . . . . 342
11.1.3 Application multilinéaire alternée . . . . . . . . . . . . . . . . . . . . . . . . . 343
11.2 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345
11.2.1 Déterminant d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . 345
11.2.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345
11.2.1.2 Propriété fondatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 345
11.2.1.3 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
11.2.1.4 Déterminant et caractérisation des bases . . . . . . . . . . . . . . . . 348
11.2.2 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . 348
11.2.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348
11.2.2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349
11.2.2.3 Déterminant et automorphisme . . . . . . . . . . . . . . . . . . . . . 350
11.2.3 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . 351
11.2.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351
11.2.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352
11.3 Calculs de déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354
11.3.1 Premiers résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354
11.3.2 Déterminant d’une matrice triangulaire . . . . . . . . . . . . . . . . . . . . . . 355
11.3.3 Opérations sur les déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . 356
11.3.4 Calculs par triangulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356
11.3.5 Développement du déterminant selon une rangée . . . . . . . . . . . . . . . . . 358
11.3.6 Calculs par développements . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
11.4 Applications des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
11.4.1 Formules de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
11.4.2 Comatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
11.4.3 Détermination du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . 367
11.4.4 Orientation d’un espace vectoriel réel de dimension finie . . . . . . . . . . . . . 368
II Analyse 425
13 Nombres réels et complexes 427
13.1 Nombres réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427
13.1.1 Opérations dans R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427
13.1.2 Relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428
13.1.3 Valeur absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429
13.1.4 Partie entière d’un réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
13.1.5 Intervalles de R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432
13.1.6 Congruence dans R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433
13.1.7 Droite numérique achevée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434
13.2 Nombres complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435
13.2.1 Présentation de C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435
13.2.2 Le plan complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 436
13.2.3 Conjugaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437
13.2.4 Module . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
13.2.5 Argument . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442
13.2.5.1 Exponentielle imaginaire . . . . . . . . . . . . . . . . . . . . . . . . 442
13.2.5.2 Complexe de module 1 . . . . . . . . . . . . . . . . . . . . . . . . . 444
13.2.5.3 Argument d’un nombre complexe non nul . . . . . . . . . . . . . . . 444
13.2.6 Exponentielle complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446
13.3 Equations et systèmes numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447
13.3.1 Résolution d’une équation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447
13.3.2 Résolution d’un système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 448
13.3.3 Résolution de l’équation z n = Z . . . . . . . . . . . . . . . . . . . . . . . . . . 450
13.3.3.1 Racine n-ième de l’unité . . . . . . . . . . . . . . . . . . . . . . . . . 450
13.3.3.2 L’équation z n = Z avec Z ∈ C et n ∈ N? . . . . . . . . . . . . . . . 453
13.3.3.3 Cas particulier : l’équation z 2 = Z . . . . . . . . . . . . . . . . . . . 454
13.3.4 Résolution de l’équation du second degré . . . . . . . . . . . . . . . . . . . . . 455
13.4 Sommes et produits numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 457
13.4.1 Sommes numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 457
13.4.2 Somme arithmétique et géométrique . . . . . . . . . . . . . . . . . . . . . . . . 458
13.4.3 Exemples de calculs de sommes . . . . . . . . . . . . . . . . . . . . . . . . . . 459
13.4.4 Somme double . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 460
13.4.5 Produits numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463
13.4.6 Exemples de calculs de produit numérique . . . . . . . . . . . . . . . . . . . . 464
13.5 Fonctions numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465
13.5.1 Fonctions réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465
13.5.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465
13.5.1.2 Limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466
13.5.1.3 Continuité et dérivabilité . . . . . . . . . . . . . . . . . . . . . . . . 466
13.5.1.4 Primitives et intégrales . . . . . . . . . . . . . . . . . . . . . . . . . 467
13.5.2 Fonctions complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 468
13.5.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 468
13.5.2.2 Limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 469
13.5.2.3 Continuité et dérivabilité . . . . . . . . . . . . . . . . . . . . . . . . 470
13.5.2.4 Primitives et intégrales . . . . . . . . . . . . . . . . . . . . . . . . . 470
13.5.3 Fonctions polynomiales et rationnelles . . . . . . . . . . . . . . . . . . . . . . . 471
17 Continuité 599
17.1 Continuité des fonctions réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 599
17.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 599
17.1.2 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 600
17.1.3 Continuité à droite, continuité à gauche . . . . . . . . . . . . . . . . . . . . . . 601
17.1.4 Restrictions et prolongement de fonctions continues . . . . . . . . . . . . . . . 603
17.2 Fonctions continue sur un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 604
17.2.1 Théorème des valeurs intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . 604
17.2.2 Image d’un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 608
17.2.3 Image d’un segment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 609
17.2.4 Fonction continue strictement monotone . . . . . . . . . . . . . . . . . . . . . . 610
17.3 Extension aux fonctions complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 614
17.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 614
17.3.2 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 614
17.3.3 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 615
17.3.4 Fonction à valeurs dans R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 615
17.4 Uniforme continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 616
17.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 616
17.4.2 Fonction continue sur un segment . . . . . . . . . . . . . . . . . . . . . . . . . 617
18 Dérivation 619
18.1 Dérivées d’une fonction réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 619
18.1.1 Nombre dérivé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 619
18.1.2 Fonction dérivée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 623
18.1.3 Opérations sur les fonctions dérivables . . . . . . . . . . . . . . . . . . . . . . 625
18.1.3.1 Somme, produit et rapport . . . . . . . . . . . . . . . . . . . . . . . . 625
18.1.3.2 Composition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 626
18.1.3.3 Application réciproque . . . . . . . . . . . . . . . . . . . . . . . . . 627
18.1.4 Nombre dérivé à droite, nombre dérivé à gauche . . . . . . . . . . . . . . . . . 630
18.1.5 Dérivées successives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 632
18.1.5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 632
18.1.5.2 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 633
18.1.6 Classe d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 637
18.1.6.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 637
18.1.6.2 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 638
18.2 Théorème des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 638
18.2.1 Extremum local . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 638
18.2.2 Théorème de Rolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 640
18.2.3 Théorème des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . 641
18.2.4 Applications du TAF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 642
18.2.4.1 Inégalités des accroissements finis . . . . . . . . . . . . . . . . . . . 642
18.2.4.2 Variations d’une fonction dérivable . . . . . . . . . . . . . . . . . . . 644
18.2.4.3 Obtention de la dérivabilité par limite . . . . . . . . . . . . . . . . . . 646
18.3 Extension aux fonctions complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 647
18.3.1 Fonction dérivée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 647
18.3.2 Classe d’une fonction complexe . . . . . . . . . . . . . . . . . . . . . . . . . . 649
18.3.3 Théorèmes de dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 651
18.3.3.1 Inégalité des accroissements finis . . . . . . . . . . . . . . . . . . . . 651
18.3.3.2 Prolongement de la dérivée . . . . . . . . . . . . . . . . . . . . . . . 652
18.3.4 Fonctions à valeurs dans R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 652
18.4 Convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 653
18.4.1 Paramétrage d’un segment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 653
18.4.2 Partie convexe du plan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 654
18.4.3 Fonction convexe, fonction concave . . . . . . . . . . . . . . . . . . . . . . . . 654
18.4.4 Caractérisation de la convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . 656
18.4.4.1 Épigraphe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 656
18.4.4.2 Taux de variation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 657
18.4.4.3 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 659
18.4.5 Position relative d’une courbe et de sa tangente en un point . . . . . . . . . . . . 660
18.4.6 Inégalités de convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 661
18.4.7 Musculation : dérivabilité et continuité des fonctions convexes . . . . . . . . . . 663
18.5 Etude graphique d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 663
18.5.1 Réduction du domaine d’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . 663
18.5.2 Etude locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 664
18.5.3 Etude aux extrémités ouvertes de l’intervalle de définition . . . . . . . . . . . . 664
18.5.3.1 Prolongement par continuité . . . . . . . . . . . . . . . . . . . . . . . 664
18.5.3.2 Asymptote verticale . . . . . . . . . . . . . . . . . . . . . . . . . . . 665
18.5.3.3 Asymptote oblique et branche parabolique . . . . . . . . . . . . . . . 665
18.5.4 Exemples d’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 666