Notes 12

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 98

Cours GBM6103A

Traitement d’images et de signaux biomédicaux

TRAITEMENT DE SIGNAUX
BIOMÉDICAUX

Yves Goussard

Département de génie électrique


Institut de génie biomédical

ÉCOLE POLYTECHNIQUE DE MONTRÉAL


Version provisoire

6 septembre 2012
ii
Avant-propos

Au cours des vingt dernières années, l’informatique a pénétré dans de nom-


breux domaines de la vie professionnelle ou privée, et en a sensiblement modifié
de nombreux aspects. Le domaine médical ne fait pas exception à cette règle,
et l’évolution de la recherche autant que des activités cliniques a été considé-
rablement influencée par l’apparition d’ordinateurs de plus en plus puissants et
accessibles. Le cours GBM6103A « Traitement d’images et de signaux biomé-
dicaux » traite d’un domaine relativement large du génie biomédical où cette
évolution s’est fait particulièrement sentir, c’est-à-dire l’extraction, le codage, le
stockage et la représentation d’informations contenues dans des mesures biolo-
giques. Ces questions sont particulièrement importantes, tant pour la recherche
que pour les applications cliniques. Elles couvrent d’ailleurs un domaine très
vaste qui dépasse largement le cadre du génie biomédical.
Dans ce domaine, le nombre et la variété des approches existantes, ainsi que
la diversité des techniques auxquelles elles ont donné naissance présentent un
caractère déroutant. Cette situation peut rendre difficile le choix d’une méthode
pour traiter un problème particulier, ou simplement la formulation d’un juge-
ment motivé sur telle ou telle technique ou appareil disponible sur le marché.
C’est pourquoi la première partie du cours porte sur les aspect fondamentaux
de l’extraction, du traitement et de la représentation d’informations contenues
dans des signaux. Ici encore, le domaine très large : il englobe le traitement du
signal et d’images, l’estimation, partie de l’intelligence artificielle, l’instrumen-
tation, etc. À ma connaissance, il n’existe pas d’ouvrage facilement accessible
offrant une vue synthétique de ce domaine.
Ces notes de cours ont pour objet de fournir aux étudiants les bases essen-
tielles du traitement de signaux biomédicaux ou, plus généralement, de l’extrac-
tion et de la représentation d’informations présentes dans de tels signaux. L’ob-
jectif est double : proposer approche rigoureuse permettant traiter la majorités
de problèmes de ce type que l’étudiant rencontrera dans sa vie professionnelle,
et présenter un cadre général lui permettant de comprendre et développer des
techniques plus sophistiquées ou plus spécialisées. Pour ce faire, des simplifica-
tions ont été nécessaires en raison de l’étendue du sujet. Celles-ci sont signalées
dans le corps du texte. Par ailleurs, la présentation du cadre général requiert
certains de développements théoriques. Ceux-ci sont limités au minimum, et
illustrés dans la mesure du possible par des exemples concrets.
Enfin, je tiens à souligner que ces notes doivent beaucoup au Dr. Frédéric

iii
Champagnat, qui a fait de nombreux commentaires et suggestions, et qui a
conçu la majorité de laboratoires, ainsi qu’à MM. Claude cohen-Bacrie, David
Savéry, Sabine Husse, Paul-Anndré Barrière et Benoît Hamelin.

Montréal
Août 2009

iv
Table des matières

1 Signal déterministe : représentations et transformées 1


1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Théorème des projections . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Signaux à temps continu . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.1 Transformée de Fourier . . . . . . . . . . . . . . . . . . . 4
1.3.2 Le cas des signaux périodiques . . . . . . . . . . . . . . . 6
1.3.3 Remarques pratiques . . . . . . . . . . . . . . . . . . . . . 7
1.4 Signaux à temps discret . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.2 Échantillonnage . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.3 Transformée en z . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.4 Transformée de Fourier à temps discret . . . . . . . . . . 13
1.4.5 Transformée de Fourier discrète . . . . . . . . . . . . . . . 14
1.4.6 Transformée de Fourier et FFT . . . . . . . . . . . . . . . 15

2 Filtrage linéaire 19
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Filtres linéaires invariants . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Définitions et caractérisation . . . . . . . . . . . . . . . . 20
2.2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Filtres dynamiques . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4.1 Fenêtre rectangulaire . . . . . . . . . . . . . . . . . . . . . 26
2.4.2 Filtre tous pôles du premier ordre . . . . . . . . . . . . . 27
2.5 Synthèse de filtres . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.5.1 Présentation du problème . . . . . . . . . . . . . . . . . . 30
2.5.2 Types classiques de filtres . . . . . . . . . . . . . . . . . . 33

3 Signal aléatoire 35
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.1 Variables aléatoires scalaires . . . . . . . . . . . . . . . . . 36

v
3.2.2 Couples de variables aléatoires . . . . . . . . . . . . . . . 39
3.2.3 Vecteurs aléatoires . . . . . . . . . . . . . . . . . . . . . . 44

4 Estimation 47
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2 Problématique de l’estimation . . . . . . . . . . . . . . . . . . . . 47
4.3 Méthodologie de l’estimation . . . . . . . . . . . . . . . . . . . . 49
4.3.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.3.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.3.3 Remarque . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.4 Caractéristiques des estimateurs . . . . . . . . . . . . . . . . . . 58
4.5 Estimation dans le cas linéaire et gaussien . . . . . . . . . . . . . 60
4.5.1 Formulation du problème . . . . . . . . . . . . . . . . . . 61
4.5.2 Forme compacte des estimateurs . . . . . . . . . . . . . . 62
4.5.3 Forme récurrente des estimateurs . . . . . . . . . . . . . . 65
4.5.4 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

Annexes 81
A Précisions sur la transformée de Fourier 83
A.1 Cadre de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
A.2 Transformée de Fourier dans L1 . . . . . . . . . . . . . . . . . . . 83
A.3 Transformée de Fourier dans L2 . . . . . . . . . . . . . . . . . . . 85
A.4 Transformée de Fourier discrète . . . . . . . . . . . . . . . . . . . 86

B Calcul du gradient de formes quadratiques 89


B.1 Résultat général . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
B.2 Application au critère des moindres carrés . . . . . . . . . . . . . 90

vi
Table des figures

1.1 Caractéristiques de la transformée de Fourier X d’un signal x . . 16


1.2 Effet du bourrage de zéros . . . . . . . . . . . . . . . . . . . . . . 18

2.1 Représentation schématique d’un filtre . . . . . . . . . . . . . . . 19


2.2 Réponses fréquentielles de quatre types classiques de filtres . . . 21
2.3 Divergence d’un filtre instable . . . . . . . . . . . . . . . . . . . . 23
2.4 RI et RF d’une fenêtre rectangulaire . . . . . . . . . . . . . . . . 26
2.5 Spectre d’un filtre tous pôles du premier ordre . . . . . . . . . . 29
2.6 Exemple de filtre passe-tout déphaseur . . . . . . . . . . . . . . . 31
2.7 Phénomène de rebond dans le domaine temporel . . . . . . . . . 32
2.8 Spectre de divers types de filtres passe-bande . . . . . . . . . . . 33

3.1 Densité de probabilité et de fonction de répartition . . . . . . . . 37


3.2 Illustration du phénomène de conditionnement . . . . . . . . . . 43

4.1 Comparaison d’estimateurs MAP et MV . . . . . . . . . . . . . . 54


4.2 Estimation du temps d’arrivée d’un signal par MV . . . . . . . . 57
4.3 Réponse impulsionnelle du système simulé . . . . . . . . . . . . . 73
4.4 Résultats pour une entrée blanche, N = 256, SNR = 20 dB . . . 74
4.5 Résultats pour une entrée blanche, N = 256, SNR = 0 dB . . . . 75
4.6 Résultats pour une entrée blanche, N = 32, SNR = 20 dB . . . . 77
4.7 Module de la RF du système et du filtre corrélant l’entrée . . . . 78
4.8 Résultats pour une entrée corrélée, N = 256, SNR = 20 dB . . . 79
4.9 Résultats pour une entrée corrélée, N = 256, SNR = 0 dB . . . . 80

vii
viii
Chapitre 1

Signal déterministe :
représentations et
transformées

1.1 Introduction
On s’intéresse dans un premier temps aux signaux déterministes qui, par dé-
finition, ne comportent aucune composante incertaine ou aléatoire. La plupart
des signaux effectivement manipulés appartiennent à cette catégorie : en effet,
une fois une expérience effectuée (par exemple, l’enregistrement d’un électro-
cardiogramme ou d’un électro-encéphalogramme), les mesures ont des valeurs
parfaitement définies, et sont donc déterministes. Par ailleurs, il est possible que
la relation entre ces mesures déterministes et le phénomène d’intérêt sous-jacent
(l’activité électrique à l’intérieur du cœur ou du cerveau) soit entachée d’incer-
titudes. Remonter des mesures aux phénomènes sous-jacents est une question
importante qui sera abordée au chapitre 4. Pour l’instant, nous nous limitons à
l’étude du signal déterministe effectivement mesuré.
Dès qu’il dispose d’un signal, l’utilisateur (l’ingénieur biomédical, le méde-
cin) désire généralement lui faire subir un certain nombre de traitements. Il peut
vouloir l’analyser, par exemple en déterminer le contenu fréquentiel pour conce-
voir un système d’instrumentation utilisant le signal en question. Il peut vouloir
le transformer, par exemple en éliminer des composantes inutiles pour des trai-
tements ultérieurs. Il peut aussi désirer le stocker, ce qui nécessite souvent une
numérisation et un codage. Tous ces traitements se traduisent par des opéra-
tions mathématiques sur les signaux dont on dispose. L’objet de ce chapitre est
de décrire les opérations les plus importantes, de donner des indications sur leur
signification et de préciser les conditions dans lesquelles elles sont valides.
Pour définir et étudier des opérations mathématiques, il est nécessaire de se
fixer un cadre de travail. Nous considérerons ici qu’un signal est une fonction

1
2 CHAPITRE 1. SIGNAL DÉTERMINISTE

x(t) à valeurs dans l’ensemble des nombres complexes C. La variable t, qui


désigne généralement le temps, prend ses valeurs dans l’ensemble des nombres
réels R ou dans un sous-ensemble de R. Afin de pouvoir effectuer des opérations
élémentaires, nous supposerons que tous les signaux auxquels nous nous inté-
ressons appartiennent à un même ensemble H ayant une structure d’espace de
Hilbert. À toutes fins pratiques, cela signifie qu’il est possible d’additionner les
signaux entre eux, de les multiplier par un scalaire et surtout de calculer leur
produit scalaire. Dans ce qui suit, le produit scalaire de deux signaux x et y sera
noté < x · y >. On suppose en outre qu’il est possible de calculer le produit de
convolution de deux signaux x et y de H, noté x ∗ y et défini par :
Z
[x ∗ y](t) = x(τ ) y(t − τ ) dτ .

On vérifie sur l’équation ci-dessus que x ∗ y = y ∗ x. Enfin, on définit la fonction


de corrélation γxy de deux signaux x et y par :
Z
γxy (τ ) = x(t) y ∗ (t − τ ) dt , (1.1)

où le symbole « ∗ » désigne l’opération de conjugaison. On remarque que γxy


est le produit de convolution de x(t) et y ∗ (−t).

1.2 Théorème des projections


L’intérêt de supposer que les signaux étudiés appartiennent tous au même
espace H provient de la possibilité de manipuler ces signaux comme des vecteurs,
et donc de pouvoir utiliser les mêmes outils qu’en algèbre et en géométrie usuelle.
En particulier, une notion très importante en algèbre est celle de base : si {ei ; i ∈
I} est une base supposée finie ou dénombrable d’un espace H, alors tout élément
x de H peut s’écrire de manière unique sous la forme :
X
x= ai ei ,
i∈I

où les ai sont des scalaires. Ainsi, tout élément de H peut être représenté sans
perte d’information par l’ensemble des coefficients ai . Si, de plus, la base est
orthonormée, ce qui signifie qu’elle vérifie :

∀i, j < ei · ej >= δij ,

où δij désigne le symbole de Kronecker :



i = j ⇐⇒ δij = 1 ,
i 6= j ⇐⇒ δij = 0 ,

alors on a :
∀i ai =< x · ei > .
1.2. THÉORÈME DES PROJECTIONS 3

D’un point de vue pratique, ce résultat est très important : il indique que si
l’on dispose d’une base orthonormée, les coefficients de la représentation de
tout élément x dans cette base se calculent par de simples produits scalaires.
De plus, chaque coefficient ai s’interprète comme la longueur de la projection
orthogonale de x sur l’élément de base ei .
Par exemple, considérons l’espace des signaux à temps continu sur un inter-
valle [0, T ]. Cet ensemble, muni du produit scalaire :
T
1
Z
< x · y >= x(t) y ∗ (t) dt , (1.2)
T 0

est un espace de Hilbert. Considérons l’ensemble des fonctions {ek (t), k ∈ Z}


définies sur [0, T ] par :
ek (t) = e2iπkt/T .
En utilisant la définition du produit scalaire donnée en (1.2), on vérifie que :

1 T 2iπ(k−l)t/T
Z
< ek · el > = e dt ,
T 0
= δkl .

Le système {ek ; k ∈ Z} est donc orthonormé. On peut en outre montrer qu’il


forme une base. Par conséquent, tout signal x continu sur [0, T ] peut s’écrire de
manière unique sous la forme :
X
x(t) = ak e2iπkt/T ,
k∈Z

les coefficients ak étant donnés par :


T
1
Z
ak = x(t)e−2iπkt/T dt .
T 0

On reconnaît ici le développement en série de Fourier des fonction définies sur


l’intervalle [0, T ], ou des fonctions périodiques de période T .
Les résultats ci-dessus, pour intéressants qu’il soient, se heurtent néanmoins
à une difficulté pratique importante : dans la plupart des cas (et en particulier
pour le développement en série de Fourier des signaux périodiques), la base de
H comprend un nombre infini d’éléments, ce qui ne permet pas la manipulation
numérique des représentations correspondantes. On est donc amené à choisir
un nombre fini d’éléments de la base et à se poser le problème suivant : soit
{ei ; i ∈ I} un sous-ensemble fini d’une base orthonormée de H, et soit H le
sous-espace correspondant ; comment approcher au mieux (c’est-à-dire au sens
de la distance définie par le produit scalaire de H) un élément x de H par un
élément de H ?
La réponse nous est fournie par le théorème des projections, qui indique que
cette meilleure approximation x de x dans H est la projection orthogonale de
4 CHAPITRE 1. SIGNAL DÉTERMINISTE

x sur H. Cette propriété s’exprime par le fait que la différence entre x et x est
orthogonale à H, soit :

∀i ∈ I, < (x − x) · ei >= 0 .

Il en découle immédiatement que :

∀i ∈ I, < x · ei >=< x · ei > ,

ce qui indique les décomposition de x et x sur les éléments de {ei ; i ∈ I} sont


identiques. En d’autres termes, x s’obtient simplement en prélevant les coeffi-
cients de la décomposition de x sur le sous-système {ei ; i ∈ I}.
Finalement, soulignons que ces questions de projection et de décomposition
sur des bases sous-tendent une grande partie des sujets abordés dans ce chapitre
et le suivant, et en particulier ce qui a trait à la transformée de Fourier. Men-
tionnons également que le théorème des projections présenté ci-dessus n’apporte
pas de réponse à la question du choix du sous-espace H sur lequel projeter x.
Si l’on revient à l’exemple du développement en série de Fourier, une solution
souvent adoptée consiste utiliser le sous-système {e2iπkt/T ; −K ≤ k ≤ K}, ce
qui revient à éliminer les fréquences les plus hautes. Ce choix est souvent justi-
fié dans les applications (les systèmes physiques sont à bande passante limitée)
mais n’est pas unique. Dans la pratique, il est important d’utiliser au mieux les
connaissances disponibles sur le signal étudié afin de choisir judicieusement H.

1.3 Signaux à temps continu


Nous nous intéressons maintenant aux signaux à temps continu, c’est à dire
aux signaux x(t) tels que t varie dans un intervalle de R ou dans R tout entier,
et non pas dans un sous-ensemble discret tel que Z ou N. Bien que, dans la
pratique, la plupart des signaux effectivement manipulés soient à temps discret,
un survol des propriétés des signaux à temps continu est nécessaire pour intro-
duire la notion de transformée de Fourier, et pour examiner ensuite les questions
d’échantillonnage. Cette section est consacrée essentiellement à la transformée
de Fourier, qui permet à la fois une représentation et une analyse des signaux à
temps continu.

1.3.1 Transformée de Fourier


L’importance de la transformée de Fourier (TF) provient d’une part de ce
qu’elle permet d’accéder à la notion de fréquence contenue dans un signal x(t),
et d’autre part de certaines simplifications qu’elle apporte à l’étude du filtrage
linéaire (voir chapitre 2). La notion de fréquence est importante car générale-
ment liée à des phénomènes physiques se répétant régulièrement et qui peuvent
avoir une grande importance pratique : battements cardiaques, décharges neuro-
nales normales ou pathologiques, vibrations dans certaines structures du corps
1.3. SIGNAUX À TEMPS CONTINU 5

Domaine des temps Domaine des fréquences


F
x(t) ↔ X(ν)
F
y(t) ↔ Y (ν)
F
Linéarité αx(t) + βy(t) ↔ αX(ν) + βY (ν)
F
Translation (temps) x(t − τ ) ↔ X(ν)e−2iπντ
F 1
Homothétie (temps) x(αt) ↔ |α| X(ν/α)
2iπf t F
Translation (fréq.) x(t)e ↔ X(ν − f )
1 F
Homothétie (fréq.) |α| x(t/α) ↔ X(αν)
∗ F
Conjugaison x (t) ↔ X ∗ (−ν)
F
Convolution [x ∗ y](t) ↔ X(ν) Y (ν)
F
Produit x(t) y(t) ↔ [X ∗ Y ](ν)

Table 1.1 – Principales propriétés de la transformée de Fourier.

humain (squelette, valves cardiaques, etc.). Classiquement, la TF X(ν) d’un


signal x(t) est définie par :
Z
X(ν) = x(t)e−2iπνt dt , (1.3)

où ν ∈ R désigne la fréquence. La TF inverse qui permet de passer de X(ν) à


x(t) est définie par : Z
x(t) = X(ν)e2iπνt dν . (1.4)

Dans la suite, on désignera respectivement par F et F −1 la TF et la TF inverse.


Soulignons que les définitions (1.3) et (1.4) sont valides sous réserve que les
intégrales convergent. Or il n’en est pas toujours ainsi. Nous supposons pour
l’instant que les signaux x appartiennent à un espace H tel que l’on puisse
donner un sens à (1.3) et (1.4). Le lecteur est renvoyé à l’annexe A pour des
indications plus précises sur construction de la TF et de son inverse.
La définition (1.3) peut être interprétée de la manière suivante : si l’on munit
l’espace H du produit scalaire
Z
< x · y >= x(t) y ∗ (t) dt , (1.5)

alors, pour une fréquence ν donnée, X(ν) est la projection orthogonale de x sur
la fonction e2iπνt . La TF traduit donc bien la notion usuelle de fréquence. Notons
que cette interprétation sous-entend que l’ensemble des fonctions {e2iπνt } peut
être interprété comme un système orthonormal, ce que nous admettons pour
l’instant.
La TF possède de nombreuses propriétés, dont les plus importantes sont
résumées dans le tableau 1.1. Celles-ci peuvent être démontrées sans difficulté
6 CHAPITRE 1. SIGNAL DÉTERMINISTE

à partir des définitions (1.3) et (1.4). On peut également montrer la propriété


essentielle suivante, dite théorème de Plancherel :
Z Z
x(t) y ∗ (t) dt = X(ν) Y ∗ (ν) dν . (1.6)

L’équation ci-dessus traduit la conservation par la TF du produit scalaire défini


en (1.5). En prenant y = x dans (1.6), on en déduit la relation de Parseval :
Z Z
|x(t)|2 dt = |X(ν)|2 dν , (1.7)

qui montre que l’énergie d’un signal est égale à celle de sa TF. Enfin, en partant
de la définition de la fonction de corrélation donnée en (1.1), on démontre de
manière élémentaire que :
F(γxy (τ )) = Γxy (ν) = X(ν) Y ∗ (ν) .
Lorsque x = y, la relation ci-dessus devient :
F(γx (τ )) = Γx (ν) = |X(ν)|2 . (1.8)
La quantité Γx est généralement désignée par densité spectrale d’énergie ou plus
simplement spectre d’énergie du signal x.

1.3.2 Le cas des signaux périodiques


Dans les développements précédents, nous avons supposé que l’intégrale qui
permet de définir la TF converge (voir (1.3)). Or cette propriété n’est manifes-
tement pas vérifiée lorsque x est un signal à temps continu périodique. Cette
catégorie de signaux étant très importante dans la pratique, il est nécessaire
de généraliser la notion de TF telle qu’elle a été introduite jusqu’à présent. On
exige de cette généralisation qu’elle conserve les caractéristiques importantes
déjà mentionnées, comme l’existence d’une transformée inverse et les propriétés
indiquées au tableau 1.1.
La généralisation requise nécessite de faire appel à la théorie des distribu-
tions, ce qui dépasse le cadre de ce cours. Quelques précisions sur ce sujet sont
données à l’annexe A. D’un point de vue pratique, nous définissons la distri-
bution (ou impulsion) de Dirac δ comme étant la TF (et la TF inverse) de la
fonction uniforme sur R :
(
F
δ(t) ↔ 1ν ,
F (1.9)
1t ↔ δ(ν) .
Puis nous admettons que toutes les propriétés déjà énoncées de la TF restent
vraies. On en déduit par exemple que, pour un signal x quelconque :
[δ ∗ x](t) = F −1 (1ν X(ν)) ,
= F −1 (X(ν)) ,
= x(t) .
1.3. SIGNAUX À TEMPS CONTINU 7

L’impulsion de Dirac est donc l’élément neutre du produit de convolution. De


même, en utilisant la propriété de translation en temps de la TF pour l’impulsion
de Dirac, on obtient :
F
δ(t − τ ) ↔ 1ν e−2iπντ = e−2iπντ . (1.10)

Symétriquement, l’utilisation de la propriété de translation en fréquence donne :


F
e2iπf t ↔ δ(ν − f ) . (1.11)

Les relations (1.10) et (1.11) montrent que l’introduction de la distribution de


Dirac nous a permis de définir la TF et la TF inverse des fonctions périodiques
particulières que sont les exponentielles complexes. Pour généraliser à d’autres
signaux périodiques, nous utilisons le développement en série de Fourier déjà
introduit à la section 1.2 : soit x un signal à temps continu périodique et de
période T . Il peut s’écrire :
X
x(t) = ak e2iπkt/T ,
k∈Z

avec :
1
Z
ak =< x · e2iπkt/T >= x(t) e−2iπkt/T dt .
T (T )

En utilisant la propriété de linéarité de la TF, on en déduit :


X
X(ν) = ak δ(ν − k/T ) . (1.12)
k∈Z

La TF d’un signal périodique apparaît donc comme une série d’impulsions de


Dirac régulièrement espacées de ∆ν = 1/T . Les amplitudes de ces impulsions
sont données par les coefficients du développement en série de Fourier du signal.
On dit que celui-ci possède un spectre de raies caractéristique des signaux pério-
diques. Si l’on excepte la fréquence nulle, la plus basse fréquence de ce spectre
est égale à 1/T . Il s’agit de la fréquence fondamentale. Les autres fréquences
sont des multiples entiers de la fréquence fondamentale, et on les désigne par le
terme d’harmoniques.

1.3.3 Remarques pratiques


À ce stade, la notion de TF peut sembler un peu confuse puisqu’il nous n’en
avons pas donné de définition unique. Soulignons tout d’abord que ce manque
de cohérence n’est qu’apparent, et que la théorie de la TF sur l’espace de dis-
tributions S 0 permet d’unifier les différentes définitions que nous avons vues.
Pour calculer pratiquement une TF, on procède de manière analogue à celle
employée pour trouver la TF des exponentielles complexes, puis des signaux pé-
riodiques, c’est-à-dire en utilisant conjointement la définition (1.3) lorsque l’in-
tégrale converge, les propriétés données au tableau 1.1 et celles qui caractérisent
8 CHAPITRE 1. SIGNAL DÉTERMINISTE

x(t) X(ν)
−πt2 2
e e−πν
e−a|t| 2a
a2 +4π 2 ν 2
±2iπν0 t
e δ(ν ∓ ν0 )
1
eiϕ0 δ(ν − ν0 ) + e−iϕ0 δ(ν + ν0 )

cos(2πν0 t + ϕ0 ) 2
sgn t 1/(iπν)
1 δ(ν)
(−2iπt)m δ (m) (ν)
1/t −i π sgnν
|t| − 2π12 ν 2
rect(−T /2, T /2) T sinπTπTν ν
2
max{0, 1 − |t|
T } (fonction triangle) T sinπTπTν ν
ν0 sinπνπν0t
0t
rect(−ν0 /2, ν0 /2)
δ(t) 1
δ (m) (t) (2iπν)m
±2iπT ν
P δ(t ± T ) 1
P e
P n∈Z δ(t − nT ) TP n∈Z δ(ν − n/T )
−2iπnT ν
n∈Z cn δ(t − nT ) n∈Z cn e

Table 1.2 – Table des transformées de Fourier et des transformées de Fourier


inverses de quelques fonctions usuelles.

la distribution de Dirac. Ainsi, on peut calculer sans introduire d’incohérence la


TF des signaux à croissance au plus polynomiale, ce qui permet de couvrir la
plupart des applications. Les TF et TF inverses de quelques fonctions usuelles
sont données au tableau 1.2.

Soulignons qu’ainsi définie, la TF admet une transformée inverse. Ceci in-


dique qu’il y a équivalence entre le signal x(t) et sa transformée X(ν), puisqu’il
est toujours possible de revenir au point de départ. Cette équivalence entre do-
maine temporel et domaine fréquentiel indique que la TF est seulement une
représentation qui permet de « changer le point de vue » sur le signal pour —
peut-être — en mettre en évidence certaines caractéristiques. Mais le passage
d’un domaine à l’autre ne se traduit par aucun gain et (théoriquement) aucune
perte d’information. Soulignons aussi la symétrie entre TF et son inverse, qui
permet de transposer les propriétés de F à F −1 . Cette symétrie est apparente
sur les définitions (1.3) et (1.4). En transposant ce qui a été vu pour les signaux
périodiques, elle permet par exemple d’affirmer que la TF d’un signal composé
d’une suite d’impulsions de Dirac régulièrement espacées est une fonction pé-
riodique.
1.4. SIGNAUX À TEMPS DISCRET 9

1.4 Signaux à temps discret


1.4.1 Introduction
Les signaux à temps discret sont d’une très grande importance pratique
car leur traitement se fait le plus souvent numériquement à l’aide d’ordina-
teurs ou de micro-ordinateurs. Or la plupart des signaux biologiques sont re-
cueillis sous forme analogique. Leur numérisation nécessite deux opérations :
l’échantillonnage qui consiste à ne conserver la valeur du signal qu’à des ins-
tants discrets et généralement régulièrement espacés, et la quantification qui
consiste à coder la valeur du signal à un instant donné sur un nombre prédé-
fini de niveaux. Dans cette section, nous nous intéresserons essentiellement à
l’échantillonnage et aux types de signaux qui en résultent : les signaux à temps
discret. Les questions de quantification seront brièvement mentionnée comme
un cas particulier de bruit lors de l’étude des signaux aléatoires.
Un signal à temps discret x est défini comme une suite de valeurs {xn ; n ∈ Z}
où à chaque échantillon xn ∈ C correspond un instant tn . Ici, on se limite au cas
où les instants tn sont régulièrement espacés. On peut donc écrire tn = nTe , n ∈
Z. Te est désigné par le terme de pas ou période d’échantillonnage du signal à
temps discret x. Celui-ci apparaît comme une série d’impulsions et peut donc
se mettre sous la forme :
X
x(t) = xn δ(t − nTe ) . (1.13)
n∈Z

L’équation ci-dessus permet de faire le lien entre les signaux à temps continu
et les signaux à temps discret. Elle montre d’ailleurs que ces derniers peuvent
être considérés comme un cas particulier des signaux à temps continu, ce qui
permet de définir comme précédemment le produit de convolution et la fonc-
tion de corrélation de deux signaux à temps discret. L’utilisation conjointe des
définitions de ces quantités et de (1.13) permet de montrer aisément que, pour
deux signaux x et y de même période d’échantillonnage Te , x ∗ y et γxy sont eux
aussi à temps discret et de période d’échantillonnage Te . Leurs expressions sont
données par :
X
[x ∗ y](nTe ) = xp yn−p ,
p∈Z
X

γxy (nTe ) = xp yp−n .
p∈Z

On peut de même définir directement à partir de (1.13) la TF d’un signal à temps


discret. Cependant, celle-ci possède des propriétés particulières qui méritent l’at-
tention. C’est pourquoi, après avoir présenté les questions d’échantillonnage des
signaux continus et de représentation des signaux à temps discret par transfor-
mée en z, nous consacrerons la fin de cette section à la TF des signaux à temps
discret.
10 CHAPITRE 1. SIGNAL DÉTERMINISTE

1.4.2 Échantillonnage
L’opération d’échantillonnage régulier consiste à transformer un signal à
temps continu x(t) en un signal à temps discret {xn = x(nTe ); n ∈ Z}, où Te
désigne la période d’échantillonnage. La question qui se pose immédiatement est
de savoir si le passage de x à {xn } s’accompagne d’une perte d’information. La
réponse est donnée par le théorème d’échantillonnage, qui est énoncé ci-après.
Mais auparavant, il est nécessaire de définir la notion de bande passante d’un
signal.
Définition - La bande passante d’un signal x(t) est le plus petit intervalle
[A, B] tel que :
∀ν 6∈ [A, B], X(ν) = 0 .

La définition ci-dessus signifie que la bande passante d’un signal est le plus
petit intervalle contenant le support de sa TF. Nous pouvons maintenant énon-
cer le résultat suivant :
Théorème d’échantillonnage (ou de Shannon-Nyquist) - Soit x(t)
un signal dont la bande passante est incluse dans l’intervalle [−B, B]. x(t)
peut être reconstruit sans erreur à partir de la suite de ses échantillons
prélevés aux instants nT, n ∈ Z avec T = 1/(2B).

Ce résultat se démontre de manière élémentaire comme suit : X(ν) étant à


support sur [−B, B], il admet le développement en série de Fourier suivant :
X
∀ν ∈ [−B, B] X(ν) = Xk e2iπkν/(2B) , (1.14)
k∈Z

où les coefficients de Fourier sont obtenus par produit scalaire avec les éléments
de la base des fonctions à support limité :
B
1
Z
Xk = X(ν) e−2iπkν/(2B) dν .
2B −B

On remarque que X(ν) étant nul à l’extérieur de [−B, B], les bornes d’intégra-
tion peuvent être changées pour −∞ et +∞. L’intégrale apparaît alors comme
la TF inverse de X évaluée en t = −k/(2B) = −kT . On a donc

Xk = T x(−kT ) . (1.15)

Pour retrouver x(t), l’idée consiste à prendre la TF inverse de X(ν). On


ne peut pas appliquer la transformation inverse directement à (1.14), puisque
l’égalité n’est valide que sur l’intervalle [−B, B]. Mais on peut écrire :
X
∀ν ∈ R X(ν) = rect−B,B (ν) Xk e2iπkν/(2B) ,
k∈Z
1.4. SIGNAUX À TEMPS DISCRET 11

où rect−B,B désigne la fonction « rectangle » qui vaut 1 sur [−B, B] et 0 ailleurs.


Par application de la propriété sur la TF inverse d’un produit, on obtient :
!
X
x(t) = F −1 (rect−B,B ) ∗ F −1 Xk e2iπkν/(2B) .
k∈Z

On montre facilement par application de la définition que F −1 (rect−B,B )(t) est


égal à 2B sin2Bπt
2Bπt
. Par ailleurs, la TF inverse de la somme d’exponentielles est
une somme d’impulsions de Dirac. On a donc :
  !
sin(2Bπt) 1 X
x(t) = 2B ∗ x(−k/(2B)) δ(t + k/(2B)) ,
2Bπt 2B
k∈Z
X sin π(t − kT )/T
= x(kT ) . (1.16)
π(t − kT )/T
k∈Z

L’égalité ci-dessus, dite formule d’interpolation de Shannon, montre que le signal


à temps continu peut être reconstruit complètement et sans erreur à partir du
signal échantillonné, à condition que la fréquence d’échantillonnage 1/T soit
supérieure au double de la fréquence maximale (en valeur absolue) contenue
dans le signal.
Les développements ci-dessus méritent interprétation. L’élément le plus im-
portant est fourni par (1.14) ; en effet, en reportant dans cette équation l’ex-
pression de Xk établie en (1.15) et en utilisant l’égalité T = 1/(2B), on obtient :
X
∀ν ∈ [−B, B] X(ν) = T x(−kT ) e2iπν(kT ) .
k∈Z

On peut par ailleurs écrire que le terme qui apparait dans la sommation est la
fonction x(t) e−2iπνt évaluée en t = −kT , ce qui, par utilisation des propriétés
de l’impulsion de Dirac, conduit à :
X Z +∞
∀ν ∈ [−B, B] X(ν) = T x(t) e−2iπνt δ(t + kT ) dt .
k∈Z −∞

En changeant le signe de l’indice muet de sommation (−k → n) et en interver-


tissant l’ordre de l’intégrale et de la somme, on obtient finalement
Z +∞ X !
∀ν ∈ [−B, B], X(ν) = T x(t) δ(t − nT ) e−2iπνt dt ,
−∞ n∈Z

ce qui montre que, à un coefficient près, les transformées du signal à temps


continu et du signal à temps discret sont identiques sur l’intervalle [−B, B].
Par contre, à l’extérieur de cet intervalle, la TF de x(t) est nulle alors que
celle de x(nT ) est périodique, le motif « original » se répétant à intervalles de
1/T . Périodiser la TF du signal à temps continu ou au contraire déduire le
12 CHAPITRE 1. SIGNAL DÉTERMINISTE

spectre du signal à temps continu à partir de celui du signal à temps discret


en en isolant une période se fait évidemment sans aucune perte d’information.
Dans le domaine temporel, ces deux opérations correspondent respectivement à
l’échantillonnage à la période T et à l’interpolation selon la formule (1.16).
Cette interprétation permet d’expliquer le phénomène de repliement de spec-
tre que l’on observe lorsque la période d’échantillonnage est trop longue (sous-
échantillonnage). Supposons que T soit telle que T > 1/(2B). Lors de la pério-
disation du spectre du signal à temps continu, le motif va se répéter à des
intervalles 1/T < 2B, et les « bords » de chaque motif vont chevaucher ceux
du voisin. Dans ces conditions, il ne sera pas possible de retrouver le spectre
du signal à temps continu à partir du spectre périodisé, et la formule d’inter-
polation (1.16) ne sera plus valide. Par contre si la période d’échantillonnage
est telle que T < 1/(2B) (sur-échantillonnage), l’intervalle entre les motifs du
spectre périodisé sera plus long, ce qui ne provoquera pas de chevauchement
et permettra de retrouver le spectre du signal à temps continu. Précisons aussi
que la position des échantillons est sans importance sur le résultat (il n’est pas
nécessaire d’avoir un échantillon à t = 0). C’est la période d’échantillonnage qui
importe.
Enfin, il est important de souligner que ce résultat utilise des hypothèses qui
ne sont jamais vérifiées en pratique. En effet, toutes les sommes portent sur un
indice qui varie sur l’ensemble Z entier, ce qui suppose l’existence d’un nombre
infini d’échantillons. Dans les applications, on se limite toujours à des sommes
finies, ce qui introduit une erreur qui peut devenir significative. Cet effet se fait
surtout sentir pour la formule d’interpolation de Shannon, qui peut conduire à
des erreurs importantes, souvent sous forme d’oscillations, aux « extrémités » du
signal observé. En général, il est préférable d’aborder le problème d’interpolation
sous l’angle de l’estimation, ce que nous verrons au chapitre 4.

1.4.3 Transformée en z
La transformée en z est l’analogue en temps discret de la transformée de
Laplace utilisée en temps continu. Elle permet une représentation simple de
catégories importantes de filtres numériques que nous verrons au chapitre 2 et
permet d’en étudier facilement la stabilité. Nous rappelons ici la définition et
les principales propriétés de la transformée en z.
La transformée en z d’un signal à temps discret {xn ; n ∈ Z} est définie par :
X
X(z) = xn z −n , (1.17)
n∈Z

où z est une variable complexe. On montre qu’il existe un anneau du plan


complexe A(r1 , r2 ) de rayon intérieur r1 et de rayon extérieur r2 dans lequel
la série converge. On montre également l’existence d’une formule d’inversion
donnée par :
1
I
xn = X(z) z n−1 dz , (1.18)
2iπ (C)
1.4. SIGNAUX À TEMPS DISCRET 13

où (C) désigne un cercle situé dans l’anneau de convergence. Ceci qui montre
qu’il y a équivalence entre le domaine transformé et le domaine temporel discret.
Comme la TF, la transformée en z est donc une représentation.
On donne ci-après quelques définitions et propriétés qui seront utiles par la
suite :
– on appelle pôles de X(z) les valeurs de z pour lesquelles X(z) tend vers
l’infini, et zéros de X(z) les valeurs de z pour lesquelles X(z) s’annule ;
– Si {yn } est la version décalée de {xn } par introduction d’un retard n0 ,
soit yn = xn−n0 , alors on a :

Y (z) = z −n0 X(z) ;

– enfin, on démontre aisément en utilisant les définitions que si x et w sont


deux signaux à temps discret tels que les régions de convergence de leurs
transformées en z soient d’intersection non vide, alors y = x ∗ w admet
une transformée en z donnée par

Y (z) = X(z) W (z) .

Ceci indique que, comme pour la TF, la transformée en z transforme un


produit de convolution en un simple produit.

1.4.4 Transformée de Fourier à temps discret


On considère dans cette section et la suivante que les signaux à temps discret
ont une période d’échantillonnage Te égale à 1 par convention. Pour se ramener
à une période d’échantillonnage T quelconque, on vérifie qu’il suffit d’appliquer
un coefficient multiplicateur de T sur l’axe temporel et 1/T sur l’axe fréquentiel.
La TF d’un signal à temps discret {xn ; z ∈ Z} se définit aisément par réfé-
rence à la TF des signaux à temps continu : en effet, le signal à temps continu
correspondant s’écrit : X
x(t) = xn δ(t − n) ,
n∈Z

et, en utilisant la propriété de linéarité de la TF, on obtient immédiatement :


X
X(ν) = xn e−2iπnν , (1.19)
n∈Z

où la variable ν varie sur R tout entier. En comparant l’équation ci-dessus


à (1.17), on observe que X(ν) est égal à la transformée en z de {xn ; z ∈ Z}
évaluée au point z = e2iπν . On observe aussi sur (1.19) que X(ν) est périodique
et de période 1. Ce résultat est symétrique de celui établi plus haut, selon
lequel la TF d’un signal périodique est une suite d’impulsions, donc un signal
échantillonné dans le domaine des fréquences.
Pour calculer la transformée inverse, il faut tenir compte de ce que X(ν) est
périodique et de période 1, et admet donc le développement en série de Fourier
14 CHAPITRE 1. SIGNAL DÉTERMINISTE

suivant :
X
X(ν) = bk e2iπkν ,
k∈Z

avec bk = < X(ν) · e−2iπkν > ,


Z 1
= X(ν) e−2iπkν dν .
0

En prenant la TF inverse de l’équation ci dessus, on constate que


X
x(t) = b−k δ(t − k) (1.20)
k∈Z

ce qui montre que x est bien un signal à temps discret dont l’échantillon xn
est égal au −k e coefficient du développement en série de Fourier de la TF. Ce
résultat est lui aussi symétrique de celui établi pour les signaux à temps continu
périodiques. Il nous reste maintenant à examiner le cas où x est à la fois à temps
discret et périodique. Ce cas est très important en pratique car il existe alors des
algorithmes de faible complexité numérique pour calculer la TF et son inverse.

1.4.5 Transformée de Fourier discrète


On se place dans le cas où le signal à temps discret {xn , n ∈ Z} est périodique
et de période N . Ce signal est donc complètement défini par les N échantillons
{xn , 0 ≤ n ≤ N − 1}. Par application des résultats établis précédemment, on
peut affirmer que X(ν) est périodique et de période 1 (car x est à temps discret)
et que X(ν) est un spectre de raies espacées de 1/N (car x est périodique
de période N ). X est donc lui aussi échantillonné et périodique. Le rapport
entre la période d’échantillonnage et la période montre que X est lui aussi
complètement défini par les N échantillons {Xk = X(k/N ); 0 ≤ k ≤ N − 1}.
Nous établissons maintenant les relations permettant de passer de {xn } à {Xk }
et réciproquement.
Par utilisation de (1.12), on voit que Xk est le k e coefficient de la décompo-
sition en série de Fourier de x ; il a donc pour expression :
N −1
1 X
Xk = xn e−2iπkn/N . (1.21)
N n=0

Cette équation définit la transformée de Fourier discrète (TFD) de x. De même,


par application de (1.20), on voit que :
N
X −1
xn = Xk e2iπkn/N , (1.22)
k=0

et l’équation ci-dessus définit la TFD inverse.


La TFD et son inverse permettent de passer d’un signal à temps discret
périodique représenté par N échantillons à un autre signal du même type. Le fait
1.4. SIGNAUX À TEMPS DISCRET 15

que ces signaux soient complètement définis par un nombre fini d’échantillons
simplifie beaucoup l’étude de ces transformées. Mais surtout, celles-ci peuvent
être calculées de manière économique par l’algorithme de transformée de Fourier
rapide (FFT, pour fast Fourier transform). Le principe de fonctionnement de
cet algorithme est exposé ci-après.
On observe sur (1.21) que le calcul de Xk nécessite environ N multiplications
et additions complexes. Comme il faut calculer N échantillons Xk , le calcul com-
plet requiert environ N 2 additions et multiplications complexes. L’idée générale
de l’algorithme FFT est d’exploiter les propriétés des exponentielles complexes
qui interviennent dans la somme de (1.21). Supposons que N est pair et égal à
2M . On peut réécrire (1.21) sous la forme :
M −1
1 X 
Xk = x2m e−2iπk(2m)/(2M ) + x2m+1 e−2iπk(2m+1)/(2M ) ,
2M m=0
M −1 M −1
1 X 1 −2iπ k X
= x2m e−2iπkm/M + e 2M x2m+1 e−2iπkm/M ,
2M m=0 2M m=0
1 
= Yk + e−2iπk/(2M ) Zk ,
2
où Yk et Zk correspondent respectivement aux TFD de taille M = N/2 des
échantillons pairs et impairs du signal. On a de plus :

Yk+M = Yk , Zk+M = Zk , e−2iπ(k+M )/(2M ) = −e−2iπk/(2M ) ,

ce qui permet d’écrire :


1 
Xk = Yk + e−2iπk/(2M ) Zk pour 0 ≤ k ≤ M − 1 ,
2
1  
Xk = Yk − e−2iπk/(2M ) Zk pour M ≤ k ≤ N − 1 .
2
En substance, on a réussi à remplacer une TFD de longueur N par deux TFD de
longueur N/2. Un décompte précis des opérations montre que les N 2 additions
et multiplications complexes ont été remplacées par (N 2 + N )/2 multiplications
et (N 2 + 2N )/2 additions. Si N est une puissance de 2, on peut répéter l’opé-
ration jusqu’à avoir à évaluer les TFD de signaux contenant seulement deux
échantillons, ce qui est trivial. On passe alors de complexités numériques de
l’ordre de N 2 pour la TFD standard à N log2 (N/2) pour la FFT. Dès que la
taille des signaux dépasse la centaine d’échantillons, le gain est très significatif.
Ainsi, pour N = 256 = 28 passe-t-on de 216 ≈ 64000 opérations pour la TFD
standard à 28 · 7 ≈ 2000 opérations pour la FFT.

1.4.6 Transformée de Fourier et FFT


Dans la pratique, le calcul numérique d’une TF se fait le plus souvent en
utilisant un algorithme de FFT après avoir échantillonné et numérisé le signal
16 CHAPITRE 1. SIGNAL DÉTERMINISTE

x continu non periodique X continu non periodique

X
x
0 0
0 (a) 0
Temps Frequence
x continu periodique X discret non periodique

X
x

0 0
0 (b) 0
Temps Frequence
x discret non periodique X continu periodique

X
x

0 0
0 (c) 0
Temps Frequence
x discret periodique X discret periodique

X
x

0 0
0 (d) 0
Temps Frequence

Figure 1.1 – Caractéristiques de la transformée de Fourier X d’un signal x.


(a) Lorsque x est continu et non périodique, X est également continu et non
périodique. (b) Lorsque x est continu et périodique, X est discret et non pé-
riodique. (c) Symétriquement, lorsque x est discret et non périodique, X est
continu et périodique. (d) Enfin, lorsque x est discret et périodique, X est lui
aussi discret et périodique. Ce dernier cas correspond aux hypothèses de la
transformée de Fourier discrète. Notons que dans chacun des quatre cas, x peut
être à bande limitée ou à bande infinie.

x auquel on s’intéresse. On dispose donc de N échantillons du signal {xn } à


partir desquels on calcule les N échantillons de la TFD {Xk }. Il est important
de savoir dans quelle mesure les {Xk } sont effectivement des échantillons de la
TF du signal original x. La réponse à cette question varie selon les propriétés
de x :
1. si x est à temps discret et périodique de période N , sa TF coïncide exacte-
ment avec la TFD que calcule l’algorithme FFT (voir section précédente) ;
2. si x est à temps discret et non périodique, sa TF est continue et périodique.
En se limitant à N échantillons du signal, on tronque la somme infinie qui
fournit la valeur de la TF. Cette troncature dans le domaine temporel cor-
respond à une convolution par un sinus cardinal dans le domaine spectral.
Évidemment, l’erreur tend vers 0 lorsque N tend vers l’infini ;
1.4. SIGNAUX À TEMPS DISCRET 17

3. si x est à temps continu et périodique, il possède un spectre de raies. Si,


de plus, le signal est à bande limitée, il est possible de l’échantillonner
sans perte d’information en respectant les conditions du théorème d’é-
chantillonnage. On est alors ramené au premier cas, et les échantillons Xk
correspondent aux échantillons de la TF de x. Par contre, si x est à bande
infinie, l’échantillonnage se traduit par un repliement spectral et provoque
donc une erreur dans le calcul de la TF. L’importance de cette erreur est
en général difficile à évaluer ;
4. si x est à temps continu et non périodique, deux situations se présen-
tent : soit x est à bande limitée et peut être alors échantillonné sans perte
d’information si on respecte les conditions du théorème d’échantillonnage.
On se retrouve alors dans le cas n◦ 2 ; soit x est à bande infinie auquel cas
on commet une erreur due au repliement de spectre en plus de celle due à
la troncature.
Notons que, à titre d’illustration, les caractéristiques des TF des différents types
de signaux sont présentés à la figure 1.1
Enfin, donnons quelques précisions sur le bourrage de zéros (zero-padding en
anglais) qui est fréquemment utilisé lors du calcul numérique d’une TF. Cette
pratique consiste à compléter les échantillons d’un signal à temps discret par
une séquence de zéros. Ceci peut servir a obtenir un nombre total d’échantillons
qui soit une puissance de 2 et donc permettre l’emploi d’un algorithme FFT.
Pour comprendre
PN −1 l’effet de cette pratique, considérons le signal à temps continu
x(t) = n=0 xn δ(t − n) associé au signal à temps discret {xn ; 0 ≤ n ≤ N −
1}. Les échantillons de la TFD {Xk } correspondent à des valeurs particulières
de la TF X(ν) associée à x(t). Or la TF n’est pas affectée par des valeurs
nulles du signal. Par conséquent, la seule conséquence du bourrage de zéros est
d’augmenter le nombre de points que la TFD « prélève » sur X(ν). Ceci peut
permettre de résoudre les ambiguïtés que peut présenter une TF échantillonnée
de manière trop lâche. Par contre, cette pratique ne permet en rien d’améliorer
la « résolution » de la TF ni de résoudre les difficultés exposées ci-dessus. Une
illustration de l’effet du bourrage de zéros est présentée à la figure 1.2.
18 CHAPITRE 1. SIGNAL DÉTERMINISTE

(a) Pas de bourrage de zeros (b) Bourrage de zeros X 2


80 80

60 60
spectre

spectre
40 40

20 20

0 0
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
frequence reduite frequence reduite
(c) Bourrage de zeros X 8 (d) Bourrage de zeros X 32
80 80

60 60
spectre

spectre

40 40

20 20

0 0
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
frequence reduite frequence reduite

Figure 1.2 – Effet du bourrage de zéros. Le signal à temps discret comportait


trois fréquences pures, et 16 échantillons étaient disponibles. (a) TFD du signal
sans bourrage de zéros. Il y a ambiguïté sur le nombre de fréquences présentes
dans de signal (deux, trois ou quatre ?) en raison de l’échantillonnage trop lâche
du spectre. (b) le doublement de la taille du signal par bourrage de zéros permet
de résoudre l’ambiguïté. (c) Avec un facteur multiplicatif de 8 sur la taille, le
spectre discret est proche du spectre continu. (d) Le bourrage de zéros supplé-
mentaires (ici, un facteur de 32) n’apporte peu d’informations supplémentaires
sur l’allure du spectre. Soulignons que le bourrage ne se traduit par aucun gain
en résolution : entre les figures (a) et (d), la largeur des pics n’a pas varié. Par
contre, la finesse du pas d’échantillonnage du spectre continu a augmenté.
Chapitre 2

Filtrage linéaire

2.1 Introduction
On appelle filtre tout opérateur qui transforme un signal, dit signal d’entrée
x, en un autre signal, dit signal de sortie y. Une représentation schématique
d’un filtre quelconque est donnée à la figure 2.1. Les filtres tiennent une grande
place en génie biomédical car il permettent de réaliser deux types d’opérations :
– des opérations de modélisation. Le filtre est utilisé comme une représenta-
tion mathématique de phénomènes dans lesquels des signaux biologiques
subissent une transformation. Ainsi, on peut modéliser par des filtres les
transformations subies par un signal de potentiel électrique entre le lieu
ou se produit le phénomène (par exemple, les fibres conductrices à l’inté-
rieur du cœur) et celui où s’effectue la mesure (par exemple, les électrodes
employées pour mesurer un électro-cardiogramme). On peut également
représenter par des filtres les modifications subies par une onde de pres-
sion entre son site d’émission (par exemple, l’intérieur du ventricule) et la
position du capteur (par exemple, l’intérieur d’une artère) ;
– des opérations de traitement. Lorsqu’on désire apporter des modifications
à un signal, par exemple pour en extraire certaines caractéristiques ou
en supprimer certaines composantes, on réalise par définition un filtrage.
Ce type d’opération est particulièrement fréquent en analyse de signaux
biomédicaux et en instrumentation.
·
x y
filtre h
signal d’entrée signal de sortie

Figure 2.1 – Représentation schématique d’un filtre. Le filtre h représente tout


opérateur transformant le signal d’entrée x en un signal de sortie, désigné par
y.

19
20 CHAPITRE 2. FILTRAGE LINÉAIRE

Ces quelques exemples soulignent l’importance pratique des filtres et l’intérêt


d’en étudier les propriétés. Bien entendu, une telle étude ne peut se faire qu’en
se fixant un cadre précis. Dans ce chapitre, on se limite au cas des filtres linéaires
et invariants qui conviennent dans la grande majorité des applications. De plus,
on se restreint aux signaux et aux filtres à temps discret, qui correspondent aux
traitements effectués à l’aide d’ordinateurs. Comme précédemment, on suppose
par convention que la période d’échantillonnage des signaux est égale à 1. Pour
retrouver les unités réelles, il suffit donc d’appliquer un coefficient multiplicateur
de T sur l’axe temporel et de 1/T sur l’axe fréquentiel, où T désigne la vraie
valeur de la période d’échantillonnage.

2.2 Filtres linéaires invariants


2.2.1 Définitions et caractérisation
Un filtre linéaire invariant peut être défini comme :
1. un système linéaire (c’est-à-dire satisfaisant le principe de superposition)
et dont les caractéristiques sont indépendantes du temps ;
2. un système dont la relation entrée-sortie est un produit de convolution ;
3. un système dont les fonctions propres sont les exponentielles (ce qui inclut
les exponentielles complexes).
On peut montrer que les trois définitions ci-dessus sont équivalentes, l’une
d’entre elles entraînant toujours les deux autres. Mais surtout, ces définitions
impliquent qu’un filtre 1 est entièrement caractérisé par sa réponse impulsion-
nelle (RI), qui est le signal de sortie du filtre lorsque le signal d’entrée est une
impulsion de Dirac. On désigne traditionnellement par h = {h(n); n ∈ Z} la
RI d’un filtre. h(n) étant un signal, il peut être représenté de manière équiva-
lente par sa transformée en z ou par sa TF. On a ainsi trois représentations
équivalentes d’un filtre :
– la RI h(n), réponse du filtre à une impulsion de Dirac ;
– la fonction de transfert (FT) H(z), transformée en z de la RI ;
– la réponse fréquentielle (RF) H(ν), transformée de Fourier de la RI.
Soulignons l’abus de notation par lequel nous désignons par le même symbole la
transformée en z et la TF de la RI. Le contexte permettra de lever l’ambiguïté.
Insistons aussi sur le fait que H(ν), comme TF d’un signal à temps discret, est
périodique et définie pour des valeurs continues de ν (voir figure 1.1).
Les filtres sont fréquemment utilisés pour transformer les signaux en atté-
nuant fortement certaines fréquences qui sont indésirables ou qui correspondent
à des perturbation. Ainsi, il est nécessaire de supprimer les hautes fréquences
dans un signal avant de l’échantillonner, afin de se trouver dans les conditions
d’application du théorème d’échantillonnage. De même, on est souvent amené
à supprimer des fréquences voisines de 50 ou 60 Hz qui correspondent à des
1. Dorénavant, le terme de filtre désignera un filtre linéaire invariant.
2.2. FILTRES LINÉAIRES INVARIANTS 21

(a) Filtre passe-bas (b) Filtre passe-haut

1 1

0.8 0.8
|H(nu)|^2

|H(nu)|^2
0.6 0.6

0.4 0.4

0.2 0.2

0 0
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
frequence reduite frequence reduite
(c) Filtre passe-bande (d) Filtre coupe-bande

1 1

0.8 0.8
|H(nu)|^2

|H(nu)|^2

0.6 0.6

0.4 0.4

0.2 0.2

0 0
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
frequence reduite frequence reduite

Figure 2.2 – Carré du module de la réponse fréquentielle de quatre types clas-


siques de filtres. (a) Filtre passe-bas. (b) Filtre passe-haut. (c) Filtre passe-
bande. (d) Filtre coupe-bande.

interférences avec le courant d’alimentation des appareils. Pour les traitements


de ce genre, on utilise généralement quatre grand types de filtres :
– les filtres passe-bas qui atténuent fortement les hautes fréquences sans
affecter fortement les basses fréquences ;
– les filtres passe-haut qui atténuent les basses fréquences et affectent peu
les hautes fréquences ;
– les filtres passe-bande qui atténuent les basses et les hautes fréquences en
laissant un intervalle de fréquence sans grand changement ;
– les filtres coupe-bande qui suppriment un intervalle de fréquence sans trop
altérer les hautes et les basses fréquences.
Dans la pratique, la RF d’un filtre permet de déterminer son type de manière
simple, ce qui explique que cette représentation soit très fréquemment utilisée.
La figure 2.2 présente une RF typique pour chacun des quatre types de filtres
mentionnés ci-dessus. La RF permet également de bien représenter la notion de
bande passante du filtre, définie comme l’intervalle de fréquence dans lequel le
signal d’entrée n’est pas atténué. Soulignons que bien souvent, on ne représente
que le module ou le carré du module de la RF, ce qui suffit pour caractériser
22 CHAPITRE 2. FILTRAGE LINÉAIRE

grossièrement le type du filtre, mais n’en permet pas un analyse complète. Ce


point sera illustré à la section 2.5.
Indiquons enfin que les trois représentations équivalentes d’un filtre four-
nissent plusieurs possibilités pour en calculer la sortie y lorsqu’on en connaît
l’entrée x. On peut soit calculer le produit de convolution y = h ∗ x dans le
domaine temporel, soit passer dans le domaine fréquentiel et utiliser l’expres-
sion Y (ν) = H(ν) X(ν), soit enfin se placer dans le domaine des z et écrire
Y (z) = H(z) X(z). En théorie, les trois expressions sont équivalentes. En pra-
tique, la transformée de Fourier est très fréquemment utilisée en raison du faible
coût de calcul des algorithmes FFT. Il faut néanmoins rappeler que chaque ex-
pression a des avantages et des inconvénients (possibilité de traitement récursif
des données par exemple) et qu’un changement de domaine s’accompagne sou-
vent d’erreurs numériques ou autres. Une méthode de calcul de la sortie d’un
filtre doit donc être choisie en fonction des caractéristiques spécifiques de l’ap-
plication.

2.2.2 Propriétés
Les deux plus importantes propriétés des filtres sont la causalité et la stabi-
lité, que l’on définit de la manière suivante :
– un filtre est causal si sa RI satisfait la condition :

∀n < 0, h(n) = 0 .

La causalité traduit le fait que l’effet d’un phénomène ne peut précéder sa


cause ou, en termes de signaux, qu’un échantillon xn de l’entrée n’affectera
pas les échantillons ym de la sortie tels que m < n ;
– un filtre est stable 2 si toute entrée bornée produit une sortie bornée. On
montre que ceci équivaut à la condition suivante sur la RI du filtre :
X
|h(n)| < ∞ .
n∈Z

L’importance de la notion causalité dépend beaucoup du contexte dans lequel


on se place. S’il s’agit de traiter des signaux en temps réel et au fur et à mesure
de l’arrivée des données, la causalité est un condition essentielle pour pouvoir
réaliser physiquement un filtre. Si par contre on traite les données globalement
en temps différé, la causalité des filtres utilisés n’a que peu d’importance. Dans
ce cas, on utilise fréquemment des filtres non causaux tels que, par exemple, des
fenêtres de pondération h(n) symétriques par rapport à n = 0.
Quel que soit le contexte de travail, on exigera toujours qu’un filtre soit
stable, car cette propriété est nécessaire pour que la sortie du filtre ne diverge
pas lorsqu’une entrée bornée lui est appliqué. La figure 2.3 illustre le phénomène
de divergence d’un filtre instable.
2. On donne ici la définition de la stabilité au sens strict, ou stabilité BIBO (pour bounded
input bounded output). Il existe d’autres définitions de la stabilité qui n’ont que peu d’intérêt
dans le cadre de ce cours.
2.3. FILTRES DYNAMIQUES 23

Signal d'entree
4

2
amplitude

(a) 0

-2

-4
0 50 100 150 200 250
nombre d'echantillons
Signal de sortie
10

5
amplitude

(b) 0

-5

-10
0 50 100 150 200 250
nombre d'echantillons

Figure 2.3 – Divergence d’un filtre instable. (a) Le signal d’entrée est un bruit
blanc gaussien de type « bruit thermique ». (b) L’amplitude du signal de sortie
du filtre instable croît très vite, et finit par dépasser les limites physiques du
système.

2.3 Filtres dynamiques


Dans de nombreuses applications, la relation entrée-sortie d’un filtre apparaît
sous la forme d’une équation aux différence, qui est l’équivalent en temps discret
d’une équation différentielle en temps continu, et qui peut s’écrire :

P
X Q
X
ap yn−p = bq xn−q , (2.1)
p=0 q=0

où {yn } et {xn } représentent respectivement la sortie et l’entrée du filtre. On


remarque que yn s’exprimant en fonction des valeurs de la sortie aux instants
précédents, les équations aux différences comportent une partie récurrente ; ceci
représente souvent un avantage pour la mise en œuvre. Dans cette section nous
donnons les principales caractéristiques des filtres définis par une relation du
type de (2.1).
24 CHAPITRE 2. FILTRAGE LINÉAIRE

2.3.1 Définitions
Filtres rationnels
On appelle filtre rationnel tout filtre dont la relation entrée-sortie est régie
par une équation de la forme (2.1). En prenant la transformée en z des deux
membres de cette équation, on obtient :
P
X Q
X
Y (z) ap z −p = X(z) bq z −q .
p=0 q=0

La fonction de transfert du filtre qui, en raison des propriétés de la transformée


en z, est égale à Y (z)/X(z), a donc pour expression :
PQ
q=0 bq z −q
H(z) = PP . (2.2)
p=0 ap z −p

De manière équivalente, les filtres rationnels peuvent être définis comme ceux
dont la fonction de transfert est une fraction rationnelle en z.

Pôles et zéros
D’après la remarque précédente, H(z) prend la forme d’un quotient de deux
polynômes en z. On dit que H(z) est sous forme irréductible lorsque le numé-
rateur et le dénominateur de H(z) n’ont aucune racine commune, c’est-à-dire
lorsque toutes les simplifications on été faite sur cette fraction rationnelle. On
appelle pôles (respectivement zéros) d’un filtre rationnel les racines complexes
du dénominateur (respectivement du numérateur) de sa fonction de transfert
mise sous forme irréductible.

Filtres dynamiques
On appelle filtre dynamique tout filtre rationnel à la fois causal et stable. Les
filtres dynamiques sont des filtres rationnels pour lesquels on n’observera pas
(en théorie) de divergence de la sortie pourvu que l’entrée reste bornée, et qui
permettront un traitement « en ligne » et récurrent des données. Ils présentent
des caractéristiques très intéressantes dans la pratique.

2.3.2 Propriétés
Caractérisation des filtres dynamiques
On peut montrer que pour qu’un filtre rationnel soit causal et stable, il faut
et il suffit que tous ses pôles soient de module strictement inférieur à 1. Après
avoir mis (2.2) sous la forme irréductible du quotient de deux polynômes en z
(et non plus en z −1 ), la simple recherche des racines complexes du dénominateur
permet donc de s’assurer que le filtre étudié est un filtre dynamique.
2.4. EXEMPLES 25

Types de filtres dynamiques


Si, dans l’expression de H(z) donnée en (2.2), le dénominateur est tel que
P = 0, la relation entrée-sortie peut se mettre sous la forme :
Q
X
y(n) = bq xn−q ,
q=0

ce qui montre que la RI du filtre ne comporte que Q+1 valeurs non nulles {bq ; 0 ≤
q ≤ Q}. C’est la raison pour laquelle de tels filtres sont appelés filtres à réponse
impulsionnelle finie (RIF). On remarquera que les filtres RIF ne comportent
pas de partie récurrente. Ils sont donc toujours stables.
Si P 6= 0, alors la RI du filtre comporte en général un nombre infini de
valeurs non nulles. On désigne de tels filtres par le terme de filtres à réponse
impulsionnelle infinie (RII). Les filtres de ce type comportent toujours une
partie récurrente, et donc des pôles. Il faut donc prendre garde aux questions
de stabilité.
Un cas particulier intéressant de filtre RII se produit lorsque Q = 0. L’équa-
tion entrée sortie a pour expression :
P
1 X b0
yn = − ap yn−p + xn ,
a0 p=1 a0

et la fonction de transfert prend la forme :

b0 zP
H(z) = PP = b0 PP .
p=0 ap z −p p=0 aP −p z p

les filtres sont appelés filtres tous pôles (FTP). Étant un cas particulier de filtres
RII, ils peuvent aussi présenter des problèmes de stabilité. Les FTP sont très
utilisés dans la pratique car la part prépondérante de leur partie récurrente leur
confère des propriétés particulières que nous n’examinerons pas ici.
Enfin, mentionnons que, outre les instabilités liées à la position des pôles, des
instabilités d’origine numérique peuvent se produire lors de la mise en œuvre
des filtres RII. En effet, le calcul récurrent de la sortie peut s’accompagner
d’une accumulation d’erreurs d’arrondi qui fait diverger le filtre. C’est pourquoi,
dans certaines applications, il est intéressant mettre en œuvre le filtre avec
des coefficients entiers. Les filtres RIF ne posent évidemment pas ce genre de
problème puisqu’ils ne comportent pas de partie récurrente.

2.4 Exemples
On donne dans cette section deux exemples de filtres simples, afin d’illustrer
certaines caractéristiques des types de filtres définis précédemment et d’intro-
duire quelques notions importantes pour la synthèse de filtres.
26 CHAPITRE 2. FILTRAGE LINÉAIRE

Reponse impulsionnelle Reponse frequentielle


15

1
10
0.8
amplitude

amplitude
0.6
5
0.4

0.2
0
0

-0.2 -5
-10 -5 0 5 10 -0.5 0 0.5
nombre d'echantillons frequence reduite

Figure 2.4 – Réponse impulsionnelle et réponse fréquentielle d’une fenêtre rec-


tangulaire. La réponse fréquentielle indique un comportement passe-bas de ce
filtre.

2.4.1 Fenêtre rectangulaire


Ce filtre est couramment utilisé pour opérer un lissage, ce qui permet d’éli-
miner certaines formes de bruit dans un signal. La relation entrée-sortie est
définie par :
XP
yn = xn−p .
p=−P

Il s’agit donc d’un filtre RIF dont la RI est donnée par :



h(p) = 1 si −P ≤ p ≤ P ,
h(p) = 0 si p 6∈ [−P, P ] .

En prenant la transformée de Fourier de la RI et à l’aide de quelques mani-


pulations algébriques, on montre que la réponse fréquentielle du filtre a pour
expression :
sin((2P + 1)πν)
H(ν) = .
sin πν
À titre d’illustration la RI du filtre et sa RF (qui est toujours réelle) sont repré-
sentées à la figure 2.4, pour une valeur de P égale à 7. L’allure de la RF indique
que le comportement du filtre est passe-bas.
Le filtre tel qu’il a été défini jusqu’à présent est stable (comme tout filtre
RIF), mais n’est évidemment pas causal. Pour le rendre causal si l’application
le requiert, on introduit un retard de P échantillons et la relation entrée-sortie
devient :
X2P
yn = xn−p .
p=0
2.4. EXEMPLES 27

On peut maintenant calculer la sortie en temps réel. Cependant, un tel calcul


implique 2P + 1 échantillons de l’entrée. Il est possible de réduire ce nombre
en mettent la relation entrée-sortie sous forme récurrente ; en effet, en calcu-
lant la différence entre yn+1 et yn à partir de l’équation précédente, on obtient
immédiatement :
yn+1 = yn + xn+1 − xn−2P .
Ainsi, on peut calculer la sortie du filtre de manière récurrente, et le calcul ne
porte que sur trois échantillons des signaux quelle que soit la taille de la fenêtre.
Cette forme est donc plus économique à mettre en œuvre que la forme non
récurrente. De plus, les coefficients du filtre sont entiers, ce qui permet d’éviter
de possibles instabilités numériques. Enfin, insistons sur le fait qu’il est très
rare de pouvoir transformer une équation entrée-sortie non récurrente en une
équation entrée-sortie récurrente ; l’exemple que nous venons de présenter doit
donc être interprété comme une exception plus que comme une règle.

2.4.2 Filtre tous pôles du premier ordre


On appelle filtre tous pôles du premier ordre un FTP qui comporte un seul
pôle. Il s’agit donc du plus simple des FTP. Son étude est d’autant plus justifiée
que les FTP du premier ordre peuvent être vus comme la « brique de base »
qui permettra de construire des filtres plus complexes qui sont très largement
utilisés pour le traitement des signaux biomédicaux.
En se référant à la définition des FTP et en limitant le nombre de pôles à 1,
on voit immédiatement que la relation entrée-sortie d’un FTP du premier ordre
est donnée par :
a1 b0
yn = − yn−1 + xn
a0 a0
ce qui, en posant a = −a1 /a0 et b = b0 /a0 , s’écrit encore :

yn = a yn−1 + b xn .

Par conséquent, la fonction de transfert du filtre a pour expression :


b bz
H(z) = = .
1 − az −1 z−a
Ceci montre que le pôle du filtre est égal à a. On en déduit que, pour que le
filtre soit stable, il est nécessaire et suffisant que |a| < 1.
Nous nous intéressons maintenant à certaines caractéristiques spectrales de
ce filtre. Pour cela, nous calculons sa RF qui se déduit immédiatement de la
fonction de transfert. On a donc :
b
H(ν) = .
1 − ae−2iπν
H(ν) est donc à valeurs complexes. Dans ce qui suit, nous nous limitons à l’étude
du carré du module de la RF, ou spectre du filtre. D’après l’équation précédente,
28 CHAPITRE 2. FILTRAGE LINÉAIRE

celui-ci prend la forme :

b2
|H(ν)|2 = . (2.3)
1 − 2a cos(2πν) + a2

Il est intéressant pour la suite d’obtenir une expression approchée du spec-


tre. Pour cela, on effectue un développement limité du cosinus qui apparaît
dans (2.3), puis on se place dans un repère « log-log ». On a :

b2
|H(ν)|2 ≈ .
1+ a2 − 2a(1 − 4π 2 ν 2 /2)

Lorsque ν tend vers 0, le terme en ν 2 devient négligeable. On a donc :

b2 b2
|H(ν)|2 ≈ = ,
1 + a − 2a
2 (1 − a)2

ce qui s’écrit encore :

ln |H(ν)|2 ≈ 2 ln b − 2 ln(1 − a) .

Ceci montre que lorsque ν tend vers 0 ou, de manière équivalente, lorsque ln ν
tend vers −∞, ln |H(ν)|2 a pour asymptote la droite horizontale d’ordonnée
2 ln b − 2 ln(1 − a).
Lorsque ν se rapproche de 1/2, c’est le terme en ν 2 qui devient prépondérant
dans le dénominateur. On a donc :
b2
|H(ν)|2 ≈ ⇐⇒ ln |H(ν)|2 ≈ 2 ln b − ln a − 2 ln(2πν) ,
a4π 2 ν 2
ce qui indique que, en échelles logarithmiques, |H(ν)|2 a pour asymptote la
droite de pente −2 dont forme exacte apparaît dans l’équation précédente. Le
spectre d’un FTP d’ordre un et ses asymptotes dont représentées à la figure 2.5.
L’allure du spectre indique clairement que le FTP du premier ordre est un
filtre passe-bas. On observe que les asymptotes approchent assez fidèlement le
spectre. C’est la raison pour laquelle, dans la pratique, on se contente souvent
de l’approximation du spectre par ses asymptotes. Celles-ci se croisent pour une
valeur νc de la fréquence telle que :
1 1−a
νc = √ .
2π a
Cette fréquence est appelée fréquence de coupure du filtre. Elle correspond ap-
proximativement à la fréquence au delà de laquelle l’atténuation devient impor-
tante.
Considérons maintenant un nouveau filtre constitué de deux FTP du premier
ordre identiques mis en cascade. La RI du filtre résultant va être le produit de
convolution des filtres élémentaires et, par conséquent, la RF du filtre résultant
va être le carré de celle d’un filtre élémentaire. En échelles logarithmiques, le
2.4. EXEMPLES 29

Spectre d'un FTP d'ordre 1


2
10

frequence de coupure

1
10
amplitude

0
10

-1
10 -4 -3 -2 -1 0
10 10 10 10 10
frequence reduite

Figure 2.5 – Spectre d’un filtre tous pôles du premier ordre, de paramètres
a = 0.8 et b = 1, représenté en échelles logarithmiques. Les asymptotes sont
représentées en traits mixtes. L’allure du spectre indique que le filtre est passe-
bas. Les asymptotes restent proches du spectre exact. L’intersection des deux
asymptotes donne la fréquence de coupure du filtre.
30 CHAPITRE 2. FILTRAGE LINÉAIRE

spectre du filtre résultant va être le double de celui d’un filtre élémentaire, ce


qui montre que la fréquence de coupure ne va pas changer, mais que la pente de
l’asymptote va être deux fois plus importante. Autrement dit, le filtre résultant
va atténuer plus fortement les fréquences situées au delà de la fréquence de
coupure. On vient ainsi de construire un FTP passe-bas du deuxième ordre
(l’ordre d’un FTP est égal au nombre de ses pôles, comptés avec leur ordre de
multiplicité).
On peut évidemment mettre en cascade des filtres de caractéristiques dif-
férentes les unes des autres. On pourrait par exemple associer deux FTP du
premier ordre n’ayant pas la même fréquence de coupure. On obtiendrait ainsi
un atténuation modérée entre les deux fréquences de coupure et une atténuation
plus forte au delà de la seconde fréquence de coupure. On peut aussi utiliser
des filtres élémentaires dont la fonction de transfert est l’inverse de celle d’un
FTP d’ordre 1. En représentation log-log, le spectre de ce filtre élémentaire est
l’opposé de celui d’un FTP du premier ordre, et l’on a donc affaire à un filtre
passe-haut. En associant des filtres passe-bas et des filtres passe-haut, on peut
alors obtenir des filtres passe-bande et coupe-bande. Pour une étude rapide
des caractéristiques de filtres résultant de telles associations, les diagrammes
asymptotiques sont d’une grande utilité. On peut ainsi concevoir des filtres dont
le spectre sera proche d’un gabarit défini à l’avance en fonction du traitement
à effectuer. On aborde ainsi le domaine de la synthèse des filtres sur lequel la
section suivante donne quelques précisions.

2.5 Synthèse de filtres


2.5.1 Présentation du problème
Dans de nombreuses situations, les caractéristiques de systèmes de traite-
ment sont spécifiées dans le domaine spectral. C’est par exemple le cas des filtres
anti-repliement employés lors de l’échantillonnage de signaux, des filtres utili-
sés pour rejeter des bandes de fréquences précises (interférence avec le courant
d’alimentation) ou en isoler d’autres (modulation). Bien souvent, une grande
partie des spécifications porte sur le module de la RF du filtre étudié. Or, la
phase de la RF peut avoir une influence considérable sur le comportement du
filtre. Ce point est illustré à la figure 2.6. Le filtre présenté a une RF dont le
module est constant et égal à 1. Pourtant, les distorsions qu’il provoque sur
le signal d’entrée sont considérables. Celles-ci sont la conséquence de la phase,
particulièrement chaotique, de ce filtre.
L’exemple de la figure 2.6 est évidemment extrême. Dans la pratique, une
variation douce de la phase de la RF se traduit par le phénomène de « rebond »
asymétrique de la sortie du filtre dont un exemple est donné à la figure 2.7.
Il est parfois utile de rétablir la symétrie de ces rebonds, donc celle de la RI.
La TF d’une fonction symétrique étant réelle, on en déduit que dans ce cas, la
phase de la RF du filtre est nulle. C’est la raison tels filtres sont appelés filtres à
phase nulle. Ceux-ci présentent l’inconvénient de ne pas être causaux, mais l’on
2.5. SYNTHÈSE DE FILTRES 31

Signal d'entree
2

1
amplitude

-1

-2
0 50 100 150 200 250
nombre d'echantillons

Signal de sortie
2

1
amplitude

-1

-2
0 50 100 150 200 250
nombre d'echantillons

RI du filtre Module de la RF Phase de la RF


1 1.5 4

1 2
amplitude

amplitude

amplitude

0.5
0.5 0
0
0 -2

-0.5 -0.5 -4
0 20 0 0.25 0.5 0 0.25 0.5
nombre d'echantillons frequence reduite frequence reduite

Figure 2.6 – Exemple de filtre passe-tout déphaseur. Bien que le module de la


RF de ce filtre soit constant et égal à 1, on observe de grandes différences entre
l’entrée et la sortie. Ceci est dû aux fortes variations de la phase de la RF. La
RI du filtre est d’ailleurs très différente d’une simple impulsion. Néanmoins, les
signaux d’entrée et de sortie ont le même contenu spectral.
32 CHAPITRE 2. FILTRAGE LINÉAIRE

Signal d'entree

amplitude
1
(a) 0.5
0
-0.5
0 10 20 30 40 50 60 70 80 90
nombre d'echantillons
Signal de sortie, phase non nulle
amplitude

1
(b) 0.5
0
-0.5
0 10 20 30 40 50 60 70 80 90
nombre d'echantillons
Signal de sortie, phase nulle
amplitude

1
(c) 0.5
0
-0.5
0 10 20 30 40 50 60 70 80 90
nombre d'echantillons

Figure 2.7 – Phénomène de rebond dans le domaine temporel. (a) Signal d’en-
trée. (b) Signal de sortie pour un filtre passe bas d’ordre 4 de fréquence de
coupure réduite égale à 0.375. On observe de nombreuses oscillations asymé-
triques par rapport à l’impulsion et au créneau. (c) Signal de sortie pour un
filtre de mêmes caractéristiques à phase nulle. Les oscillations sont symétriques
par rapport à l’impulsion et au créneau. En contrepartie, ce filtre n’est pas
causal.

peut facilement contourner la difficulté en introduisant un retard. Cela change


la phase du filtre, qui devient alors linéaire. La figure 2.7 présente également
un exemple de filtrage par un filtre à phase linéaire.
Finalement, lorsque l’on doit concevoir des filtres présentant un minimum de
complexité, on doit bien souvent tenir compte de contraintes dans le domaine
spectral (gabarit à respecter pour le module de la RF, amplitude des rebonds du
spectre au voisinage des fréquences de coupure, possible contrainte de linéarité
de la phase), mais aussi dans le domaine temporel (amplitude des rebonds).
On se trouve alors face à un problème d’optimisation non linéaire pour lequel
il n’existe pas de solution universelle. Par contre, il existe un certain nombre
de filtres « classiques » dont les caractéristiques générales sont bien connues et
pour lesquels on dispose d’outils de conception analytiques ou numériques. Nous
donnons ci-après les caractéristiques majeures de quelques-uns de ces types de
filtres.
2.5. SYNTHÈSE DE FILTRES 33

(a) Filtre Butterworth (b) Filtre Chebychev type I

1 1

0.8 0.8
|H(nu)|^2

|H(nu)|^2
0.6 0.6

0.4 0.4

0.2 0.2

0 0
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
frequence reduite frequence reduite
(c) Filtre Chebychev type II (d) Filtre elliptique

1 1

0.8 0.8
|H(nu)|^2

|H(nu)|^2

0.6 0.6

0.4 0.4

0.2 0.2

0 0
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
frequence reduite frequence reduite

Figure 2.8 – Spectre d’un filtre passe-bande pour les types classiques de filtres.
Les fréquences de coupure réduites étaient fixées à 0.125 et 0.375. (a) Filtre
Butterworth du d’ordre 8. (b) et (c) Filtres de Chebychev d’ordre 8 de type I
et II respectivement. (d) Filtre elliptique d’ordre 8.

2.5.2 Types classiques de filtres


De nombreux outils logiciels sont disponibles pour la conception des filtres
présentés ci-après, soit sous forme de produits spécifiques, soit comme partie
de logiciels plus complets tels que matlab. Les types de filtres dont nous don-
nons ci-après les principales caractéristiques permettent, dans leur forme la plus
simple, de construire des filtres passe-bas ; cependant, par inversion de leur fonc-
tion de transfert et association de plusieurs filtres, on peut synthétiser des filtres
passe-haut, passe-bande et coupe bande. Selon le type de choisi, on obtient divers
compromis entre plusieurs facteurs affectant le module de la RF. Ces facteurs
sont l’amplitude des oscillations dans les parties passe-bande et coupe-bande
ainsi que la raideur du module de la RF au voisinage de la (ou des) fréquence(s)
de coupure. Aucune contrainte n’est introduite sur la phase de la RF ni sur
l’amplitude des rebonds dans le domaine temporel. À titre d’illustration, la
figure (2.8) donne, pour chacun des types étudiés, le spectre d’un filtre passe-
bande d’ordre 8 dont les fréquences de coupure sont égales à 0.125 et 0.375.
34 CHAPITRE 2. FILTRAGE LINÉAIRE

Filtres de Butterworth
Les filtres de butterworth présentent un spectre monotone (c’est-à-dire sans
oscillations) dans les parties passe-bande et coupe-bande de la RF. En contre-
partie, la pente du spectre au voisinage de la fréquence de coupure est moins
forte que pour les autres types de filtres. Un des avantages de ce type de filtres
est que l’on peut établir la forme analytique de la fonction de transfert en fonc-
tion des caractéristiques désirées. On évite ainsi d’avoir recours à des méthodes
numériques d’optimisation.

Filtres de Chebychev de type I et II


Les filtres de Chebychev présentent des oscillations d’amplitude uniforme
dans les parties passe-bande (type I) et coupe-bande (type II). Dans l’autre
bande, le spectre est monotone. L’amplitude des oscillations fait partie des pa-
ramètres de conception du filtre. La pente du spectre au voisinage de la fréquence
de coupure est plus élevée que pour les filtres de Butterworth de même ordre.

Filtres elliptiques
Les filtres elliptiques présentent des oscillations d’amplitude uniforme à la
fois dans la partie passe-bande du spectre. Ici aussi, l’amplitude des oscillations
fait partie des paramètres de conception du filtre. La pente du spectre au voi-
sinage de la fréquence de coupure est plus élevée que pour les autres types de
filtres, à ordre donné. En contrepartie, le problème d’optimisation permettant
de déterminer les coefficients de la fonction de transfert présente une grande
complexité ; la synthèse d’un filtre de ce type requiert donc généralement un
volume de calcul élevé.
Chapitre 3

Signal aléatoire

3.1 Introduction
Lorsque l’on étudie des phénomènes physiques ou biologiques, les observa-
tions ou mesures que l’on effectue sont toujours entachées d’incertitudes. Lorsque
l’utilisation qui est faite des observations est peu sensible aux incertitudes, ces
dernières peuvent être négligées. Mais, dans la plupart des cas, il est utile d’en
tenir compte, ne serait-ce que pour évaluer précisément la manière dont elles
se propagent dans une chaîne de traitement et affectent le résultat final. Mais
comment tenir compte de quantités incertaines, donc présentant un caractère
imprévisible ? Une possibilité est de modéliser de telles incertitudes en faisant
appel à la notion de phénomène aléatoire, et donc de hasard.
L’expérience montre que de telles modélisations décrivent très bien des phé-
nomènes biologiques (par exemple, le comportement de certaines cellules ner-
veuses), physiques (comptes de photons en tomographie d’émission) ou autres.
Par ailleurs, de telles descriptions permettent aussi d’adopter une approche sys-
tématique des problèmes d’estimation. Le but de ce chapitre est donc de pré-
senter quelques résultats sur les signaux aléatoires, c’est à dire comportant des
incertitudes. Les deux questions importantes auxquelles nous donnerons des élé-
ments de réponse sont les suivantes :
1. dans quelle mesure les incertitudes affectent-elles la représentation spec-
trale des signaux ?
2. comment les incertitudes se propagent-elles lors des opérations de filtrage ?
Pour cela, nous nous limitons aux signaux à temps discret qui sont les plus
utilisés dans la pratique. Par conséquent, la question de l’échantillonnage des
signaux aléatoires à temps continu n’est pas abordée ici. De plus, la représenta-
tion spectrale de signaux aléatoires complexes posant quelques difficultés, nous
nous limitons aux signaux à valeurs réelles. Enfin, comme l’étude des signaux
aléatoires utilise largement le calcul des probabilités et la notion de variable
aléatoire, nous rappelons ci-après quelques résultats fondamentaux sur ces ques-
tions. Il est à noter que l’introduction de toutes ces notions nécessite de faire

35
36 CHAPITRE 3. SIGNAL ALÉATOIRE

appel à des concepts abstraits tels que les espaces probabilisés, la théorie de la
mesure, etc. Ici, on adopte un point de vue beaucoup plus concret, en omettant
une bonne partie de cet arrière plan théorique. Par conséquent, quelques uns des
développements ci-dessous peuvent présenter un certain flou, voire un manque
de rigueur. Pour une présentation plus complète de ces notions, le lecteur est
renvoyé à l’abondante littérature sur la théorie des probabilités et des processus
aléatoires.

3.2 Variables aléatoires


Comme indiqué dans l’introduction, les variables aléatoires (VA) peuvent
être définies de manière formelle comme des applications d’un espace probabi-
lisé dans RN . Pour nous, elles représentent simplement une série de N mesures
entachées d’incertitudes. Se pose alors la question de la caractérisation mathé-
matique de ces incertitudes. Pour y répondre, nous allons d’abord considérer le
cas d’une seule mesure scalaire (VA scalaire), puis d’un ensemble de mesures
(VA vectorielle ou vecteur aléatoire).

3.2.1 Variables aléatoires scalaires


Dans ce qui suit, il est nécessaire d’établir une distinction entre la valeur
mesurée ou l’observation effectuée d’une part, et le modèle des incertitudes
ayant conduit à l’observation ou à la mesure d’autre part. Ici, le modèle, donc
la VA, est désigné par une majuscule et la valeur effectivement observée par
la minuscule correspondante. On dira par exemple que la VA X a conduit à
l’observation x, ou a pris la valeur x.
Considérons le cas où un observateur effectue une mesure scalaire (par exem-
ple, la mesure d’un angle de Cobb, du rythme cardiaque, de la concentration
sanguine de telle ou telle substance). Cet observateur est bien souvent capable
de préciser un domaine pour des valeurs vraisemblables de sa mesure, un do-
maine pour des valeurs plus improbables et un autre correspondant à des valeurs
pratiquement interdites (en raison de la nature du phénomène observé, des li-
mitations du système de mesure, etc.). Pour illustrer cela, il pourrait tracer une
courbe dont l’axe des abscisses représente la valeur de la mesure et l’axe des
ordonnées les chances pour qu’elle se produise. Un exemple en est donné à la
figure 3.1 : cette courbe donne l’indication intuitive que les mesures vont certai-
nement se situer soit entre −8 et 3, soit entre 4 et 6 avec de plus grandes chances
vers le milieu de ces intervalles qu’en leurs extrémités. Les valeurs mesurées n’ont
pratiquement aucune chance d’être en dehors de ces deux intervalles.
Cette idée intuitive conduit aux notions de fonction de répartition et de den-
sité de probabilité d’une VA, qui permettent d’en caractériser le comportement.
La fonction de répartition FX (x) d’une VA X est définie comme la probabilité
que X prenne une valeur inférieure ou égale à x :
4
FX (x) = P (X ≤ x) .
3.2. VARIABLES ALÉATOIRES 37

(a) Densité de probabilité (b) Fonction de répartition


1 1
probabilité P(x < X ≤ x + dx)

0.8 0.8

probabilité P(X ≤ x)
0.6 0.6

0.4 0.4

0.2 0.2

0 0
-10 -5 0 5 10 -10 -5 0 5 10
valeur de la mesure valeur de la mesure

Figure 3.1 – Exemple de densité de probabilité et de fonction de répartition.


La densité de probabilité fX (x) permet de caractériser intuitivement les valeurs
probables ou non de la mesure x. La fonction de répartition FX (x) se définit
comme la probabilité pour que la mesure prenne une valeur inférieure ou égale
à x. La densité de probabilité est donc la dérivée de la fonction de répartition.

Si X prend des valeurs continues, on en déduit immédiatement que

P (x1 < X ≤ x2 ) = FX (x2 ) − FX (x1 ) . (3.1)

0 4
Supposons de plus que FX est continûment dérivable, et posons fx = FX . Par
définition :
fX (x)dx = dFX (x) ≈ FX (x + dx) − FX (x) ,
et d’après (3.1), on a :

fX (x)dx ≈ P (x < X ≤ x + dx) . (3.2)

La fonction fX , que l’on désigne par le terme de densité de probabilité, repré-


sente, au facteur multiplicatif dx près, la probabilité pour que X prenne une
valeur proche de x. Elle correspond donc à la courbe tracée intuitivement par
l’observateur pour définir les valeurs plus ou moins vraisemblables de ses me-
sures. De par sa définition, une densité vérifie certaines propriétés importantes.
En particulier, d’après (3.2) :

∀x, fX (x) ≥ 0 ,

car une probabilité est toujours positive. D’autre part, d’après la définition de
fX : Z x2
FX (x2 ) − FX (x1 ) = fX (x)dx ,
x1
38 CHAPITRE 3. SIGNAL ALÉATOIRE

d’où, en utilisant (3.1) :


Z x2
fX (x)dx = P (x1 < X ≤ x2 ) .
x1

On en déduit que Z +∞
fX (x)dx = 1 ,
−∞

car P (−∞ < X ≤ +∞) correspond à l’évènement certain. Une densité de


probabilité est donc une fonction définie sur R, à valeurs positives et d’intégrale
égale à 1.
Le comportement des VA à valeurs continues est complètement caractérisé
par leur densité de probabilité pour peu que la fonction de répartition soit
continûment dérivable, ce que nous supposerons vérifié. Cependant, une mesure
peut parfois ne prendre que des valeurs discrètes, en nombre fini ou infini. Soit
{xi ; i ∈ I} l’ensemble de ces valeurs possibles. La chance pour que la mesure xi
P produise est alors simplement définie par la probabilité pi = P (X = xi ), avec
se
i∈I pi = 1. Les probabilités pi caractérisent complètement le comportement
de la VA à valeurs discrètes X. On dit que fX ou {pi ; i ∈ I} définissent la loi
de la VA X.
Outre son interprétation intuitive, la densité de probabilité 1 d’une VA per-
met aussi de définir plusieurs quantités utiles. En particulier, l’espérance mathé-
matique ou moyenne d’une VA est définie par :
Z
4
E[X] = xfX (x)dx . (3.3)
R

Soulignons que E[X] n’est pas toujours définie, l’intégrale apparaissant au 2e


membre de (3.3) pouvant diverger. De même, on définit le moment d’ordre p de
X comme : Z
4
E[X p ] = xp fX (x)dx ,
R
et l’espérance de ϕ(X), transformée de X par la fonction ϕ, comme :
Z
4
E[ϕ(X)] = ϕ(x)fX (x)dx .
R

Comme pour E[X], le moment d’ordre p et E[ϕ(X)] n’existent pas nécessai-


rement. Par contre, on montre que si le moment d’ordre p de X existe, tous les
moments d’ordre inférieur existent aussi. On a alors la définition suivante :
Ordre d’une variable aléatoire - Une VA est dite d’ordre p si son
moment d’ordre p existe.

Toute VA d’ordre p est donc aussi d’ordre q si q ≤ p.


1. Dans le reste de ce chapitre, le terme de densité de probabilité désignera aussi les pro-
babilités pi définissant la loi d’une VA discrète. Dans les expressions mathématiques, il suffira
de remplacer les intégrales par les sommes discrètes correspondantes.
3.2. VARIABLES ALÉATOIRES 39

Certains moments d’une VA ont une interprétation physique simple. Par


exemple, le moment d’ordre 1 représente la valeur moyenne de plusieurs mesures
lorsque l’on est capable de les répéter indépendamment les unes des autres (ceci
correspondrait à la moyenne des angles de Cobb ou des rythmes cardiaques
d’un ensemble de patients). Le moment d’ordre 2 est lié à l’énergie moyenne des
mesures (voir ci-après la définition de la variance et de l’écart-type), etc. Les
moments permettent aussi de « résumer » à l’aide de quelques nombres l’allure
de la densité de probabilité. L’espérance mathématique fournit son centre de
masse, le moment d’ordre 2 est lié à la dispersion autour de cette valeur centrale,
le moment d’ordre 3 exprime l’asymétrie par rapport à cette valeur centrale, etc.
Pour les VA d’ordre supérieur ou égal à 2, on utilise généralement les quantités
suivantes, définies à l’aide des deux premiers moments :

moyenne m = E[X] ,
2 2 2
variance p = E[(X − m) ] = E[X ] − m ,
var[X]
écart-type σ = var[X] .

L’écart-type représente la dispersion moyenne des mesures par rapport à la


valeur moyenne. La variance correspond à l’énergie des déviations par rapport
à la valeur moyenne.
Soulignons enfin que parmi tous les types de VA, les VA gaussiennes jouent
un rôle très important. Deux raisons expliquent cela : d’une part, lorsque plu-
sieurs phénomènes aléatoires se combinent, le phénomène résultant a souvent
tendance à se rapprocher de la gaussienne (ce résultat est formalisé par le théo-
rème de la limite centrale). Les VA gaussiennes constituent donc des modèles
adéquats pour de nombreux phénomènes ; d’autre part, les densités gaussiennes
se manipulent relativement simplement et permettent souvent de mener les cal-
culs assez loin. Sauf contradiction flagrante avec la physique des phénomènes
étudiés, l’utilisateur aura donc tendance à préférer un modèle gaussien. Une VA
X est de loi gaussienne N (m, σ 2 ) si et seulement si sa densité de probabilité est
de la forme :
(x − m)2
 
1
fX (x) = √ exp − .
2πσ 2 2σ 2
On montre qu’une telle VA est du second ordre, de moyenne m et de variance
σ 2 . La variable est dite réduite si m = 0 et σ = 1.
Enfin, signalons que pour une VA gaussienne N (m, σ 2 ), la probabilité pour
que la mesure soit éloignée de plus de 2σ de la moyenne m est inférieure à
5%. Cette valeur tombe à moins de 1% pour que la mesure soit à plus de 3σ
de la moyenne m. En première approximation, on peut donc considérer que la
probabilité pour que la mesure soit à plus de deux ou trois écarts-types de la
moyenne est, à toutes fins pratiques, nulle.

3.2.2 Couples de variables aléatoires


Les notions introduites au paragraphe 3.2.1 permettent de caractériser le
comportement d’une mesure entachée d’incertitude. Or, dans la pratique, on
40 CHAPITRE 3. SIGNAL ALÉATOIRE

dispose souvent de deux mesures ou plus se rapportant au même phénomène.


Se posent alors les questions de la caractérisation du comportement d’ensemble
de ces mesures entachées d’incertitudes, et aussi de la manière dont une partie
de ces mesures nous renseigne sur les valeurs vraisemblables des autres. La ré-
ponse est fournie d’une part en étendant les notions introduites au paragraphe
précédent, et d’autre part faisant appel à la règle de Bayes qui joue un rôle
important non seulement pour l’étude des VA, mais aussi en estimation. Pour
présenter les principaux résultats, nous considérons un couple (X, Y ) de va-
riables aléatoires scalaires, qui correspondrait donc à deux mesures entachées
d’incertitude. L’extension à des mesures plus nombreuses, mais en nombre fini,
ne pose pas de difficulté et sera présentée brièvement au paragraphe 3.2.3.
Comme pour les VA scalaires, les couples de VA sont caractérisés par leur
loi ; pour des VA à valeurs continues 2 , nous supposerons ici que la loi admet
une densité de probabilité fXY que l’on définit comme

4
fXY (x, y)dx dy = P (x < X ≤ x + dx, y < Y ≤ y + dy) .

Au terme dx dy près, la densité de probabilité du couple représente donc la


probabilité pour que les valeurs des deux mesures soient proches de x et y.
La densité de probabilité de chacune des variables se déduit de la densité de
probabilité du couple par les formules de projection suivantes :
Z
fX (x) = fXY (x, y)dy ,
ZR
fY (y) = fXY (x, y)dx .
R

Notons que la densité de probabilité de chacune des variables renseigne sur les
valeurs probables d’une mesure sans tenir compte de l’autre, contrairement à la
densité du couple qui exprime aussi le lien entre les deux mesures. C’est pourquoi
il n’est en général pas possible de déduire la densité du couple à partir de la
densité de chacune des variables. Les variables indépendantes font exception à
cette règle. En effet, on a :

Indépendance - Deux VA X et Y sont indépendantes si et seulement si


fXY (x, y) = fX (x) fY (y).

Remarquons que, des VA indépendantes n’ayant justement aucun lien, il est


naturel que la densité du couple puisse s’exprimer à partir de celle des deux
variables.
La densité du couple permet de définir l’espérance mathématique d’une fonc-

2. Pour les VA à valeurs discrètes, les densités de probabilité sont à remplacer par des
probabilités discrètes, comme pour les VA scalaires.
3.2. VARIABLES ALÉATOIRES 41

tion du couple, et en particulier la moyenne du couple qui prend pour expression :


Z Z
E[(X, Y )] = (x, y)fXY (x, y)dx dy ,
R
Z Z 
= xfX (x)dx , yfY (y)dy ,
R R
= (E[X], E[Y ]) .

Notons que E[(X, Y )] n’existe pas nécessairement. La moyenne du couple ap-


paraît comme le couple de la moyenne de chaque VA. Le lien entre les deux
éléments du couple n’intervient donc pas dans le calcul de la moyenne. Pour
exprimer simplement ce lien, on fait souvent appel à la covariance du couple
définie par :
4
cov[X, Y ] = E[(X − E[X])(Y − E[Y ])] ,
= E[XY ] − E[X]E[Y ] ,
Z Z
= xyfXY (x, y)dx dy − E[X]E[Y ] ,
R

ou encore au coefficient de corrélation ρXY qui s’exprime comme :

4 cov[X, Y ]
ρXY = p .
var[X]var[Y ]

On peut montrer que le coefficient de corrélation, lorsqu’il existe, est nécessai-


rement compris entre −1 et 1. Lorsque la covariance de deux VA est nulle, on
dit qu’elles sont décorrélées. On a la propriété importante suivante :
Indépendance et corrélation - Deux variables indépendantes sont né-
cessairement décorrélées, mais la réciproque est généralement fausse.

De la même manière que les moments d’une VA permettent de « résumer »


l’allure de sa densité de probabilité, la covariance permet de « résumer » le lien
entre X et Y exprimé par fXY . Une caractérisation complète à l’ordre 2 de fXY
est constituée par la matrice de covariance que l’on définit par :
    
4 X E[X]
RXY = E (X, Y ) − (E[X], E[Y ]) ,
Y E[Y ]
E[X 2 ] E[XY ] E[X]2
   
E[X]E[Y ]
= − ,
E[XY ] E[Y 2 ] E[X]E[Y ] E[Y ]2
 
var[X] cov[X, Y ]
= .
cov[X, Y ] var[Y ]

Cette matrice résume donc les propriétés énergétiques de X et Y par ses termes
diagonaux, et le lien entre X et Y par ses termes rectangles.
Lorsque deux VA sont liées, la mesure de l’une renseigne sur les valeurs pro-
bables de l’autre. Cette situation est illustrée à la figure 3.2 : supposons que
42 CHAPITRE 3. SIGNAL ALÉATOIRE

l’on cherche à mesurer le rythme cardiaque d’une certaine population. Des ana-
lyses préliminaires (épidémiologiques par exemple) ont montré que le rythme
cardiaque moyen de cette population est de 60 Hz avec un écart-type de 10 Hz.
On modélise donc le rythme cardiaque des individus de cette population par
une VA gaussienne de moyenne 60 et d’écart-type 10. La densité correspon-
dante est donnée à la figure 3.2-b, en traits pleins. On observe que ce modèle
interdit pratiquement les mesures inférieures à 30 Hz et supérieures à 90 Hz.
Pour mesurer le rythme cardiaque de chaque individu, on dispose d’un appareil
relativement imprécis, puisque sa dispersion moyenne autour de la vraie valeur
est de 5 Hz. On modélise ici encore cette dispersion par une gaussienne, dont
une représentation apparaît à la figure 3.2-a. On observe que des écarts allant
jusqu’à 15 Hz par rapport à la vraie valeur peuvent se produire. En combinant
les informations apportées par ces deux modèles, il est intuitif que des mesures
seront vraisemblables dans un domaine un peu plus large que celui des vraies
valeurs du rythme cardiaque, en raison de la dispersion du capteur. C’est ce que
l’on observe effectivement sur la courbe en traits interrompus de la figure 3.2-b,
qui donne la densité des mesures.
Supposons maintenant que l’on ait mesuré une valeur de rythme cardiaque
à l’aide de l’appareil. Quelle information cette mesure nous donne-t-elle sur la
vraie valeur du rythme cardiaque ? Intuitivement, si la mesure se situe dans
le domaine des valeurs probables du rythme cardiaque, on pourra déduire que
la vraie valeur se situe autour de la valeur mesurée, avec une dispersion assez
semblable à celle du capteur. C’est effectivement ce que l’on constate à la fi-
gure 3.2-c, pour une valeur mesurée égale à 50 Hz. Par contre, si la mesure se
situe vers les extrémités du domaine des valeurs probables, il semble logique que
la vraie valeur ait plus de chance d’être vers l’intérieur de ce domaine que vers
l’extérieur. C’est ce que l’on observe à la figure 3.2-d, où le calcul montre que les
valeurs les plus probables du vrai rythme cardiaque se situent autour de 80 Hz,
et non pas de 90 Hz.
Pour formaliser ces notions, il est nécessaire de faire appel à la règle de
Bayes : considérons un couple de VA (X, Y ), et supposons que X ait pris la
valeur x (x représente donc la valeur mesurée). La densité de Y une fois que
l’on sait que X a pris la valeur x, que l’on note fY |X=x (y), prend l’expression
suivante :
fXY (x, y)
fY |X=x (y) = .
fX (x)
On remarque que fY |X=x est entièrement déterminée par la densité du couple,
puisque le dénominateur de l’expression ci-dessus se déduit de fXY par projec-
tion. Soulignons l’importance de la relation ci-dessus, qui indique la manière de
combiner les informations amenées d’une part par les modèles des incertitudes
et d’autre part par les mesures. Indiquons également que fY |X=x étant la densité
de probabilité d’une VA scalaire, elle permet de définir les grandeurs usuelles :
espérance mathématique (que l’on désigne alors par le terme d’espérance condi-
tionnelle), moments, etc.
Enfin, comme pour les VA scalaires, les couples de VA gaussiennes ont une
grande importance. La densité de probabilité d’un couple (X, Y ) de VA gaus-
3.2. VARIABLES ALÉATOIRES 43

(a) - Dispersion du capteur (b) - Vraie valeur (-) et mesure (- -)


0.08 0.04
Densite de probabilite

Densite de probabilite
0.06 0.03

0.04 0.02

0.02 0.01

0 0
-20 -10 0 10 20 0 50 100
Rythme cardiaque Rythme cardiaque
(c) - Mesure à 50 Hz (d) - Mesure à 90 Hz
0.1 0.1
Densite de probabilite

0.08 Densite de probabilite 0.08

0.06 0.06

0.04 0.04

0.02 0.02

0 0
0 50 100 0 50 100
Rythme cardiaque Rythme cardiaque

Figure 3.2 – Illustration du phénomène de conditionnement. (a) Dispersion du


capteur ; (b) distribution a priori de la grandeur d’intérêt (traits pleins) et de la
valeur de la mesure (traits interrompus) ; (c) distribution de la grandeur d’inté-
rêt, pour une observation de 50. Cette distribution reproduit sensiblement celle
du capteur, et est presque centrée sur la valeur observée ; (d) distribution de la
grandeur d’intérêt, pour une observation de 90. Cette dernière n’est plus centrée
sur la valeur observée, en raison de la forme de la distribution a priori de la
grandeur mesurée qui rend les valeurs supérieures à 90 très peu vraisemblables.

siennes est complètement définie par la moyenne du couple (mX , mY ) et par sa


matrice de covariance RXY . Elle a pour expression

  
4 1 1 −1 x − mX
fXY (x, y) = exp − (x − mX , y − mY )RXY ,
2π |RXY |1/2 2 y − mY

et est généralement notée N ((mX , mY ), RXY ). Enfin, parmi les propriétés des
couples de VA gaussiennes, mentionnons que chaque élément du couple est lui-
même gaussien, et que toutes les lois conditionnelles sont gaussiennes.
44 CHAPITRE 3. SIGNAL ALÉATOIRE

3.2.3 Vecteurs aléatoires


Lorsque l’on dispose de N mesures scalaires entachées d’incertitudes, on peut
alors définir la VA vectorielle ou vecteur aléatoire X dont chaque élément est
constitué par une des mesures scalaires. Les vecteurs aléatoires sont une généra-
lisation immédiate des couples de VA. En fait, pour en établir les propriétés, il
suffit d’introduire le couple composé de la première VA scalaire X1 et de la VA
vectorielle Y contenant les mesures 2 à N , d’utiliser formellement les notions
définies au paragraphe précédent, puis de recommencer en prélevant de manière
récurrente un élément de Y . Nous indiquons ci-après les principales définitions
et propriétés des vecteurs aléatoires, qui sont sont exprimées dans un formalisme
vectoriel.
Le comportement d’un vecteur aléatoire est complètement défini par sa loi.
Pour un vecteur aléatoire à valeurs continues, nous supposons que sa densité de
probabilité fX (x) existe. Celle-ci a pour propriété :

fX (x)dx = P (x1 < X1 ≤ x1 + dx1 , . . . , xN < XN ≤ xN ) ,

où X = (X1 , . . . , XN )T et dx = dx1 . . . dxN , le symbole (·)T désignant la trans-


position. Au terme dx près, fX (x) représente donc la probabilité pour que X
prenne une valeur proche de x. Cette densité est positive, d’intégrale égale à 1,
et la densité de tout sous-vecteur s’obtient par projection : si X est partitionné
en deux sous-vecteurs X1 et X2 , alors
Z
fX1 (x1 ) = fX (x) dx2 .

Par ailleurs, les deux sous-vecteurs X1 et X2 sont indépendants si et seulement


si
fX (x) = fX1 (x1 )fX2 (x2 ) .
Le densité de probabilité du vecteur aléatoire permet d’en définir l’espérance
mathématique : Z
4
E[X] = xfX (x)dx .

L’expression ci-dessus montre que E[X] est un vecteur composé des espérances
des éléments de X. On définit aussi que la matrice de covariance de X :
4
= E (X − E[X])(X − E[X])T ,
 
RX
= E XX T − E[X]E[X]T .
 

Les éléments diagonaux de RX correspondent à la variance des éléments de X


et les termes rectangles sont égaux aux covariances entre les éléments corres-
pondants de X.
Comme pour les couples, on peut introduire la notion de conditionnement
d’un sous-vecteur par rapport à un autre. Supposons que l’on s’intéresse à un
vecteur X dont on a effectivement observé un sous-vecteur x1 . La densité du
3.2. VARIABLES ALÉATOIRES 45

sous-vecteur complémentaire X2 , une fois que x1 a été observé, s’exprime à


l’aide de la règle de Bayes :

fX1 X2 (x1 , x2 ) fX (x)


fX2 |X1 =x1 (x2 ) = = .
fX1 (x1 ) fX1 (x1 )

Comme au paragraphe précédent, on constate que la densité conditionnelle est


complètement définie par la loi du vecteur complet, puisque le dénominateur
s’en déduit par projection.
Enfin, les vecteurs aléatoires gaussiens sont d’une grande importance pra-
tique. Leur densité de probabilité a pour expression :
 
1 1 T −1
fX (x) = exp − (x − m) R X (x − m) ,
(2π)N/2 |RX |1/2 2

où m désigne l’espérance mathématique de X et RX sa matrice de covariance.


Une telle densité de probabilité est souvent notée N (m, RX ). Lorsqu’un vecteur
aléatoire est gaussien, tous ses sous-vecteurs le sont aussi, ainsi que toutes les
densités conditionnelles qui s’en déduisent.
46 CHAPITRE 3. SIGNAL ALÉATOIRE
Chapitre 4

Estimation

4.1 Introduction
Dans de nombreuses situations expérimentales en physique et en biologie, on
ne dispose pas directement de mesures des quantités qui nous intéressent. Seules
sont disponibles des observations qui sont liées à la grandeur inconnue, et qui, la
plupart du temps, comportent des incertitudes. L’objet des techniques d’estima-
tion est d’utiliser « au mieux » (en un sens à définir) les mesures effectuées pour
en extraire de l’information sur la grandeur d’intérêt, et, dans la majorité des
cas, prendre une décision « raisonnable » sur sa valeur. Comme il n’existe pas
de critère universel d’optimalité pour l’extraction de l’information présente dans
les données, l’utilisateur se trouve devant la nécessité de faire des choix : choix
de modèles d’incertitudes (sur les données, sur la quantité à estimer), choix de
la relation mathématique, plus ou moins approximative, qui lie la grandeur à es-
timer et les données observées, choix d’un critère pour l’attribution d’une valeur
estimée à la grandeur inconnue. Cette multiplicité de choix constitue une des
difficultés de l’estimation. Dans ce qui suit, nous présentons une approche assez
systématique de l’estimation qui permet de résoudre la plupart des problèmes
usuels tout en s’adaptant à leurs caractéristiques particulières. Après avoir défini
la problématique de l’estimation et présenté cette méthodologie de résolution,
nous nous intéressons plus particulièrement au cas où les phénomènes étudiés
peuvent être modélisés par des systèmes linéaires, et où les incertitudes peuvent
être considérées comme gaussiennes en première approximation.

4.2 Problématique de l’estimation


Plaçons nous dans la situation où l’on cherche à mesurer expérimentalement
une grandeur scalaire x (par exemple, un angle de Cobb à partir d’une radio-
graphie, ou le gain d’un amplificateur utilisé en instrumentation). Supposons de
plus que la mesure n’introduise pas de distorsion, mais soit simplement entachée
d’incertitude. Si l’on ne dispose que d’une seule mesure z (une seule radiogra-

47
48 CHAPITRE 4. ESTIMATION

phie, une seule mesure du gain de l’amplificateur), le mieux que l’on puisse faire
en l’absence de toute autre information est d’attribuer à l’estimée de x, notée
x̂, la valeur de la mesure. Dans ce cas, on a donc :

x̂ = z .

Supposons maintenant que l’on dispose de N mesures indépendantes zn ; 1 ≤


n ≤ N . La décision de la plupart des expérimentateurs sera alors de prendre
pour estimée de x la moyenne des mesures effectuées. On a donc :
N
1 X
x̂ = zn . (4.1)
N n=1

Il est important de voir que l’équation (4.1) est en fait basée sur plusieurs
hypothèses implicites. L’expérimentateur suppose que la moyenne va permettre
de réduire l’influence des incertitudes sans pour autant affecter la valeur de x.
Selon lui, l’effet des incertitudes serait de fournir une mesure tantôt inférieure à
x, tantôt supérieure à x. En d’autres termes, il suppose que les incertitudes sont
additives et de moyenne nulle, et donc que l’on peut modéliser les phénomènes
par :
zn = x + bn , (4.2)
où bn représente les incertitudes, ou le bruit affectant la mesure n. L’expéri-
mentateur émet donc une hypothèse de structure sur le phénomène étudié. Ici,
cette hypothèse de structure prend la forme relativement simple de (4.2) ; celle-
ci sépare clairement la partie certaine (x) de la partie incertaine (le bruit b), les
deux étant liées aux mesures z par une relation déterministe (addition).
Par ailleurs, en supposant que la moyenne intervenant dans (4.1) permet
de réduire l’influence des incertitudes, l’utilisateur admet implicitement que les
échantillons de bruit bn ont un comportement plutôt agité et réparti autour de
zéro, alors que x reste constant. Il formule donc une hypothèse probabiliste qui
décrit ici le comportement statistique du bruit (bruit centré et peu corrélé), et
qui fait apparaître un contraste entre la quantité à estimer et les incertitudes
(ici, contraste entre l’invariance de x et les fortes variations des échantillons du
bruit b).
Dans l’exemple ci-dessus, les hypothèses probabilistes portent seulement sur
les incertitudes affectant les mesures. Aucune information sur les valeurs plau-
sibles de x n’est introduite, et on se fie exclusivement aux mesures pour prendre
une décision sur la valeur de l’estimée. Aucune valeur n’étant interdite, x̂ peut
donc théoriquement prendre n’importe quelle valeur, même si certaines d’entre
elles sont incompatibles avec la physique des phénomènes étudiés. Ceci peut se
révéler pénalisant, surtout dans des conditions d’estimation difficiles (fortes in-
certitudes sur les mesures, mauvais contraste...). Si l’on dispose d’informations
a priori sur x, il peut être intéressant de les formuler également sous la forme
d’hypothèses probabilistes. Par exemple, si l’on connaît des zones de valeurs
probables de x (par exemple, x positif, x inférieur à une borne donnée, x plutôt
distribué autour de telle ou telle valeur connue à l’avance...), on peut résumer
4.3. MÉTHODOLOGIE DE L’ESTIMATION 49

cette connaissance dans une densité de probabilité, ce qui revient à considé-


rer x comme une variable aléatoire. En pratique, l’effet d’une telle hypothèse
est d’introduire un compromis entre l’information apportée par les mesures et
celle introduite a priori sur x. Si l’information présente dans les mesures est
compatible avec l’information a priori, l’effet de cette dernière est peu visible.
Par contre, si l’information présente dans les mesures conduit à une estimée en
dehors du domaine des valeurs plausibles x, l’information a priori a tendance à
rapprocher x̂ de ce domaine. Ce comportement est illustré à la section 4.3 (voir
la figure 4.1).
Finalement, toute procédure d’estimation peut être scindée en deux étapes :
tout d’abord, la mise en équation le problème posé, c’est à dire la formulation des
hypothèses de structure et des hypothèses probabilistes. Ces hypothèses consti-
tuent un modèle des phénomènes étudiés et des incertitudes qui les affectent,
et permettent aussi d’introduire des connaissances préalables sur la quantité à
estimer ; ensuite, l’utilisation d’un nécessaire contraste entre les incertitudes sur
les mesures et la quantité à estimer pour prendre une décision raisonnée sur la
valeur de cette dernière. Le contraste porte généralement sur le comportement
statistique et sur les dimensions respectives de ces grandeurs. Nous précisons
maintenant la manière de prendre cette décision.

4.3 Méthodologie de l’estimation

4.3.1 Principe

Considérons la situation où l’on désire estimer une quantité scalaire ou vec-


torielle x à partir de mesures z. Supposons que les hypothèses de structure et
les hypothèses probabilistes aient été formulées. x et z étant des quantités incer-
taines, on leur associe respectivement les VA X et Z. L’ensemble des hypothèses
émises permet de définir deux types d’incertitudes :
– l’incertitude sur z lorsqu’on suppose x connu. Cette incertitude découle de
la structure des phénomènes et du modèle des incertitudes sur les mesures.
La VA Z qui lui est associée est caractérisée par sa densité de probabilité
qui, comme on suppose x connu, est la densité conditionnelle fZ|X=x (z) ;
– l’incertitude a priori sur x. Cette incertitude représente les hypothèses
probabilistes sur la quantité à estimer. Celles-ci sont formulées par l’inter-
médiaire de la densité de probabilité a priori de la VA X que l’on note
fX (x).
L’objet de la procédure d’estimation est d’extraire toute l’information disponible
sur x, une fois les mesures effectuées. Traduite en termes probabilistes, cette
information correspond exactement à la loi de X un fois que l’on connaît Z,
ou encore à la loi conditionnelle de X sachant que Z a pris la valeur z, que
l’on représente par sa densité fX|Z=z (x). Or il nous est possible de calculer
50 CHAPITRE 4. ESTIMATION

fX|Z=z (x) à partir de nos hypothèses en appliquant la règle de Bayes ; en effet :

fXZ (x, z)
fX|Z=z (x) = ,
fZ (z)
fZ|X=x (z) fX (x)
= . (4.3)
fZ (z)

Le numérateur de (4.3) découle directement des hypothèses émises. Quant au


dénominateur, il représente une simple constante de normalisation, la densité
fZ étant évaluée pour la valeur de z correspondant aux mesures. Il est possible
de déterminer formellement fZ (z) à partir de fXZ (x, z) par projection. Mais
dans la plupart des cas, on ne s’intéresse qu’au comportement de fX|Z=z (x) et
surtout à la position de ses maxima, qui ne sont pas affectés par une constante
multiplicative. Le terme fZ (z) peut alors être ignoré.
En toute rigueur, la densité a posteriori fX|Z=z (x) représente la totalité
de l’information disponible sur x une fois les hypothèses émises et les mesures
effectuées. On remarque que cette connaissance sur x résulte de la combinai-
son de l’information fournie par les mesures (représentée par fZ|X=x (z)) et de
l’information a priori disponible sur x (représentée par fX (x)). La manière de
combiner ces deux sources d’information nous est fournie par la règle de Bayes,
d’où le nom d’approche bayésienne donné à cette démarche. Dans la pratique,
on souhaite souvent résumer l’information disponible sur x par une seule valeur,
l’estimée x̂. La question est donc de déduire de fX|Z=z (x) une valeur raisonnable
de x. Il existe plusieurs réponses classiques dont la pertinence dépend en partie
des caractéristiques particulières du problème traité. Ici, nous nous limitons à
l’estimation au sens du maximum a posteriori (MAP), dont les performances
sont satisfaisantes dans une grande variété de situations. Cette approche consiste
à choisir pour estimée la valeur de x « la plus probable », c’est-à-dire celle qui
maximise la densité de probabilité a posteriori de x. On a donc
4
x̂MAP = arg max fX|Z=z (x) ,
x

= arg max fZ|X=x (z) fX (x) , (4.4)
x

où, pour obtenir (4.4), on a pu négliger le terme fZ (z) qui n’intervient pas dans
la maximisation.
Il est à noter que la nature des hypothèses de structure et probabilistes a
un impact important sur la forme des densités fZ|X=x et fX , et donc sur la
difficulté du problème de maximisation permettant d’obtenir x̂MAP . Dans la
pratique, un modèle précis des phénomènes observés peut conduire à d’excel-
lentes performances, mais aussi à des calculs longs et difficiles, voire impossible
à mettre en œuvre. C’est pourquoi, il est généralement nécessaire de faire un
compromis entre la précision des hypothèses et les performances d’une part, et
les difficultés de calcul et de mise en œuvre d’autre part. Ce compromis doit
évidemment être adapté aux caractéristiques particulières du problème traité
et à la difficulté de l’estimation. Si le contraste entre les données mesurées et
4.3. MÉTHODOLOGIE DE L’ESTIMATION 51

la quantité à estimer est bon, ce qui indique que l’information fournie par les
mesures est riche, l’information a priori sur x a peu d’importance. On peut
alors supposer sans danger que x peut prendre ses valeurs n’importe où dans
un très grand domaine. On traduit cette idée en prenant pour fX une fonction
constante sur le domaine considéré. En faisant croître la taille du domaine jus-
qu’à l’infini 1 , fX (x) = constante disparaît de (4.4) et on obtient l’estimateur
au sens du maximum de vraisemblance (MV) :
4
x̂MV = arg max fZ|X=x (z) . (4.5)
x

On observe sur (4.5) que l’estimation MV revient à faire exclusivement confiance


aux données pour déterminer la valeur de x. Cette approche risque donc de ne
pas convenir à des situations où les données sont peu informatives. On préfé-
rera alors une approche MAP où l’information a priori sur x viendra pallier le
manque relatif d’information apporté par les mesures.

4.3.2 Exemples
L’objet des exemples présentés ci-dessous est d’indiquer comment les con-
cepts introduits au paragraphe 4.3.1 peuvent être utilisés en pratique. Le premier
exemple illustre dans un cas très simple la démarche générale que nous avons
présentée et la différence de comportement entre les estimateurs MV et MAP.
Le second exemple montre que la technique classique d’estimation d’un retard
par corrélation peut être obtenue par la même démarche.

Estimation d’une quantité scalaire en présence de bruit fort


Supposons que l’on désire estimer une quantité scalaire x à partir de N
observations {zn ; 1 ≤ n ≤ N } entachées d’une grande incertitude. Pour fixer les
idées, on suppose que les valeurs usuelles de x sont comprises approximativement
entre −2 et 2, et que l’incertitude sur chaque mesure peut aller jusqu’à ±20, le
tout étant exprimé dans des unités arbitraires.
Pour estimer x, la première étape est de formuler les hypothèses probabi-
listes et de structure. En l’absence d’autres informations, on suppose que les
incertitudes viennent s’ajouter à la vraie valeur de x pour former les mesures.
On a donc le modèle suivant :

z n = x + bn , (4.6)

où bn représente l’incertitude sur la ne mesure. Ceci constitue l’hypothèse de


structure, et il nous faut maintenant préciser les hypothèses probabilistes. En ce
qui concerne les incertitudes sur les mesures, on peut raisonnablement supposer
qu’elles sont de moyenne nulle (elles varient de autour de 0) et indépendantes les
unes des autres. En l’absence d’autres renseignements, on peut également sup-
poser que ces incertitudes suivent une loi gaussienne, cette hypothèse simplifiant
1. Soulignons ici que ce raisonnement est qualitatif, une densité uniforme sur un domaine
infini n’étant en toute rigueur pas définie.
52 CHAPITRE 4. ESTIMATION

généralement la mise en œuvre. La valeur moyenne ayant déjà été choisie, il reste
à spécifier la variance ou l’écart-type de cette loi. En raison des caractéristiques
des lois gaussiennes (voir le chapitre 3), on peut prendre pour écart-type σB
une valeur de 10, ce qui rend très invraisemblables les valeurs de b supérieures
à 20 ou 30 en valeur absolue. On a donc :
2
fBn (bn ) = N (0, σB ) ; σB = 10 ,
b2n
 
1
= exp − 2 ,
KB 2σB
où KB désigne le coefficient de normalisation de cette gaussienne. D’après l’hy-
pothèse d’indépendance des incertitudes, on en déduit que la densité de proba-
bilité de (B1 , . . . , BN ) prend la forme :
PN !
2
1 n=1 bn
fB1 ...BN (b1 , . . . , bN ) = N exp − 2 . (4.7)
KB 2σB

Formulons maintenant une hypothèse probabiliste sur x. Le plus simple est


évidemment de ne rien supposer sur les valeurs plausibles de x, donc de prendre
pour fX (x) la fonction constante. Cette hypothèse conduit à l’estimateur MV.
Une autre option est de tenir compte des valeurs plausibles de x, comprises entre
−2 et 2. Par le même raisonnement que précédemment, on peut prendre pour
fX (x) une distribution gaussienne de moyenne nulle et d’écart-type σX = 1 qui
a pour expression :
x2
 
1
fX (x) = exp − 2 , (4.8)
KX 2σX
où KB désigne le coefficient de normalisation de cette densité a priori. L’utili-
sation de cette loi a priori conduit à un estimateur MAP.
La seconde étape consiste à trouver l’expression de la densité conditionnelle
fZ1 ...ZN |X=x et de la densité a priori fX . Cette dernière nous est directement
fournie par (4.8) dans le cas de l’estimation MAP et est constante dans le cas
de l’estimation MV. En ce qui concerne la densité des mesures connaissant x,
l’hypothèse de structure formalisée dans (4.6) montre que les mesures suivent
la même loi que les incertitudes, à l’exception de la moyenne qui est décalée de
x. D’après (4.7), la densité conditionnelle prend la forme :
PN !
2
1 n=1 (zn − x)
fZ1 ...ZN |X=x (z1 , . . . , zN ) = N exp − 2 . (4.9)
KB 2σB

La troisième étape consiste consiste à trouver l’expression de l’estimée.


D’après (4.4) et (4.5), on a :
( PN !)
2
1 n=1 (zn − x) x2
x̂MAP = arg max NK
exp − 2 − 2 ,
x KB X 2σB 2σX
( PN !)
2
1 (zn − x)
x̂MV = arg max N
exp − n=1 2 ,
x KB 2σB
4.3. MÉTHODOLOGIE DE L’ESTIMATION 53

Dans un cas comme dans l’autre, maximiser la fonction revient à minimiser


l’opposé de l’argument de l’exponentielle. On en déduit que
(P )
N 2 2
n=1 (zn − x) x
x̂MAP = arg min 2 + 2 ,
x 2σB 2σX
(P )
N 2
n=1 (zn − x)
x̂MV = arg min 2 .
x 2σB

Pour trouver l’argument minimisant chacune de ces fonctions, il suffit d’écrire


que leur dérivée par rapport à x est nulle. On obtient alors :
N
1 X
x̂MAP = 2 /σ 2 zn , (4.10)
N + σB X n=1
N
1 X
x̂MV = zn . (4.11)
N n=1

2 2
On observe que les deux estimateurs ne diffèrent que par le terme σB /σX au
dénominateur du second membre de (4.10). Lorsque N est petit et que les me-
sures sont très incertaines (σB grand), ce terme, qui correspond à l’information
a priori sur x, a une influence significative. Celle-ci vient pallier la pauvreté des
informations contenues dans les données. Lorsque N est grand ou que l’incerti-
tude sur les mesures est faible, ce terme devient négligeable. Ceci correspond au
fait que l’information contenue dans les mesures est alors suffisante pour estimer
x correctement. Dans ce cas, les deux estimateurs sont pratiquement identiques.
Une illustration de ce comportement est donnée à la figure 4.1. Le système
simulé correspond exactement à celui traité en exemple : les mesures sont ob-
tenues en ajoutant à la grandeur x un bruit pseudo-aléatoire gaussien blanc de
moyenne nulle et d’écart type égal à 10. Les courbes représentent la valeur de
l’estimée en fonction du nombre N de mesures pour les deux estimateurs et pour
deux valeurs de x. On observe tout d’abord que l’estimateur MAP a un compor-
tement stable : quelle que soit la vraie valeur de x et quel que soit le nombre de
mesures, les valeurs estimées varient de manière relativement douce en fonction
de N . Par contre, lorsque N est inférieur à 100, l’estimateur MV présente de
grandes variations lorsque le nombre de mesures varie. Ceci s’explique par le fait
que l’estimateur MV se fie exclusivement aux mesures pour déterminer x̂. Pour
les petites valeurs de N , l’information contenue dans les mesures est relative-
ment pauvre, et une seule mesure fortement entachée d’erreur est suffisante pour
faire varier sensiblement la valeur de l’estimée. L’estimateur MAP ne présente
pas ce comportement, l’information a priori sur x venant contrebalancer l’effet
des incertitudes sur les mesures. Pour les grandes valeurs de N , les deux esti-
mateurs présentent un comportement semblable. Ceci correspond au fait que,
dans cette situation, l’information contenue dans les mesures est suffisante pour
déterminer une estimée correcte de x. Pour l’estimateur MAP, l’information a
priori sur x devient alors négligeable.
54 CHAPITRE 4. ESTIMATION

(a) Estimateur MAP


5
estimee

-5
0 100 200 300 400 500 600 700 800 900 1000
nombre de mesures
(b) Estimateur MV
5
estimee

-5
0 100 200 300 400 500 600 700 800 900 1000
nombre de mesures

Figure 4.1 – Comparaison d’estimateurs MAP et MV pour l’estimation d’une


grandeur scalaire x affectée d’incertitudes importantes. Celles-ci sont représen-
tées par un bruit gaussien centré additif. Pour l’estimateur MAP, la grandeur à
estimer est modélisée comme une VA gaussienne centrée de variance unité. Ces
diagrammes représentent la valeur des estimées en fonction du nombre de me-
sures pour x = −1 et x = 4. L’estimateur MV présente des instabilités lorsque le
nombre de mesures est faible. Lorsque le nombre de mesures est élevé, les deux
estimateurs ont un comportement comparable. Lorsque l’information a priori
est pertinente (x = −1) l’estimateur MAP est clairement supérieur. Lorsque
l’information a priori n’est pas pertinente, l’estimateur MAP a tendance à sous
estimer x pour ramener l’estimée dans le domaine des valeurs a priori vraisem-
blables, alors que l’estimateur MV ne présente pas ce comportement.
4.3. MÉTHODOLOGIE DE L’ESTIMATION 55

Il est également intéressant de comparer le comportement des estimateurs


pour les deux valeurs de x. La première valeur (x = −1) est conforme à l’infor-
mation a priori introduite sur x. L’estimateur MAP se comporte alors beaucoup
mieux que l’estimateur MV puisque x̂MAP reste au voisinage de la vraie valeur
de x quel que soit le nombre de mesures. La deuxième valeur (x = 4) n’est
pas conforme à l’information a priori, puisque cette dernière rend très peu vrai-
semblables les valeurs de x supérieures à 3. Lorsque le nombre de mesures est
relativement petit, l’estimateur MAP a tendance à sous-estimer x pour rame-
ner la valeur estimée dans le domaine des valeurs vraisemblables de x. Plus
N augmente, plus le poids de l’information a priori diminue et plus x̂MAP se
rapproche de la vraie valeur de x. Comme l’estimateur MV ne tient compte d’au-
cune hypothèse sur x, il se comporte de la même manière dans les deux cas :
instabilité lorsque N est petit, comportement satisfaisant lorsque N est grand.
Ceci illustre une des difficultés de l’approche bayésienne : l’information a priori
permet généralement d’obtenir des estimées satisfaisantes lorsque les conditions
d’estimation sont difficiles (faible contraste, fortes incertitudes), mais elle peut
également conduire à des résultats médiocres lorsque l’hypothèse formulée n’est
pas vérifiée. On a donc généralement intérêt à se montrer « conservateur » en
introduisant une information a priori juste suffisante pour stabiliser le problème
d’estimation, quitte à en rajouter si la situation le nécessite.

Estimation d’un retard


Le problème consiste à déterminer l’instant d’arrivée d’un signal (ou d’une
onde) de forme et d’amplitude connues, lorsque le signal que l’on mesure est en-
taché d’incertitudes. Une solution classique consiste à calculer la fonction d’in-
tercorrélation entre le signal mesuré et la forme d’onde connue, et à choisir pour
instant d’arrivée celui qui maximise la fonction de corrélation. On montre ici que
cette solution est en fait une estimation MV, sous des hypothèses probabilistes
et de structure que nous précisons ci-après.
On dispose donc de la forme d’onde dont on veut estimer l’instant d’arrivée.
Nous modélisons celle-ci par un signal à temps discret connu xn . Pour pouvoir
effectuer numériquement les calculs, on suppose que ce signal ne comporte qu’un
nombre fini d’échantillons non nuls. On dispose par ailleurs de mesures zn qui
contiennent une version décalée de x et sont entachées d’incertitudes. En sup-
posant que ces incertitudes sont additives, on peut traduire les hypothèses par
le modèle suivant :
zn = xn−τ + bn , (4.12)
où τ désigne l’instant d’arrivée de la forme d’onde par rapport au signal de réfé-
rence x, et où bn représente les incertitudes. L’objet de la procédure d’estimation
est de déterminer τ . Formulons maintenant les hypothèses probabilistes. En ce
qui concerne les incertitudes bn , vu le peu d’informations disponibles à leur su-
jet, on peut les modéliser par des VA gaussiennes indépendantes de moyenne
nulle et de variance σ 2 . Quant à τ , puisqu’on ne dispose d’aucune indication
sur ses valeurs vraisemblables, on choisit de lui attribuer une densité a priori
égale à la fonction constante, ce qui conduit à un estimateur MV. Il nous faut
56 CHAPITRE 4. ESTIMATION

maintenant exprimer la densité des données observées zn lorsque l’on suppose


τ connu. Or l’équation (4.12) montre que zn suit la même loi que bn , à l’ex-
ception de sa moyenne qui est décalée de xn−τ . Lorsque l’on suppose τ connu,
les mesures peuvent donc être considérées comme des VA indépendantes de loi
N (xn−τ , σ 2 ) dont la densité a pour expression :

(zn − xn−τ )2
 
1
fZn |τ (zn ) = exp − ,
K 2σ 2

où K désigne la constante de normalisation de la gaussienne. Il s’agit maintenant


d’établir l’expression de la densité conditionnelle de l’ensemble des mesures.
Pour ce faire, on doit supposer que celles-ci sont en nombre fini N , et que la
forme d’onde est incluse dans les N échantillons disponibles. On peut alors
écrire, en raison de l’indépendance des incertitudes :
N
Y
fZ1 ...ZN |τ (z1 , . . . , zN ) = fZn |τ (zn ) ,
n=1
PN !
1 n=1 (zn − xn−τ )2
= exp − .
KN 2σ 2

Déterminons maintenant l’estimée de τ . Comme nous avons choisi une den-


sité de probabilité a priori uniforme pour τ , l’estimateur est de type MV. On a
donc :

τ̂MV = arg max fZ1 ...ZN |τ (z1 , . . . , zN )


τ
( PN !)
2
1 n=1 (zn − xn−τ )
= arg max exp − .
τ KN 2σ 2

Maximiser la fonction ci-dessus revient évidemment à minimiser l’opposé de


l’argument de l’exponentielle, d’où :
(P )
N 2
n=1 (zn − x n−τ )
τ̂MV = arg min .
τ 2σ 2

En omettant le dénominateur qui n’intervient pas dans la minimisation et en


développant le carré, on obtient :
(N N N
)
X X X
2 2
τ̂MV = arg min zn + xn−τ − 2 zn xn−τ .
τ
n=1 n=1 n=1

PN PN
Le terme n=1 zn2 ne dépend pas de τ . Le terme n=1 x2n−τ est lui aussi indé-
pendant de τ ; en effet, comme nous avons supposé que la forme d’onde, donc le
signal x, est incluse dans les N échantillons mesurés, on peut faire le changement
de variable p = n − τ sans modifier la valeur de la somme. Les deux premiers
4.3. MÉTHODOLOGIE DE L’ESTIMATION 57

(a) Signaux
500

0
amplitude

-500

-1000
0 50 100 150 200 250 300 350
nombre d'echantillons
(b) Fonction de correlation
1
amplitude

0.5

-0.5
-300 -200 -100 0 100 200 300
nombre d'echantillons

Figure 4.2 – Estimation du temps d’arrivée d’un signal par MV. (a) Signaux
disponibles : en traits pleins, la forme d’onde originale (période d’électrocardio-
gramme) ; en traits interrompus, le signal mesuré, version décalée et bruitée du
signal original. (b) Fonction de corrélation des deux signaux. Celle-ci présente
un pic marqué pour τ = 100 ms, valeur du temps d’arrivée de la forme d’onde
dans le signal mesuré. Le maximum de la fonction de corrélation correspond à
l’estimée MV du temps d’arrivée.

termes n’interviennent donc pas dans la minimisation. Quant à la troisième


somme, on reconnaît en elle l’expression de la fonction de corrélation γxz (τ ) des
signaux x et z (voir chapitre 1). Il en découle que :

τ̂MV = arg max {γxz (τ )} ,


τ

et l’estimée MV du temps d’arrivée du signal est obtenue comme la valeur qui


maximise la fonction de corrélation entre les deux signaux 2 . Ceci justifie donc
la technique classique qui consiste à calculer la fonction de corrélation entre la
forme d’onde connue et le signal mesuré, et de prendre la valeur qui maximise
cette fonction comme estimée de τ . Un exemple d’application est présenté à la fi-
gure 4.2. La forme d’onde est constituée par une période d’électrocardiogramme,
2. On pourrait démontrer que ce résultat reste valable lorsque l’on connaît seulement la
forme, mais pas l’amplitude de l’onde contenue dans z.
58 CHAPITRE 4. ESTIMATION

et le signal mesuré est une version décalée de 100 ms et bruitée du signal original.
La fonction de corrélation présente un pic marqué pour τ = 100 ms, ce qui per-
met une bonne estimation de l’instant d’arrivée. Le pic serait beaucoup moins
marqué si les conditions d’estimation étaient moins favorables (par exemple,
incertitudes sur z plus grandes, signal x plus court, etc.).

4.3.3 Remarque
Soulignons que la démarche présentée ici a un caractère très systématique :
– formulation d’une hypothèse de structure (mise en équation du problème),
puis d’hypothèses probabilistes portant sur les incertitudes affectant les
mesures et sur la quantité à estimer ;
– utilisation des hypothèses pour exprimer la densité de probabilité condi-
tionnelle des observations et la densité de probabilité a priori de la quan-
tité à estimer ;
– définition de l’estimée comme argument maximisant le produit des deux
densités calculées à l’étape précédente, et calcul effectif de l’estimée.
Cette approche permet de résoudre l’immense majorité des problèmes rencontrés
dans la pratique, du moins en première approximation. Cependant, comme les
exemples l’ont montré, l’utilisateur doit faire des choix à chacune des étapes
de la résolution du problème d’estimation. Il est souvent amené à émettre des
hypothèses qui peuvent se révéler non justifiées. Une partie importante d’un
procédure d’estimation consiste donc à remettre en cause les hypothèses émises
à la lumière des résultats obtenus, d’en formuler d’autres le cas échéant, voire de
faire appel à des méthodes d’estimation plus sophistiquées que celles présentées
ici si les conditions le nécessitent.

4.4 Caractéristiques des estimateurs


Les techniques d’estimation que nous avons décrites, aussi intéressantes
soient-elles, nous fournissent rarement la valeur exacte de la grandeur que l’on
cherche à déterminer. Les estimées sont entachées d’erreurs, erreurs qui sont la
conséquence des incertitudes qui affectent les mesures. Il est utile de caractéri-
ser l’incertitude sur les estimées pour savoir, par exemple, si ces dernières sont
généralement loin ou proches de la vraie grandeur. Comme toute quantité incer-
taine, une estimée peut être caractérisée par sa loi de probabilité. Cependant,
une telle loi peut être très difficile, voire impossible à calculer explicitement. De
plus, la loi complète de l’estimée peut être trop lourde à manipuler. On préfère
généralement « résumer » cette loi par ses caractéristiques au deuxième ordre,
soit sa moyenne et sa matrice de covariance. Notons x la quantité vectorielle
à estimer, x̂ son estimée et z le vecteur contenant l’ensemble des mesures. Les
expressions de la moyenne et de la matrice de covariance de l’estimateur sont
4.4. CARACTÉRISTIQUES DES ESTIMATEURS 59

obtenues en appliquant les définitions données au paragraphe 3.2.3 :


4
mX̂ = E[X̂]
4
h i
RX̂ = E (X̂ − mX̂ )(X̂ − mX̂ )T .

Soulignons que, dans les expressions ci-dessus comme dans la suite de cette
section, les espérances mathématiques sont à prendre en supposant x connu. La
seule source d’incertitude provient donc des erreurs affectant les observations z.
mX̂ et RX̂ nous renseignent respectivement sur la moyenne des valeurs es-
timées et sur leur dispersion autour de la valeur moyenne. Mais ils nous donnent
peu d’indications sur la proximité entre l’estimée et la vraie valeur de x. Une
telle information nous est fournie par le biais bX̂ défini comme :
4
bX̂ = mX̂ − x .

Le biais nous indique simplement si la valeur moyenne de l’estimée est proche


de vraie valeur de x. En d’autres termes, il nous renseigne sur l’existence d’une
erreur d’estimation systématique (sur-estimation ou sous-estimation). Mais il ne
nous donne aucune indication sur la distance moyenne entre x̂ et x. En effet,
un estimateur centré sur la vraie valeur, mais affecté d’une très grande variance
fournira en moyenne des estimées éloignées de la vraie valeur.
Avant de parler de distance moyenne entre x̂ et x, il est nécessaire de dé-
finir préalablement la distance employée. En général, on utilise la distance eu-
clidienne, qui conduit à des calculs simples. On définit alors l’erreur moyenne
quadratique de l’estimateur comme la moyenne de la distance euclidienne entre
x̂ et x. On a donc :
4
h i
EMQX̂ = E (X̂ − x)T (X̂ − x) .

Cette expression peut se mettre sous une forme simple : en écrivant que X̂ −x =
(X̂ − mX̂ ) + (mX̂ − x) = (X̂ − mX̂ ) + bX̂ , en développant le produit scalaire
et en utilisant la linéarité de l’espérance mathématique, on obtient :
h i h iT
EMQX̂ = E (X̂ − mX̂ )T (X̂ − mX̂ ) + 2E (X̂ − mX̂ ) bX̂ + bTX̂ bX̂ .

Par définition, E[(X̂ − mX̂ )] = 0 ce qui annule le second terme du deuxième


membre de l’équation ci-dessus. Le troisième terme est égal au carré de la norme
euclidienne du biais de l’estimateur. Quant au premier terme, il représente la
somme des termes diagonaux de RX̂ , que l’on appelle généralement variance
de l’estimateur. Ceci montre que l’erreur moyenne quadratique est égale à la
somme de la variance et du carré de la norme du biais.
En général, une erreur moyenne quadratique minimale est obtenue pour des
valeurs non nulles de la variance et du biais. En d’autre termes, il est souvent
intéressant de biaiser légèrement l’estimateur, donc d’introduire une petite er-
reur systématique, afin de réduire la variance, le tout se traduisant par une
60 CHAPITRE 4. ESTIMATION

diminution de l’erreur moyenne quadratique. C’est précisément ce que font les


estimateurs MAP, par l’intermédiaire de la densité a priori. Par contre, les es-
timateurs MV sont généralement non biaisés, mais peuvent présenter une forte
variance. On observe ces deux comportements à la figure 4.1 pour les faibles
valeurs du nombre de mesures.
Enfin, une caractéristique souhaitable des estimateurs est que l’addition de
nouvelles mesures en améliore les performances, et en particulier réduise l’erreur
moyenne quadratique. En effet, de nouvelles mesures amènent des informations
supplémentaires sur x dont l’estimateur doit être capable de tirer parti. Si l’er-
reur moyenne quadratique tend vers 0 lorsque le nombre N de mesures tend
vers l’infini, x restant de taille constante, on dit que l’estimateur est convergent.
Cette propriété est vérifiée par les estimateurs MV et MAP sous des hypothèses
faibles. La figure 4.1 illustre d’ailleurs cette propriété, la valeur des estimées se
rapprochant de la vraie valeur lorsque le nombre de mesures croît.

4.5 Estimation dans le cas linéaire et gaussien


Avant de formuler mathématiquement le problème, il est nécessaire de pré-
ciser le vocabulaire et de justifier l’étude du cas linéaire et gaussien. Le qualifi-
catif linéaire s’applique ici à la structure des phénomènes étudiés. L’hypothèse
linéaire constitue souvent une première approximation de structures plus com-
plexes et permet en général de mener les calculs assez loin. C’est pourquoi
l’hypothèse de structure linéaire est faite fréquemment et mérite une attention
particulière.
Le qualificatif gaussien s’applique évidemment aux densités de probabilité
qui modélisent le comportement des quantités incertaines intervenant dans le
problème. On suppose donc ici que les incertitudes affectant les mesures suivent
une loi gaussienne. Si l’on désire introduire une information a priori sur la quan-
tité à estimer, on le fera également en utilisant une loi gaussienne. Comme en ce
qui concerne l’hypothèse linéaire, l’hypothèse gaussienne a des justifications à la
fois physiques et pratiques. Physiques car les processus gaussiens modélisent as-
sez bien certains phénomènes (bruits thermiques ou électroniques par exemple)
que l’on rencontre souvent. De plus, lorsque l’on ne connaît que la moyenne et
la covariance d’une grandeur incertaine, il est naturel de lui attribuer une loi
gaussienne 3 . Pratiques car les densités de probabilité gaussiennes sont parmi
les rares qui soient facilement manipulables et permettent de mener les calculs
assez loin. Ceci est d’autant plus vrai dans le cadre d’une hypothèse de structure
linéaire, car la transformée linéaire d’une grandeur gaussienne reste gaussienne.
Dans ce qui suit on émet donc les hypothèses de structure linéaire et d’in-
certitudes gaussiennes, et on étudie la forme des estimateurs MAP et MV cor-
respondants. Le point remarquable est que tous ces estimateurs ont la même
structure, qui est elle-même linéaire par rapport aux données observées. Ceci en
simplifie considérablement la mise en œuvre, et permet aussi le calcul récurrent
de la solution. Ces points sont abordés dans la deuxième partie de cette section.
3. Ceci peut être justifié théoriquement en utilisant le principe du maximum d’entropie.
4.5. ESTIMATION DANS LE CAS LINÉAIRE ET GAUSSIEN 61

4.5.1 Formulation du problème


On établit ici les équations qui sont à la base des résultats présentés dans la
suite de ce chapitre. Pour cela, on adopte un formalisme matriciel qui permet
de simplifier considérablement les notations.
On considère que l’on dispose d’un vecteur de mesures z entachées d’incer-
titudes, qui dépend linéairement de la quantité vectorielle x à estimer. Cette
dépendance linéaire s’exprime nécessairement par une relation matricielle entre
z et x. En tenant compte des incertitudes, on peut donc écrire :

z = Hx + b , (4.13)

où H représente la relation linéaire entre z et x, et où b désigne le vecteur des


incertitudes. L’équation (4.13) traduit l’hypothèse de structure linéaire.
Exprimons maintenant les hypothèses probabilistes : on suppose que les in-
certitudes b sont gaussiennes. Ici, nous les supposons de plus de moyenne nulle 4 ,
2
et l’on désigne leur matrice de covariance par σB RB , où le plus grand élément de
la matrice RB est normalisé à 1. Cette manière d’écrire la matrice de covariance
2
de b permet de séparer la variance σB , qui représente l’importance des incer-
titudes, de la matrice de covariance normalisée RB , qui traduit la corrélation
entre les différents éléments du vecteur b. Si on désire introduire une informa-
tion a priori sur la quantité à estimer, on modélise cette dernière comme un
2
vecteur aléatoire gaussien de moyenne x0 et de matrice de covariance σX RX ,
où, comme précédemment, RX désigne la matrice de covariance normalisée de
X.
Établissons l’expression de la densité conditionnelle des données observées
et, pour l’estimateur MAP, de la densité a priori de X. Lorsque x est supposé
connu, (4.13) montre que la densité des données observées est identique à celle
des incertitudes, sauf pour la moyenne qui est décalée de Hx. D’après nos
hypothèses probabilistes, la densité conditionnelle des observations est donc une
2
gaussienne de moyenne Hx et de covariance σB RB qui a pour expression (voir
le paragraphe 3.2.3) :
−1
(z − Hx)T RB (z − Hx)
 
1
fZ|X=x (z) = 2 )N/2 |R |1/2
exp − 2 , (4.14)
(2πσB B 2σB

où N désigne la taille du vecteur z. D’après nos hypothèses, dans le cas de


l’estimateur MAP, la densité a priori de la quantité à estimer prend la forme :
−1
(x − x0 )T RX (x − x0 )
 
1
fX (x) = 2 )P/2 |R |1/2
exp − 2 , (4.15)
(2πσX X 2σX

où P désigne la taille du vecteur x. Les équations (4.14) et (4.15) permettent


d’établir l’expression exacte des estimées MV et MAP, comme nous le montrons
au paragraphe suivant.
4. Le cas d’une moyenne non nulle ne pose pas de difficulté, mais est de peu d’intérêt
pratique et alourdit les équations.
62 CHAPITRE 4. ESTIMATION

4.5.2 Forme compacte des estimateurs


Estimateur MAP
D’après la définition (4.4), l’estimée MAP de x est définie par :
4 
x̂MAP = arg max fZ|X=x (z) fX (x) .
x

En remplaçant les densités de probabilité par les expressions obtenues au para-


graphe précédent, et en omettant les coefficients de normalisation qui n’inter-
viennent pas dans la maximisation, on obtient :
−1
(z − Hx)T RB (z − Hx)
 
x̂MAP = arg max exp − 2
x 2σB
T −1
(x − x0 ) RX (x − x0 )

− 2 .
2σX
Maximiser une exponentielle étant équivalent à minimiser l’opposé de son argu-
ment, on aboutit finalement à :
−1 −1
(z − Hx)T RB (z − Hx) (x − x0 )T RX (x − x0 )
 
x̂MAP = arg min 2 + 2 .
x 2σB 2σX
La fonction entre accolades est une forme quadratique. Pour trouver l’argument
de son minimum, il suffit d’écrire que son gradient est nul. Le calcul d’un tel
gradient est détaillé à l’annexe B. Ici, on obtient :
−1 −1
H T RB (z − Hx) RX (x − x0 )
− 2 + 2 = 0.
σB σX
−1
Retrancher le terme H T RB 2
Hx0 /σB aux deux membres de l’équation ci-dessus
conduit à :
−1 −1 −1
H T RB (z − H(x − x0 )) RX (x − x0 ) H T RB Hx0
− 2 + 2 = − 2 ,
σB σX σB
d’où :
−1 −1 −1 −1
H T RB H T RB

H RX
x̂MAP = x0 + 2 + 2 −1 (z − Hx0 ) ,
σB σX σB
−1
ou encore, en intégrant le coefficient σB dans le premier facteur du deuxième
terme du second membre :
 2
−1
T −1 σB −1 −1
x̂MAP = x0 + H RB H + 2 RX H T RB (z − Hx0 ) . (4.16)
σX
L’équation ci-dessus donne la forme générale d’une estimée MAP sous hypo-
thèses linéaires et gaussiennes. Quelques points méritent d’être soulignés. Tout
4.5. ESTIMATION DANS LE CAS LINÉAIRE ET GAUSSIEN 63

d’abord, l’estimée apparaît comme une fonction explicite des données. Ceci sim-
plifie la mise en œuvre de l’estimateur, puisqu’il n’est pas nécessaire d’avoir
recours à des méthodes numériques d’optimisation. Ensuite, cette fonction ex-
plicite est linéaire (ou plus précisément affine) ; ceci simplifie encore plus la mise
en œuvre, puisque le calcul de l’estimée fait uniquement appel à des inversions
de matrices et des produits matriciels. Mentionnons que la matrice dont l’inverse
apparaît dans (4.16) est souvent appelée matrice normale du problème. Au cours
des calculs ci-dessus, il a été implicitement supposé de cette matrice normale
2 2
est inversible. Cette hypothèse est toujours vérifiée lorsque le terme σB /σX est
2 2
non nul. Enfin, soulignons l’importance du rapport σB /σX , qui règle une grande
partie du compromis entre l’information a priori sur x et l’information apportée
par les mesures.

Estimateur MV
D’après la définition (4.5), l’estimée MV de x est définie par :

x̂MV = arg max fZ|X=x (z) .
x

En remplaçant la densité de probabilité conditionnelle par son expression obte-


nue précédemment et en omettant la constante de normalisation, on obtient :
−1
(z − Hx)T RB (z − Hx)
  
x̂MV = arg max exp − 2 ,
x 2σB
−1
(z − Hx)T RB (z − Hx)
 
= arg min 2 .
x 2σB
Ici encore, la fonction à minimiser est une forme quadratique. Annuler son gra-
dient conduit à :
−1
H T RB (z − Hx)
− 2 = 0,
σB
d’où
−1 −1
x̂MV = (H T RB H)−1 H T RB z. (4.17)
La comparaison des expressions des estimateurs MAP et MV amène les commen-
taires suivants. Tout d’abord, l’estimée MV est elle aussi une fonction explicite
et linéaire des observations, ce qui présente les mêmes avantages de la mise en
œuvre. Ensuite, l’estimateur MV peut être obtenu comme cas particulier de l’es-
2 2
timateur MAP en prenant σB /σX = 0. x0 disparaît alors de (4.16) et on obtient
2 2
exactement (4.17). Ceci s’interprète de la manière suivante : faire tendre σB /σX
2
vers 0 ou σX vers l’infini revient à supposer que les valeurs vraisemblables de x
couvrent un domaine de plus en plus grand. À la limite, x peut a priori prendre
n’importe quelle valeur, ce qui traduit une absence d’information a priori sur
x. Ceci correspond exactement à l’hypothèse formulée en estimation MV, qui
se traduit ici très simplement sous forme algébrique.
Par ailleurs, indiquons que la matrice normale de l’estimateur MV peut ne
pas être régulière. Ceci traduit algébriquement que l’information contenue dans
64 CHAPITRE 4. ESTIMATION

les mesures est trop pauvre pour permettre l’estimation de x. Ceci contraste avec
la situation rencontrée en estimation MAP, ou un possible manque d’information
dans les mesures est compensé par l’information a priori sur x, ce qui garantit
la régularité de la matrice normale.
Enfin, en supposant que les incertitudes sur les mesures sont non corrélées,
ce qui se traduit par RB = I où I désigne l’identité, on obtient l’estimateur
des moindres carrés, dont l’expression est la suivante :
−1
x̂MC = H T H HT z . (4.18)

Cette estimateur est certainement celui qui est le plus utilisé. Il correspond aussi
à une information très pauvre sur le système, puisque aucune hypothèse n’est
émise sur x et que la seule hypothèse sur les incertitudes affectant les mesures
est qu’elles sont non corrélées et de moyenne nulle.

Choix d’un estimateur


Nous donnons ici des éléments de réponse à la question suivante : dans une
situation pratique, quel estimateur choisir et, le cas échéant, comment spécifier
des paramètres tels que la moyenne a priori x0 , la matrice de covariance du
bruit RB , etc. ?
Notons tout d’abord que les questions de mise en œuvre ne sont pas détermi-
nantes pour faire un choix. En effet, les estimateurs auxquels nous avons abouti
sont tous des fonctions explicites, linéaires ou affines, des mesures z. Le choix se
fait donc essentiellement en fonction de la difficulté du problème d’estimation
(c’est à dire du contraste entre x et les incertitudes sur les mesures), qui dépend
principalement de trois paramètres :
– la taille respective de x et z. Plus ce rapport se rapproche de 1 (il peut
même dépasser cette valeur), plus l’estimation de x est difficile ;
– la nature de H. La transformation linéaire modélisée par H peut, dans
certains cas, atténuer ou supprimer certaines caractéristiques de x. Par
exemple, si H représente un filtrage passe bas, les composantes à hautes
fréquences de x ne seront pas présentes dans z et seront donc très difficile
à déterminer sans apport d’information a priori. En règle générale, plus
H a tendance à réduire le spectre de x, plus le problème d’estimation est
difficile ;
– l’importance relative des incertitudes b dans les mesures z. Plus celles-
ci sont grandes, plus l’information sur x présente dans z est difficile à
extraire, et plus l’estimation de x est difficile.
Une fois que l’on a évalué la difficulté du problème d’estimation, il est re-
commandé de procéder avec prudence, c’est à dire d’introduire le minimum d’in-
formation a priori nécessaire pour obtenir une solution satisfaisante. De cette
manière, on évite de trop restreindre le domaine des solutions vraisemblables,
et donc de nuire à la généralité de la méthode. C’est pourquoi on commence
généralement par mettre en œuvre et tester un estimateur des moindres carrés.
Si les résultats ne donnent pas satisfaction et si la cause peut en être attribuée à
4.5. ESTIMATION DANS LE CAS LINÉAIRE ET GAUSSIEN 65

une information insuffisante dans les mesures, on peut tester un estimateur MV


avec une matrice RB 6= I. Cependant, l’amélioration correspondante est bien
souvent très limitée ; l’étape suivante consiste alors à essayer un estimateur avec
des matrices RX et RB égales à l’identité. Le seul paramètre de réglage de la
2 2
méthode est alors le rapport σB /σX , que l’on fait varier sur un large domaine.
Selon la nature des résultats obtenus, on peut ensuite introduire des informa-
tions a priori de corrélation des incertitudes (par l’intermédiaire de RB ) et/ou
de « douceur » de la quantité x (par l’intermédiaire de RX ). L’amélioration
correspondante est généralement moins spectaculaire que lors du passage d’un
estimateur des moindres carrés à un estimateur MAP. Le comportement de ces
estimateurs dans différentes conditions est illustré au paragraphe 4.5.4.
Signalons enfin qu’il existe des méthodes permettant de choisir les paramè-
2 2
tres de réglage de la méthode (en particulier le coefficient σB /σX ) automa-
tiquement à partir des mesures z. L’étude de telles méthodes, que l’on peut
interpréter comme des estimateurs, dépasse le cadre de ce document.

4.5.3 Forme récurrente des estimateurs


Dans ce paragraphe, on présente une technique permettant le calcul des es-
timateurs présentés précédemment tout en tenant compte de caractéristiques
particulières de certains problèmes rencontrés en génie biomédical. Dans ce do-
maine, le volume de données est souvent très important, ce qui peut rendre
malaisé le calcul d’une solution sous forme compacte en raison de la taille des
matrices à manipuler. D’autre part, les phénomènes étudiés dépendent fréquem-
ment du temps. Il est intéressant de tenir compte de cette dépendance et d’obte-
nir des procédures fonctionnant en temps réel ou capables de traiter les données
en ligne.
L’algorithme des moindres carrés récurrents (MCR) présenté ici est basé
sur une récurrence sur la dimension du vecteur z, et permet précisément de
tenir compte de telles caractéristiques. Il s’applique aux calculs des estimées
MAP et MV dont l’expression est donnée en (4.16) et (4.17). Pour simplifier le
problème, on considère dans la suite de ce paragraphe que la matrice RB est
égale à l’identité, ce qui équivaut à supposer que les incertitudes sur les mesures
z sont non corrélées.

Résultat préliminaire : lemme d’inversion de matrice

Le principal outil nécessaire pour établir les équations de l’algorithme MCR


est l’algèbre matricielle. En particulier, on utilise fréquemment le lemme d’in-
version de matrice dont l’énoncé est le suivant :
Soient A et C deux matrices carrées régulières, et B et D deux matrices
quelconques dont les dimensions soient telles que dim(A) = dim(BCD).
Si A + BCD est une matrice régulière, alors :
1. C −1 + DA−1 B est une matrice régulière ;
66 CHAPITRE 4. ESTIMATION

2. (A + BCD)−1 = A−1 − A−1 B(C −1 + DA−1 B)−1 DA−1 .

Pour prouver la première partie du lemme, il suffit d’exhiber l’inverse de


C −1 + DA−1 B. Si le second point est vrai, cet inverse ne peut qu’être égal à
C −CD(A+BCD)−1 BC. Cette dernière écriture a un sens puisque A+BCD
est supposée régulière. On calcule donc le produit de matrices P défini par :

P = (C −1 + DA−1 B)(C − CD(A + BCD)−1 BC) .

En développant le produit ci dessus, il vient :

P = I − D (A + BCD)−1 − A−1 + A−1 BCD(A + BCD)−1 BC ,




et, en mettant le terme (A+BCD)−1 en facteur dans la parenthèse, on obtient :

P = I − D (I + A−1 BCD)(A + BCD)−1 − A−1 .




L’équation ci-dessus peut encore s’écrire :

P = I − D A−1 (A + BCD)(A + BCD)−1 − A−1 ,




et on obtient donc immédiatement :

P =I,

ce qui démontre la régularité de C −1 + DA−1 B. Pour prouver le second point,


il suffit de montrer que :

(A + BCD)(A−1 − A−1 B(C −1 + DA−1 B)−1 DA−1 ) = I .

Ce résultat s’établit par des calculs en tous points analogues à ceux que nous
venons de présenter. Le lemme d’inversion de matrice est souvent utilisé dans
le cas particulier où C = 1 et B = D T = u où u est un vecteur de dimension
appropriée ; il prend alors la forme :

(A + uuT )−1 = A−1 − A−1 u(1 + uT A−1 u)−1 uT A−1 .

Établissement des équations récurrentes


Pour établir les équations de l’algorithme, on part de l’expression de l’estimée
MAP dans le cas où RB = I, soit :
−1
σ 2 −1

T
x̂ = x0 + H H + 2B RX H T (z − Hx0 ) .
σX

Le calcul de l’estimée MV se déduit immédiatement de celui de l’estimée MAP


2 2
en choisissant un rapport σB /σX égal à 0. L’objectif est d’introduire une récur-
rence sur le nombre n de données observées. Plusieurs quantités, fixes jusqu’à
présent, dépendent maintenant de l’indice n. C’est évidemment le cas du vecteur
4.5. ESTIMATION DANS LE CAS LINÉAIRE ET GAUSSIEN 67

d’observation qui, à l’instant n, est désigné par zn . La matrice H, de dimen-


sions (n, P ) est elle aussi indexée par n. Le vecteur x à estimer a une dimension
fixe P . Par contre, la valeur (et non la taille) de l’estimée dépend du nombre
d’observations utilisées pour en faire le calcul, et on la désigne par x̂n à l’instant
n. Celle-ci prend donc l’expression :
 2
−1
T σB −1
x̂n = x0 + Hn Hn + 2 RX HnT (zn − Hn x0 ) . (4.19)
σX
De manière à alléger les notations, on pose :
−1
σ 2 −1

4
Pn = HnT Hn + 2B RX . (4.20)
σX
Les équations de l’algorithme récurrent s’établissent en considérant que l’on
dispose d’une estimée obtenue à partir du vecteur zn de taille n, et en évaluant
les variations de cette estimée lorsque l’on tient compte d’une (n + 1)e mesure
zn+1 . Pour cela, on écrit l’expression de x̂n+1 , qui, avec les notations introduites
ci-dessus, prend la forme suivante :
T
x̂n+1 = x0 + Pn+1 Hn+1 (zn+1 − Hn+1 x0 ) . (4.21)
Puis on partitionne Hn+1 et zn+1 :
   
 Hn   zn 
   
Hn+1 = 

,
 zn+1 = 

,
 (4.22)
 ···   ··· 
hTn+1 zn+1

où hTn+1 désigne la dernière ligne de Hn+1 . hn+1 est donc un vecteur de dimen-
sion P . Ce partitionnement de Hn+1 et zn+1 est compatible avec l’établissement
de formules récurrentes car, à tout instant n, Hn et zn font partie des données
du problème. D’après (4.20) et (4.22), et en utilisant les règles de calcul pour
les matrices décrites par blocs, on a :
−1
σ 2 −1

Pn+1 = HnT Hn + 2B RX + hn+1 hTn+1 ,
σX
−1
= Pn−1 + hn+1 hTn+1 .
De l’égalité ci-dessus, on déduit immédiatement que :
−1
Pn+1 Pn−1 − hn+1 hTn+1 ,

= Pn+1 Pn+1
= I − Pn+1 hn+1 hTn+1 . (4.23)
Utilisons maintenant le partitionnement de Hn+1 et zn+1 pour développer l’ex-
pression de l’estimée x̂n+1 donnée en (4.21). On obtient :
x̂n+1 = x0 + Pn+1 HnT (zn − Hn x0 ) + hn+1 (zn+1 − hTn+1 x0 ) .

68 CHAPITRE 4. ESTIMATION

Or, d’après (4.19) et (4.20), le terme HnT (zn − Hn x0 ) qui intervient dans l’ex-
pression ci-dessus est égal à Pn−1 (x̂n − x0 ). On a donc :

x̂n+1 = x0 + Pn+1 Pn−1 (x̂n − x0 ) + Pn+1 hn+1 (zn+1 − hTn+1 x0 ) ,

ce qui, en utilisant l’identité (4.23) et en éliminant les termes qui se compensent,


conduit à :
x̂n+1 = x̂n + Pn+1 hn+1 zn+1 − hTn+1 x̂n .

(4.24)

L’équation ci-dessus est une relation de récurrence entre x̂n+1 et x̂n ; on observe
qu’elle ne fait pas intervenir x0 . Par contre, elle dépend de la matrice Pn+1 .
Pour obtenir un algorithme récurrent, il faut exprimer cette matrice en fonction
de quantités connues à l’instant n, ce que l’on fait en appliquant le lemme
d’inversion de matrice à l’expression (4.23). On obtient :

Pn+1 = Pn − Pn hn+1 (1 + hTn+1 Pn hn+1 )−1 hTn+1 Pn .

En multipliant à droite les deux membres de l’égalité ci-dessus par hn+1 et en


utilisant l’identité :

(1 + hTn+1 Pn hn+1 )−1 hTn+1 Pn hn+1 = 1 − (1 + hTn+1 Pn hn+1 )−1 ,

on aboutit à :

Pn+1 hn+1 = Pn hn+1 (1 + hTn+1 Pn hn+1 )−1 .

En reportant cette expression dans (4.24) et en définissant les quantités :

4
kn = Pn hn+1 ,
4
rn = 1 + hTn+1 Pn hn+1 ,

on obtient finalement la forme classique de l’algorithme MCR :

x̂n + kn rn−1 (zn+1 − hTn+1 x̂n ) ,




 x̂n+1 =
kn = Pn hn+1 ,

(4.25)
 rn = 1 + hTn+1 Pn hn+1 ,
Pn − kn rn−1 knT .

Pn+1 =

L’algorithme ci-dessus permet le calcul récurrent de l’estimée puisque, à la


(n + 1)e itération il n’utilise que les quantités fournies par l’algorithme à l’ité-
ration précédente (x̂n et Pn ) et celles qui caractérisent le système à l’instant
2 2
n + 1 (zn+1 et hn+1 ). On observe par ailleurs que les quantités σB , σX et RX
n’interviennent pas explicitement dans l’algorithme. Celui-ci peut donc être uti-
lisé indifféremment pour le calcul d’une estimée MAP ou MV. La différence
intervient seulement à l’initialisation de l’algorithme, et c’est point le que nous
abordons maintenant.
4.5. ESTIMATION DANS LE CAS LINÉAIRE ET GAUSSIEN 69

Initialisation de l’algorithme
Dans le cas d’un estimateur MAP, l’initialisation de l’algorithme ne pose
aucune difficulté. Il suffit en effet de choisir pour instant initial l’instant n = 0,
c’est à dire celui qui précède la première observation. D’après (4.20), le terme
HnT Hn disparaît de l’expression de la matrice Pn , et on a donc :
2
σX
P0 = 2 RX .
σB

De même, on prend pour valeur estimée de x avant la première mesure la valeur


moyenne a priori de X, soit :
x̂0 = x0 .
L’estimateur MV est obtenu à partir de l’estimateur MAP en faisant tendre
2
σX vers l’infini. On voit alors qu’il n’est pas possible d’initialiser l’algorithme
2 2 −1
MCR comme précédemment, puisque, d’après (4.20), le terme (σB /σX )RX
n’apparaît plus dans l’expression de Pn . En toute rigueur, on doit choisir un
instant initial n0 tel que Pn0 = (HnT0 Hn0 )−1 soit définie, calculer exactement
Pn0 et en déduire la valeur correspondante de x̂n0 à l’aide de la forme compacte
de l’estimateur (4.18). Pour assurer la régularité de la matrice HnT0 Hn0 , on est
contraint de choisir un instant initial n0 ≥ P . Une telle initialisation présente
deux inconvénients majeurs. D’une part, elle brise l’homogénéité du traitement
en introduisant deux phases : n ≤ n0 et n > n0 . D’autre part, elle requiert
l’inversion d’une matrice de dimension (P, P ) alors que l’une des caractéristiques
intéressantes de l’algorithme MCR (4.25) est de ne demander aucune inversion
de matrice. Pour ces raisons, on recommande souvent de choisir n0 = 0 comme
instant initial et de prendre :

P0 = λI , λ grand ,
x̂0 = 0.

Une telle technique d’initialisation, souvent présentée comme une astuce peu
avouable car non conforme à la théorie, prend tout son sens si on l’interprète
dans un cadre bayésien. En effet, on est ramené à l’estimateur MAP avec une
matrice de covariance a priori très grande, donc une information a priori très
peu contraignante. Une telle manière de procéder se justifie d’autant plus que
le poids de l’a priori diminue en proportion du nombre d’observations traitées.
Dans la pratique, la valeur de l’estimée devient assez rapidement indépendante
des conditions initiales choisies. On se trouve donc dans une situation où une
information a priori minime permet de faire fonctionner une méthode sans pour
autant contraindre la solution de manière sensible.

Remarques
Soulignons tout d’abord la structure du système d’équations (4.25) qui dé-
finit l’algorithme MCR. La première de ces équations sert à remettre à jour
70 CHAPITRE 4. ESTIMATION

l’estimée de x selon une structure très classique puisqu’elle est de la forme :

x̂n+1 = x̂n + ϕ(εn )

où εn désigne l’erreur entre une valeur observée et une valeur prédite à l’aide
du modèle disponible à l’instant n. De nombreux algorithmes d’optimisation
récurrents sont de cette forme. Ici, la fonction ϕ est linéaire, ce qui est la consé-
quence directe de la structure linéaire des estimateurs étudiés. Le calcul de cette
fonction ϕ est effectué par les trois dernières équations du système (4.25), et on
remarque que celles-ci sont indépendantes des mesures z. Par conséquent, on
peut imaginer de calculer à l’avance l’ensemble des produits kn rn−1 , ce qui per-
met ensuite une estimation en ligne de x avec un minimum de calculs. Cette
propriété peut être utilisée dans des situations où l’on désire suivre en temps
réel l’évolution de l’estimée tout en ne disposant que d’une puissance de calcul
limitée.
En ce qui concerne le volume de calcul, un décompte précis du nombre
d’opération nécessaire pour calculer l’estimée sous forme compacte et avec l’al-
gorithme MCR ne montre aucun avantage marquant pour l’une ou l’autre ap-
proche, du moins dans le cas le plus courant où N est très supérieur à P . L’intérêt
de l’algorithme MCR ne réside donc pas dans une réduction du volume des cal-
culs, mais plutôt dans la possibilité de traiter les données en ligne et dans une
simplification de la mise en œuvre. En effet, bien que le système (4.25) nécessite
le stockage de la matrice Pn de dimension (P, P ) ce qui peut être pénalisant si
x est de très grande dimension, aucune inversion de matrice n’est requise pour
calculer la solution. De plus, l’algorithme MCR ne nécessite pas le stockage de
la totalité du vecteur z, mais seulement de la mesure zn à l’instant courant.
Il peut d’ailleurs fonctionner sans connaissance préalable du nombre total de
mesures N .
Par ailleurs, les quantités Pn et rn que nous avons introduites comme des
intermédiaires de calcul ont une interprétation statistique : Pn représente, à un
terme de normalisation près, la matrice de covariance de l’estimateur, et rn est
la variance de la quantité εn = zn+1 − hTn+1 x̂n . En pratique, cela signifie que
la matrice Pn est nécessairement symétrique définie positive, et que rn est lui
aussi positif. Or on observe que des instabilités numériques se manifestent dans
l’algorithme MCR lorsque Pn ou rn perd cette propriété. On dispose ainsi à la
fois d’indicateurs d’instabilité et de moyens d’améliorer la stabilité numérique
de l’algorithme. On peut par exemple assurer la symétrie de Pn en ne calculant
qu’une de ses sous-matrices triangulaires supérieure ou inférieure, (ou en faisant
la moyenne des deux). On peut aussi surveiller le signe de rn pour, le cas échéant,
réinitialiser l’algorithme. Des techniques plus sophistiquées, faisant appel à la
décomposition de Pn en racine carrée, ont également été proposées.
Enfin, insistons particulièrement sur le fait que, dans une situation don-
née, il faut distinguer très nettement d’une part ce qui a trait aux hypothèses
émises et à l’estimateur utilisé, et d’autre part ce qui a trait à l’algorithme em-
ployé. En effet, un algorithme n’est qu’une technique de calcul d’un estimateur
particulier qui, si la représentation numérique des données avait une précision
4.5. ESTIMATION DANS LE CAS LINÉAIRE ET GAUSSIEN 71

parfaite, fournirait un résultat identique à celui donné par la forme compacte.


Dans la pratique, les erreurs d’arrondi liées à la représentation des données
avec un nombre fini de bits produisent une dégradation de la performance des
estimateurs par rapport aux résultats théoriques. Ceci est vrai pour toute la
méthode numérique, qu’elle soit récurrente ou pas. Nous venons de voir que,
pour l’algorithme MCR, quelques précautions simples permettent de limiter
considérablement l’importance des erreurs d’origine purement numérique. Par
conséquent, les résultats d’estimation doivent être interprétés plus en fonction
des hypothèses émises et des performances théoriques de l’estimateur choisi que
de la technique algorithmique particulière employée pour calculer la solution.

4.5.4 Exemple
L’objet de ce paragraphe est double : d’une part, indiquer une nouvelle
fois comment un problème que l’on rencontre en génie biomédical peut être
mis en équation pour permettre l’application des techniques exposées ci-dessus ;
d’autre part, illustrer concrètement l’effet des divers paramètres qui influent
sur la difficulté d’un problème d’estimation. L’exemple choisi est l’identification
d’un système linéaire représenté par sa réponse impulsionnelle. Un tel problème
se pose entre autres en modélisation de systèmes biologiques.

Mise en équation du problème


On suppose que l’on dispose de mesures de l’entrée x et de la sortie z du
système inconnu. On émet l’hypothèse que le système est linéaire, et qu’il est
possible de le représenter par une réponse impulsionnelle finie h. En supposant
de plus que les incertitudes b se comportent de manière additive sur le signal de
sortie, on peut écrire :
z = h ∗ x + b.
Plaçons nous maintenant à l’instant n, et supposons que la réponse impulsion-
nelle du système ait au plus P éléments non nuls h0 , h1 , . . . , hP −1 . D’après la
définition de la convolution en temps discret, l’équation ci-dessus prend la forme
suivante :
P
X −1
zn = hp xn−p + bn . (4.26)
p=0

Or on reconnaît dans le premier terme du second membre le produit scalaire


entre le vecteur h qui contient les échantillons inconnus de la réponse impul-
sionnelle et un vecteur xn de taille P défini par :
4
xn = (xn , xn−1 , . . . , xn−P +1 )T .

On peut donc réécrire (4.26) sous la forme :

zn = xTn h + bn (4.27)
72 CHAPITRE 4. ESTIMATION

En supposant que l’on dispose de N mesures de la sortie du système, et en


concaténant les équations (4.27) lorsque n varie de 1 à N , on aboutit à :

z = Xh + b , (4.28)

où les vecteurs z et b contiennent respectivement les N échantillons de la sortie


et des incertitudes, et où la ne ligne de la matrice X est égale au vecteur xTn .
L’équation qui modélise le système étudié est donc de la même forme que (4.13)
et, à condition d’émettre une hypothèse gaussienne sur la distribution des incer-
titudes b et sur la loi a priori de h, on peut appliquer directement les résultats
établis à la section 4.5. Nous supposons que les incertitudes sont indépendantes
les unes des autres, ce qui revient à prendre RB = I et que, dans le cas MAP,
la moyenne a priori de h est nulle. Les estimateurs MAP et MV prennent donc
la forme :
−1 −1
ĥMAP = X T X + λRH XT z ,

−1 T
ĥMV = X T X X z,

4 2 2
où l’on a posé λ = σB /σH . Ces estimateurs peuvent être mis en œuvre indif-
féremment sous la forme compacte ou sous la forme récurrente exposées aux
paragraphes précédents.

Résultats
Afin d’illustrer le comportement des deux estimateurs ci-dessus, nous avons
simulé un système passe-bas du troisième ordre dont la réponse impulsionnelle,
qui comporte P = 32 échantillons non nuls, est représentée à la figure 4.3.
Ce modèle représente assez bien la relation pression-débit dans le lit vasculaire
pulmonaire. Nous avons ensuite utilisé des entrées pseudo-aléatoires de taille
et de nature différentes, et ajouté à la sortie correspondante un bruit blanc
gaussien indépendant de l’entrée de manière à obtenir un rapport signal à bruit
(défini comme le rapport des puissances respectives de la sortie et du bruit) de
20 dB et 0 dB.
Dans la première expérience, l’entrée choisie était un signal blanc de taille
N = 256 précédé de valeurs nulles, et le rapport signal-à-bruit était de 20 dB.
Ces conditions d’estimation sont favorables car nous avons un rapport N/P élevé
et de faibles incertitudes sur les mesures. De plus, l’entrée, étant un signal blanc,
va stimuler le système à toutes les fréquences et donc favoriser son identification.
Les résultats obtenus avec l’estimateur MV sont présentés à la figure 4.4. Ils
sont conformes à ce que l’on pouvait attendre, c’est à dire de très bonne qualité,
l’estimée se distinguant à peine de la vraie valeur. L’utilisation d’un estimateur
MAP fournirait des résultats extrêmement voisins.
Nous nous sommes ensuite placés dans les mêmes conditions que précédem-
ment, mais avec un rapport signal-à-bruit de 0 dB. Ceci correspond à des condi-
tions moins favorables, car la puissance des incertitudes est maintenant du même
ordre de grandeur que celle des mesures. C’est ce que montre la figure 4.5 où les
4.5. ESTIMATION DANS LE CAS LINÉAIRE ET GAUSSIEN 73

Reponse impulsionnelle du systeme


0.8

0.6

0.4
amplitude

0.2

-0.2

-0.4
0 50 100 150 200 250 300 350 400 450 500
temps (ms.)

Figure 4.3 – Réponse impulsionnelle du système simulé. Celle-ci comporte P =


32 échantillons non nuls et représente un système passe-bas du 3e ordre, qui
modélise assez bien la relation pression-débit dans le lit vasculaire pulmonaire.
74 CHAPITRE 4. ESTIMATION

Entrée bruit blanc N = 256 SNR = 20 dB


0.8

0.6

0.4
amplitude

0.2

-0.2

-0.4
0 50 100 150 200 250 300 350 400 450 500
temps (ms.)

Figure 4.4 – Résultats d’identification obtenus avec l’estimateur MV dans les


conditions suivantes : entrée blanche comprenant N = 256 échantillons, rapport
signal-à-bruit de 20 dB. En traits pleins : réponse impulsionnelle à estimer. En
traits interrompus : résultats obtenus. Ces résultats sont de bonne qualité en
raison des conditions d’estimation favorables.
4.5. ESTIMATION DANS LE CAS LINÉAIRE ET GAUSSIEN 75

Entrée bruit blanc N = 256 SNR = 0 dB


0.8

0.6

0.4
amplitude

0.2

-0.2

-0.4
0 50 100 150 200 250 300 350 400 450 500
temps (ms.)

Figure 4.5 – Résultats d’identification obtenus avec les estimateurs MV et MAP


dans les conditions suivantes : entrée blanche comprenant N = 256 échantillons,
rapport signal-à-bruit de 0 dB. En traits pleins : réponse impulsionnelle à esti-
mer. En traits interrompus : résultats obtenus avec l’estimateur MV. En traits
mixtes : résultats obtenus avec un estimateur MAP traduisant la douceur de
la réponse impulsionnelle. Cette information a priori améliore les résultats de
manière significative.
76 CHAPITRE 4. ESTIMATION

résultats obtenus avec l’estimateur MV sont de moins bonne qualité que dans
le cas précédent. L’utilisation d’un estimateur MAP dans lequel l’information a
priori est spécifiée sous forme d’une matrice RH non diagonale permet d’ob-
tenir une amélioration appréciable de la qualité des résultats. Cette dernière
permet de traduire l’idée de douceur de la réponse impulsionnelle à identifier en
introduisant une corrélation entre ses échantillons.
Si le signal d’entrée ne comporte plus que 32 échantillons, le contraste devient
médiocre car le rapport N/P est alors égal à 1. Ceci correspond à des conditions
défavorables, comme le montrent les résultats présentés à la figure 4.6. Bien que
les incertitudes sur les mesures soient relativement faibles (rapport signal-à-bruit
de 20 dB), la solution obtenue avec l’estimateur MV présente de grandes oscil-
lations (amplitude maximale de l’ordre de 1000 !) qui la rendraient inexploitable
dans la pratique. Ces oscillations s’interprètent comme une variance excessive de
la solution. Plus encore que dans le cas précédent, l’utilisation d’un estimateur
MAP produit une amélioration spectaculaire en réduisant cette variance dans
des proportions importantes.
Enfin, si le signal d’entrée est composé non plus d’un signal blanc, mais d’un
signal corrélé, on peut là aussi s’attendre à des résultats de mauvaise qualité. In-
tuitivement, cela est dû à ce qu’un signal corrélé a un contenu spectral limité ; il
apporte donc moins d’information qu’un signal blanc sur le système à identifier,
car il n’en stimule qu’une partie du comportement dynamique. Ceci se traduit
d’ailleurs de manière algébrique par une détérioration du conditionnement de
la matrice X T X, ce qui rend l’estimée plus sensible aux incertitudes. Ce com-
portement est illustré par les figures 4.7 à 4.9. L’entrée corrélée utilisée pour
stimuler le système a été obtenue par filtrage d’un signal blanc. La figure 4.7
présente les modules des transformées de Fourier respectives du filtre servant à
corréler l’entrée et de la réponse impulsionnelle à identifier. Il est apparent que
le signal d’entrée a un contenu fréquentiel limité aux très basses fréquences, et
stimule donc très peu les hautes fréquences du système à identifier.
Les résultats obtenus pour des rapports signal-à-bruit de 20 dB et 0 dB
apparaissent respectivement aux figures 4.8 et 4.9. On constate là aussi que
l’estimateur MV fournit des résultats de mauvaise qualité en raison d’une va-
riance excessive sur la solution : les oscillations sont de l’ordre de 104 pour un
rapport signal-à-bruit de 20 dB, et de 105 lorsque le rapport signal-à-bruit vaut
0 dB. Ceci rend évidemment les résultats totalement inexploitable. L’utilisation
d’une méthode MAP dans laquelle l’information a priori est spécifiée sous la
forme d’une matrice RH non diagonale, ce qui traduit la douceur de la réponse
impulsionnelle, améliore la qualité des résultats de manière spectaculaire.
Ces résultats illustrent donc le comportement des estimateurs dans diffé-
rentes conditions. Ils mettent en évidence la très grande importance pratique de
trois paramètres : le rapport entre le nombre de mesures et le nombre de para-
mètres à estimer, l’importance des incertitudes et la nature de la matrice liant
les mesures à la grandeur à estimer (il s’agit ici de la matrice X). Lorsque cette
matrice ne transmet qu’une petite partie du comportement de la quantité incon-
nue, ce qui se produisait ici pour une entrée corrélée, l’estimation est beaucoup
difficile. Ceci suggère également la démarche pratique à adopter. Après avoir mis
4.5. ESTIMATION DANS LE CAS LINÉAIRE ET GAUSSIEN 77

Entrée bruit blanc N = 32 SNR = 20 dB


0.8

0.6

0.4
amplitude

0.2

-0.2

-0.4
0 50 100 150 200 250 300 350 400 450 500
temps (ms.)

Figure 4.6 – Résultats d’identification obtenus avec les estimateurs MV et


MAP dans les conditions suivantes : entrée blanche comprenant N = 32 échan-
tillons, rapport signal-à-bruit de 20 dB. En traits pleins : réponse impulsionnelle
à estimer. En traits interrompus : résultats obtenus avec l’estimateur MV. En
traits mixtes : résultats obtenus avec un estimateur MAP traduisant la douceur
de la réponse impulsionnelle. La solution MV est inexploitable, l’amplitude des
oscillations étant de l’ordre de 1000. L’information a priori utilisée par l’esti-
mateur MAP améliore les résultats de manière spectaculaire en réduisant ces
oscillations.
78 CHAPITRE 4. ESTIMATION

Reponses fréquentielles du systeme et du filtre colorant l'entrée


3.5

2.5
Module de la TF

1.5

0.5

0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
frequences reduites

Figure 4.7 – Module de la réponse fréquentielle et du filtre servant à corréler


le signal d’entrée (traits pointillés) et du système à identifier (traits pleins). Le
signal d’entrée a un contenu spectral limité aux basses fréquences. Les hautes
fréquences du système à identifier sont donc très peu stimulées.
4.5. ESTIMATION DANS LE CAS LINÉAIRE ET GAUSSIEN 79

Entrée bruit coloré N = 256 SNR = 20 dB


0.8

0.6

0.4
amplitude

0.2

-0.2

-0.4
0 50 100 150 200 250 300 350 400 450 500
temps (ms.)

Figure 4.8 – Résultats d’identification obtenus avec les estimateurs MV et MAP


dans les conditions suivantes : entrée corrélée comprenant N = 256 échantillons,
rapport signal-à-bruit de 20 dB. En traits pleins : réponse impulsionnelle à
estimer. En traits interrompus : résultats obtenus avec l’estimateur MV. En
traits mixtes : résultats obtenus avec un estimateur MAP traduisant la douceur
de la réponse impulsionnelle. Cette information a priori améliore les résultats
de manière significative.
80 CHAPITRE 4. ESTIMATION

Entrée bruit coloré N = 256 SNR = 0 dB


0.8

0.6

0.4
amplitude

0.2

-0.2

-0.4
0 50 100 150 200 250 300 350 400 450 500
temps (ms.)

Figure 4.9 – Résultats d’identification obtenus avec les estimateurs MV et MAP


dans les conditions suivantes : entrée corrélée comprenant N = 256 échantillons,
rapport signal-à-bruit de 0 dB. En traits pleins : réponse impulsionnelle à esti-
mer. En traits interrompus : résultats obtenus avec l’estimateur MV. En traits
mixtes : résultats obtenus avec un estimateur MAP traduisant la douceur de la
réponse impulsionnelle. Ici encore, l’information a priori améliore les résultats
de manière spectaculaire.
4.5. ESTIMATION DANS LE CAS LINÉAIRE ET GAUSSIEN 81

en équation le problème, il faut tout d’abord évaluer la difficulté du problème


d’estimation à l’aide des trois paramètres énumérés ci-dessus. Il faut ensuite
choisir et mettre en œuvre un estimateur. Il est possible pour cela de tirer par-
tie de la structure commune des estimateurs MV et MAP dans le cadre linéaire
et gaussien, quelle que soit la forme (compacte ou récurrente) utilisée. Il suffit en
effet de programmer un seul algorithme, l’estimateur MV étant obtenu comme
cas particulier de l’estimateur MAP. Il est ensuite recommandé de procéder avec
prudence, en introduisant une information a priori la moins contraignante pos-
sible de manière à ne pas trop restreindre la généralité de l’estimateur, et en
analysant les résultats obtenus à la lumière de la difficulté supposée du problème
d’identification.
Une dernière remarque porte sur l’interprétation probabiliste de l’informa-
tion a priori utilisée avec l’estimateur MAP. Dans l’exemple ci-dessus, une inter-
prétation classique de la loi a priori serait de considérer h comme la réalisation
d’un vecteur aléatoire gaussien. Or il est peu probable d’obtenir une réponse im-
pulsionnelle comme celle représentée à la figure 4.3 en tirant aléatoirement des
vecteurs gaussiens. C’est pourquoi l’interprétation de la loi a priori en termes
d’incertitude ou de valeurs probables de h est beaucoup plus satisfaisante. Ceci
traduit aussi le fait que, en estimation bayésienne, il n’est généralement ni néces-
saire, ni souhaitable de prendre comme loi a priori un modèle fidèle du compor-
tement de la quantité à estimer. Il est préférable d’introduire une information
a priori juste suffisante pour obtenir des résultats acceptables, et d’ajuster au
mieux le compromis entre complexité de l’estimateur et qualité des résultats.
consiste
82 CHAPITRE 4. ESTIMATION
Annexe A

Précisions sur la transformée


de Fourier

A.1 Cadre de travail


On se place dans le cadre des signaux complexes dépendant d’une variable
réelle. On considère donc des fonctions de la forme
x R −→ C
t 7−→ x(t)
la variable t variant de −∞ à +∞. On désire étudie les propriétés de la trans-
formée de Fourier (TF) définie par :
Z +∞
F
x(t) 7−→ X(ν) = x(t) e−2iπνt dt . (A.1)
−∞

Les questions auxquelles il est nécessaire de donner des réponses sont les sui-
vantes :
1. pour quelle classe de signaux la transformation ci-dessus a-t-elle un sens ?
2. existe-t-il une formule d’inversion ?
On s’intéressera particulièrement à l’effet de la transformation (A.1) sur la com-
position des signaux par les opérateurs usuels tels que l’addition, la multiplica-
tion et surtout la convolution.

A.2 Transformée de Fourier dans L1


On considère dans un premier temps que x appartient à l’ensemble L1 des
fonctions de module intégrable :
Z +∞
|x(t)| dt converge
−∞

83
84 ANNEXE A. PRÉCISIONS SUR LA TRANSFORMÉE DE FOURIER

On montre alors que la transformation de Fourier


Z +∞
F
x(t) 7−→ X(ν) = x(t) e−2iπνt dt
−∞

a bien un sens, et possède les principales propriétés suivantes (on suppose que
x et y appartiennent à L1 ) :
– linéarité
F(αx(t) + βy(t)) = αX(ν) + βY (ν) ;
– translation en temps
F(x(t − α)) = X(ν) e−2iπαν ;
– homothétie en temps
1
F(x(αt)) = |α| X(ν/α) ;
– translation en fréquence
F(x(t) e2iπαt ) = X(ν − α) ;
– homothétie en fréquence
1
F( |α| x(t/α)) = X(αν) ;
– conjugaison
F(x(−t)∗ ) = X(ν)∗ ;
– convolution
F(x(t) ∗ y(t)) = X(ν) Y (ν) ;
– dérivation en temps
si x0 (t) ∈ L1 F(x0 (t)) = 2iπνX(ν) ;
– dérivation en fréquence
si t x(t) ∈ L1 , alors X(ν) est dérivable et F(−2i π t x(t)) = X 0 (ν).
Ces propriétés sont intéressantes, mais insuffisantes pour l’instant car à ce stade,
il n’est pas possible d’établir de formule d’inversion. La raison en est que le fait
que x ∈ L1 n’implique pas que sa transformée de Fourier appartienne à L1 . En
fait, on a :
Si x ∈ L1 , alors X est une fonction continue et

lim = 0 .
ν→±∞

Si on émet l’hypothèse que x et X appartiennent à L1 , alors on a :


R +∞
−∞
X(ν) e2iπνt dν existe, est continue, tend vers 0 lorsque t tend vers
±∞ et est égale à x presque partout (partout si x est continue).

Il en découle que si x et y ainsi que leurs transformées de Fourier appar-


tiennent à L1 , alors
F(x(t)y(t)) = X(ν) ∗ Y (ν) .
L’énoncé de ces propriétés met en évidence l’intérêt, mais aussi les limites
de la transformée de Fourier dans L1 . Parmi ces dernières, nous en soulignerons
trois :
1. il n’y a pas d’équivalence entre l’espace temporel et l’espace fréquentiel,
ce qui interdit l’emploi d’une formule générale d’inversion ;
A.3. TRANSFORMÉE DE FOURIER DANS L2 85

2. un certain nombre de fonctions « intéressantes » telles que les fonctions


périodiques bornées, ne font pas partie de L1 et n’ont pas de transformée
de Fourier au sens définit jusqu’à présent ;
3. l’espace L1 se prête mal aux manipulations algébriques en raison de l’ab-
sence d’un produit scalaire. (En fait, L1 n’a pas la structure d’espace de
Hilbert).
Pour remédier à ces inconvénients, une première étape consiste à s’intéresser
non plus à L1 , mais à L2 , espace des fonctions de carré sommable.

A.3 Transformée de Fourier dans L2


L’espace L2 des fonctions complexes d’une variable réelle est constitué des
fonctions telles que Z +∞
|x(t)|2 dt converge
−∞

L2 présente deux propriétés intéressantes : d’une part, il représente l’ensemble


des signaux d’énergie finie, ce qui a une interprétation physique immédiate.
D’autre part, l’opérateur
Z +∞
(x, y) 7−→< x · y >= x(t) y(t)∗ dt (A.2)
−∞

est toujours défini pour x et y dans L2 et définit un produit scalaire dans cet
espace. On peut même montrer que L2 , muni de ce produit scalaire, est un
espace de Hilbert.
L1 et L2 sont deux espaces tels que L1 ∩ L2 6= ∅, L1 6⊂ L2 et L2 6⊂ L1 .
Pour définir la transformée de Fourier sur L2 , on commence par s’intéresser à
L1 ∩ L2 . L’expression (A.1) définissant F a alors un sens, et toutes les propriétés
énoncées précédemment sont valables. On observe ensuite que L1 ∩ L2 est dense
dans L2 . Par des passages à la limite rendus possibles par la structure d’espace
de Hilbert de L2 , on peut alors prolonger la transformée de Fourier sur L1 ∩ L2
à L2 tout entier. On a alors le résultat suivant :
À toute fonction x(t) ∈ L2 , on peut associer une autre fonction X(ν) ∈ L2
telle que
si x(t) ∈ L1 ∩ L2 , X(ν) = F(x(t)) au sens de L1 ;
– plus généralement, au sens de la norme dans L2
RA
X(ν) = limA→+∞ −A x(t)e−2iπνt dt et
RA
x(t) = limA→+∞ −A X(ν)e2iπνt dν ;
– théorème de Plancherel
∀(x, y) ∈ L22 , < x · y >=< X · Y > ;
– conséquence
R +∞ R +∞
kxkL2 = −∞ |x(t)|2 dt = kXkL2 = −∞ |X(ν)|2 dν.
Ceci indique que la transformée de Fourier définit une isométrie de L2
sur lui-même.
86 ANNEXE A. PRÉCISIONS SUR LA TRANSFORMÉE DE FOURIER

Nous venons donc de définir un outil intéressant, dans la mesure où il permet


de représenter indifféremment dans l’espace temporel ou dans l’espace fréquen-
tiel une importante classe de signaux. Malheureusement, L2 ne contient pas
certains signaux très importants dans la pratique, comme les signaux continus
périodiques bornés. Une extension supplémentaire est nécessaire, et elle requiert
à la fois un changement d’espace de travail et un changement de définition de la
transformée. L’instrument principal de cette extension est la notion de dualité
qui permet d’introduire naturellement à la fois les espaces de distributions et la
définition de leur transformée de Fourier. Nous ne rentrerons pas plus dans les
détails, et nous indiquerons seulement que :
– l’espace sur lequel la transformée de Fourier est défini, l’ensemble S 0 des
distributions tempérées, comprend
– les distributions à support compact,
– les fonctions sommables ou bornées,
– les fonctions à croissance lente (au plus polynomiale).
Ces deux dernières catégories incluent la plupart des fonctions périodiques.
S 0 permet donc de traiter tous les cas d’intérêt pratique ;
– la transformation de Fourier sur S 0 étend bien sûr les propriétés déjà
énoncées des transformées sur L1 et L2 . De plus, elle réalise une bijection
continue de S 0 sur lui-même. On a donc, de nouveau, équivalence entre le
domaine temporel et le domaine fréquentiel ;
– les propriétés supplémentaires portent essentiellement sur les transformées
des distributions et des fonctions périodiques. On a en particulier :
F(1t ) = δ(ν) ,
F(δ(t)) = 1ν .
On montre aussi que si x(t) est à support compact, alors X(ν) n’est pas
à support compact. De même, si X(ν) est à support compact, alors x(t)
n’est pas à support compact.
D’un point de vue pratique, le calcul analytique d’une transformée de Fourier
s’effectue en utilisant les propriétés élémentaires résumées au tableau 1.1 et les
règles de composition. On rappelle que, comme indiqué à la section 1.3, le cas des
fonctions périodiques nécessite une étape de décomposition en série de Fourier.

A.4 Transformée de Fourier discrète


Dans ce cas, on rappelle que l’on dispose de N échantillons d’un signal
x = {x(n); 0 ≤ n ≤ N − 1}. Comme indiqué au chapitre 1, la transformée de
Fourier discrète de x est définie par :
F(x) = Xk , 0 ≤ k ≤ N − 1 (A.3)
N −1
1 X
Xk = x(n) e−2iπnk/N . (A.4)
N
k=0
A.4. TRANSFORMÉE DE FOURIER DISCRÈTE 87

Les équations (A.3)-(A.4) définissent une transformation d’un espace vectoriel


de dimension finie N à un autre espace de même dimension. On peut démontrer
pour la transformée de Fourier discrète des propriétés analogues à celles de
la transformée de Fourier sur S 0 . L’étude est considérablement plus simple en
raison de la dimension finie des espaces de signaux. Cependant, on peut aussi
considérer la transformée de Fourier discrète comme un cas particulier de la
transformée de Fourier sur S 0 .
88 ANNEXE A. PRÉCISIONS SUR LA TRANSFORMÉE DE FOURIER
Annexe B

Calcul du gradient de formes


quadratiques

B.1 Résultat général


On établit l’expression du gradient par rapport à u d’une forme quadratique
ψ(u) définie par :
φT (u) A φT (u)
ψ(u) = ,
2
où u est un vecteur de dimension N , φ un vecteur de dimension P qui dépend
de u et A une matrice symétrique définie positive. En développant le produit
matriciel, on obtient :
N
1 X
ψ(u) = aij φi (u) φj (u) , (B.1)
2 i,j=1

où aij désigne l’élément (i, j) de la matrice A, et où φi (u) est la ie coordonnée


du vecteur φ(u). Calculons maintenant la k e composante du gradient de ψ, qui
est par définiton égale à ∂ψ/∂uk . D’après (B.1), on a :
N N
∂ψ 1 X ∂φi (u) 1 X ∂φj (u)
= aij φj (u) + aij φi (u) . (B.2)
∂uk 2 i,j=1 ∂uk 2 i,j=1 ∂uk

A étant une matrice symétrique, aij = aji et les deux sommes apparaissant au
second membre de (B.2) sont égales. On peut donc écrire :
N
∂ψ X ∂φi (u)
= aij φj (u) ,
∂uk i,j=1
∂uk

ou encore, sous forme matricielle :


 T
∂ψ ∂φ(u)
= A φ(u) . (B.3)
∂uk ∂uk

89
90 ANNEXE B. CALCUL DU GRADIENT DE FORMES QUADRATIQUES

Ce résultat nous permet d’exprimer le gradient de ψ sous forme matricielle.


En effet, d’après (B.3), la k e composante du gradient est égale au produit du
vecteur ligne (∂φ(u)/∂uk )T et du vecteur colonne A φ(u). Il en découle que le
vecteur gradient est égal au produit de la matrice dont chaque ligne est égale
à (∂φ(u)/∂uk )T , k variant de 1 à P , et du vecteur colonne A φ(u). L’élément
(k, i) de cette matrice est égal à ∂φi (u)/∂uk , ce qui montre que cette matrice
est égale à la transposée de la matrice jacobienne de φ(u). En notant J (φ(u))
la matrice jacobienne de φ(u), on obtient :

∇ψ(u) = J (φ(u))T A φ(u) . (B.4)

B.2 Application au critère des moindres carrés


On utilise maintenant le résultat précédent pour évaluer le gradient d’un
critère de la forme :
(z − Hx)T A (z − Hx)
ψMC (x) = ,
2
où A a la même signification que précédemment, où z et x sont deux vecteurs
de taille respective N et P , et où H est une matrice de dimension (N, P ). Il
s’agit d’un cas particulier du problème traité plus haut avec φ(x) = z − Hx. Il
suffit donc de déterminer l’expression de la matrice jacobienne de φ(x). D’après
la définition du produit d’une matrice et d’un vecteur, la ie composante φi de
φ a pour expression :
P
X
φi = zi − hik xk ,
k=1

où hik désigne l’élément (i, k) de la matrice H. Il en découle immédiatement


que :
∂φi
= −hik ,
∂xk
ce qui indique que l’élément (i, k) de la matrice jacobienne est égal à −hik . La
matrice jacobienne est donc égale à −H, et on a :

∇ψMC (x) = −H T A (z − Hx) .

Vous aimerez peut-être aussi

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy