Notes 12
Notes 12
Notes 12
TRAITEMENT DE SIGNAUX
BIOMÉDICAUX
Yves Goussard
6 septembre 2012
ii
Avant-propos
iii
Champagnat, qui a fait de nombreux commentaires et suggestions, et qui a
conçu la majorité de laboratoires, ainsi qu’à MM. Claude cohen-Bacrie, David
Savéry, Sabine Husse, Paul-Anndré Barrière et Benoît Hamelin.
Montréal
Août 2009
iv
Table des matières
2 Filtrage linéaire 19
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Filtres linéaires invariants . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Définitions et caractérisation . . . . . . . . . . . . . . . . 20
2.2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Filtres dynamiques . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4.1 Fenêtre rectangulaire . . . . . . . . . . . . . . . . . . . . . 26
2.4.2 Filtre tous pôles du premier ordre . . . . . . . . . . . . . 27
2.5 Synthèse de filtres . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.5.1 Présentation du problème . . . . . . . . . . . . . . . . . . 30
2.5.2 Types classiques de filtres . . . . . . . . . . . . . . . . . . 33
3 Signal aléatoire 35
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.1 Variables aléatoires scalaires . . . . . . . . . . . . . . . . . 36
v
3.2.2 Couples de variables aléatoires . . . . . . . . . . . . . . . 39
3.2.3 Vecteurs aléatoires . . . . . . . . . . . . . . . . . . . . . . 44
4 Estimation 47
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2 Problématique de l’estimation . . . . . . . . . . . . . . . . . . . . 47
4.3 Méthodologie de l’estimation . . . . . . . . . . . . . . . . . . . . 49
4.3.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.3.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.3.3 Remarque . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.4 Caractéristiques des estimateurs . . . . . . . . . . . . . . . . . . 58
4.5 Estimation dans le cas linéaire et gaussien . . . . . . . . . . . . . 60
4.5.1 Formulation du problème . . . . . . . . . . . . . . . . . . 61
4.5.2 Forme compacte des estimateurs . . . . . . . . . . . . . . 62
4.5.3 Forme récurrente des estimateurs . . . . . . . . . . . . . . 65
4.5.4 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
Annexes 81
A Précisions sur la transformée de Fourier 83
A.1 Cadre de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
A.2 Transformée de Fourier dans L1 . . . . . . . . . . . . . . . . . . . 83
A.3 Transformée de Fourier dans L2 . . . . . . . . . . . . . . . . . . . 85
A.4 Transformée de Fourier discrète . . . . . . . . . . . . . . . . . . . 86
vi
Table des figures
vii
viii
Chapitre 1
Signal déterministe :
représentations et
transformées
1.1 Introduction
On s’intéresse dans un premier temps aux signaux déterministes qui, par dé-
finition, ne comportent aucune composante incertaine ou aléatoire. La plupart
des signaux effectivement manipulés appartiennent à cette catégorie : en effet,
une fois une expérience effectuée (par exemple, l’enregistrement d’un électro-
cardiogramme ou d’un électro-encéphalogramme), les mesures ont des valeurs
parfaitement définies, et sont donc déterministes. Par ailleurs, il est possible que
la relation entre ces mesures déterministes et le phénomène d’intérêt sous-jacent
(l’activité électrique à l’intérieur du cœur ou du cerveau) soit entachée d’incer-
titudes. Remonter des mesures aux phénomènes sous-jacents est une question
importante qui sera abordée au chapitre 4. Pour l’instant, nous nous limitons à
l’étude du signal déterministe effectivement mesuré.
Dès qu’il dispose d’un signal, l’utilisateur (l’ingénieur biomédical, le méde-
cin) désire généralement lui faire subir un certain nombre de traitements. Il peut
vouloir l’analyser, par exemple en déterminer le contenu fréquentiel pour conce-
voir un système d’instrumentation utilisant le signal en question. Il peut vouloir
le transformer, par exemple en éliminer des composantes inutiles pour des trai-
tements ultérieurs. Il peut aussi désirer le stocker, ce qui nécessite souvent une
numérisation et un codage. Tous ces traitements se traduisent par des opéra-
tions mathématiques sur les signaux dont on dispose. L’objet de ce chapitre est
de décrire les opérations les plus importantes, de donner des indications sur leur
signification et de préciser les conditions dans lesquelles elles sont valides.
Pour définir et étudier des opérations mathématiques, il est nécessaire de se
fixer un cadre de travail. Nous considérerons ici qu’un signal est une fonction
1
2 CHAPITRE 1. SIGNAL DÉTERMINISTE
où les ai sont des scalaires. Ainsi, tout élément de H peut être représenté sans
perte d’information par l’ensemble des coefficients ai . Si, de plus, la base est
orthonormée, ce qui signifie qu’elle vérifie :
alors on a :
∀i ai =< x · ei > .
1.2. THÉORÈME DES PROJECTIONS 3
D’un point de vue pratique, ce résultat est très important : il indique que si
l’on dispose d’une base orthonormée, les coefficients de la représentation de
tout élément x dans cette base se calculent par de simples produits scalaires.
De plus, chaque coefficient ai s’interprète comme la longueur de la projection
orthogonale de x sur l’élément de base ei .
Par exemple, considérons l’espace des signaux à temps continu sur un inter-
valle [0, T ]. Cet ensemble, muni du produit scalaire :
T
1
Z
< x · y >= x(t) y ∗ (t) dt , (1.2)
T 0
1 T 2iπ(k−l)t/T
Z
< ek · el > = e dt ,
T 0
= δkl .
x sur H. Cette propriété s’exprime par le fait que la différence entre x et x est
orthogonale à H, soit :
∀i ∈ I, < (x − x) · ei >= 0 .
alors, pour une fréquence ν donnée, X(ν) est la projection orthogonale de x sur
la fonction e2iπνt . La TF traduit donc bien la notion usuelle de fréquence. Notons
que cette interprétation sous-entend que l’ensemble des fonctions {e2iπνt } peut
être interprété comme un système orthonormal, ce que nous admettons pour
l’instant.
La TF possède de nombreuses propriétés, dont les plus importantes sont
résumées dans le tableau 1.1. Celles-ci peuvent être démontrées sans difficulté
6 CHAPITRE 1. SIGNAL DÉTERMINISTE
qui montre que l’énergie d’un signal est égale à celle de sa TF. Enfin, en partant
de la définition de la fonction de corrélation donnée en (1.1), on démontre de
manière élémentaire que :
F(γxy (τ )) = Γxy (ν) = X(ν) Y ∗ (ν) .
Lorsque x = y, la relation ci-dessus devient :
F(γx (τ )) = Γx (ν) = |X(ν)|2 . (1.8)
La quantité Γx est généralement désignée par densité spectrale d’énergie ou plus
simplement spectre d’énergie du signal x.
avec :
1
Z
ak =< x · e2iπkt/T >= x(t) e−2iπkt/T dt .
T (T )
x(t) X(ν)
−πt2 2
e e−πν
e−a|t| 2a
a2 +4π 2 ν 2
±2iπν0 t
e δ(ν ∓ ν0 )
1
eiϕ0 δ(ν − ν0 ) + e−iϕ0 δ(ν + ν0 )
cos(2πν0 t + ϕ0 ) 2
sgn t 1/(iπν)
1 δ(ν)
(−2iπt)m δ (m) (ν)
1/t −i π sgnν
|t| − 2π12 ν 2
rect(−T /2, T /2) T sinπTπTν ν
2
max{0, 1 − |t|
T } (fonction triangle) T sinπTπTν ν
ν0 sinπνπν0t
0t
rect(−ν0 /2, ν0 /2)
δ(t) 1
δ (m) (t) (2iπν)m
±2iπT ν
P δ(t ± T ) 1
P e
P n∈Z δ(t − nT ) TP n∈Z δ(ν − n/T )
−2iπnT ν
n∈Z cn δ(t − nT ) n∈Z cn e
L’équation ci-dessus permet de faire le lien entre les signaux à temps continu
et les signaux à temps discret. Elle montre d’ailleurs que ces derniers peuvent
être considérés comme un cas particulier des signaux à temps continu, ce qui
permet de définir comme précédemment le produit de convolution et la fonc-
tion de corrélation de deux signaux à temps discret. L’utilisation conjointe des
définitions de ces quantités et de (1.13) permet de montrer aisément que, pour
deux signaux x et y de même période d’échantillonnage Te , x ∗ y et γxy sont eux
aussi à temps discret et de période d’échantillonnage Te . Leurs expressions sont
données par :
X
[x ∗ y](nTe ) = xp yn−p ,
p∈Z
X
∗
γxy (nTe ) = xp yp−n .
p∈Z
1.4.2 Échantillonnage
L’opération d’échantillonnage régulier consiste à transformer un signal à
temps continu x(t) en un signal à temps discret {xn = x(nTe ); n ∈ Z}, où Te
désigne la période d’échantillonnage. La question qui se pose immédiatement est
de savoir si le passage de x à {xn } s’accompagne d’une perte d’information. La
réponse est donnée par le théorème d’échantillonnage, qui est énoncé ci-après.
Mais auparavant, il est nécessaire de définir la notion de bande passante d’un
signal.
Définition - La bande passante d’un signal x(t) est le plus petit intervalle
[A, B] tel que :
∀ν 6∈ [A, B], X(ν) = 0 .
La définition ci-dessus signifie que la bande passante d’un signal est le plus
petit intervalle contenant le support de sa TF. Nous pouvons maintenant énon-
cer le résultat suivant :
Théorème d’échantillonnage (ou de Shannon-Nyquist) - Soit x(t)
un signal dont la bande passante est incluse dans l’intervalle [−B, B]. x(t)
peut être reconstruit sans erreur à partir de la suite de ses échantillons
prélevés aux instants nT, n ∈ Z avec T = 1/(2B).
où les coefficients de Fourier sont obtenus par produit scalaire avec les éléments
de la base des fonctions à support limité :
B
1
Z
Xk = X(ν) e−2iπkν/(2B) dν .
2B −B
On remarque que X(ν) étant nul à l’extérieur de [−B, B], les bornes d’intégra-
tion peuvent être changées pour −∞ et +∞. L’intégrale apparaît alors comme
la TF inverse de X évaluée en t = −k/(2B) = −kT . On a donc
Xk = T x(−kT ) . (1.15)
On peut par ailleurs écrire que le terme qui apparait dans la sommation est la
fonction x(t) e−2iπνt évaluée en t = −kT , ce qui, par utilisation des propriétés
de l’impulsion de Dirac, conduit à :
X Z +∞
∀ν ∈ [−B, B] X(ν) = T x(t) e−2iπνt δ(t + kT ) dt .
k∈Z −∞
1.4.3 Transformée en z
La transformée en z est l’analogue en temps discret de la transformée de
Laplace utilisée en temps continu. Elle permet une représentation simple de
catégories importantes de filtres numériques que nous verrons au chapitre 2 et
permet d’en étudier facilement la stabilité. Nous rappelons ici la définition et
les principales propriétés de la transformée en z.
La transformée en z d’un signal à temps discret {xn ; n ∈ Z} est définie par :
X
X(z) = xn z −n , (1.17)
n∈Z
où (C) désigne un cercle situé dans l’anneau de convergence. Ceci qui montre
qu’il y a équivalence entre le domaine transformé et le domaine temporel discret.
Comme la TF, la transformée en z est donc une représentation.
On donne ci-après quelques définitions et propriétés qui seront utiles par la
suite :
– on appelle pôles de X(z) les valeurs de z pour lesquelles X(z) tend vers
l’infini, et zéros de X(z) les valeurs de z pour lesquelles X(z) s’annule ;
– Si {yn } est la version décalée de {xn } par introduction d’un retard n0 ,
soit yn = xn−n0 , alors on a :
suivant :
X
X(ν) = bk e2iπkν ,
k∈Z
ce qui montre que x est bien un signal à temps discret dont l’échantillon xn
est égal au −k e coefficient du développement en série de Fourier de la TF. Ce
résultat est lui aussi symétrique de celui établi pour les signaux à temps continu
périodiques. Il nous reste maintenant à examiner le cas où x est à la fois à temps
discret et périodique. Ce cas est très important en pratique car il existe alors des
algorithmes de faible complexité numérique pour calculer la TF et son inverse.
que ces signaux soient complètement définis par un nombre fini d’échantillons
simplifie beaucoup l’étude de ces transformées. Mais surtout, celles-ci peuvent
être calculées de manière économique par l’algorithme de transformée de Fourier
rapide (FFT, pour fast Fourier transform). Le principe de fonctionnement de
cet algorithme est exposé ci-après.
On observe sur (1.21) que le calcul de Xk nécessite environ N multiplications
et additions complexes. Comme il faut calculer N échantillons Xk , le calcul com-
plet requiert environ N 2 additions et multiplications complexes. L’idée générale
de l’algorithme FFT est d’exploiter les propriétés des exponentielles complexes
qui interviennent dans la somme de (1.21). Supposons que N est pair et égal à
2M . On peut réécrire (1.21) sous la forme :
M −1
1 X
Xk = x2m e−2iπk(2m)/(2M ) + x2m+1 e−2iπk(2m+1)/(2M ) ,
2M m=0
M −1 M −1
1 X 1 −2iπ k X
= x2m e−2iπkm/M + e 2M x2m+1 e−2iπkm/M ,
2M m=0 2M m=0
1
= Yk + e−2iπk/(2M ) Zk ,
2
où Yk et Zk correspondent respectivement aux TFD de taille M = N/2 des
échantillons pairs et impairs du signal. On a de plus :
X
x
0 0
0 (a) 0
Temps Frequence
x continu periodique X discret non periodique
X
x
0 0
0 (b) 0
Temps Frequence
x discret non periodique X continu periodique
X
x
0 0
0 (c) 0
Temps Frequence
x discret periodique X discret periodique
X
x
0 0
0 (d) 0
Temps Frequence
60 60
spectre
spectre
40 40
20 20
0 0
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
frequence reduite frequence reduite
(c) Bourrage de zeros X 8 (d) Bourrage de zeros X 32
80 80
60 60
spectre
spectre
40 40
20 20
0 0
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
frequence reduite frequence reduite
Filtrage linéaire
2.1 Introduction
On appelle filtre tout opérateur qui transforme un signal, dit signal d’entrée
x, en un autre signal, dit signal de sortie y. Une représentation schématique
d’un filtre quelconque est donnée à la figure 2.1. Les filtres tiennent une grande
place en génie biomédical car il permettent de réaliser deux types d’opérations :
– des opérations de modélisation. Le filtre est utilisé comme une représenta-
tion mathématique de phénomènes dans lesquels des signaux biologiques
subissent une transformation. Ainsi, on peut modéliser par des filtres les
transformations subies par un signal de potentiel électrique entre le lieu
ou se produit le phénomène (par exemple, les fibres conductrices à l’inté-
rieur du cœur) et celui où s’effectue la mesure (par exemple, les électrodes
employées pour mesurer un électro-cardiogramme). On peut également
représenter par des filtres les modifications subies par une onde de pres-
sion entre son site d’émission (par exemple, l’intérieur du ventricule) et la
position du capteur (par exemple, l’intérieur d’une artère) ;
– des opérations de traitement. Lorsqu’on désire apporter des modifications
à un signal, par exemple pour en extraire certaines caractéristiques ou
en supprimer certaines composantes, on réalise par définition un filtrage.
Ce type d’opération est particulièrement fréquent en analyse de signaux
biomédicaux et en instrumentation.
·
x y
filtre h
signal d’entrée signal de sortie
19
20 CHAPITRE 2. FILTRAGE LINÉAIRE
1 1
0.8 0.8
|H(nu)|^2
|H(nu)|^2
0.6 0.6
0.4 0.4
0.2 0.2
0 0
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
frequence reduite frequence reduite
(c) Filtre passe-bande (d) Filtre coupe-bande
1 1
0.8 0.8
|H(nu)|^2
|H(nu)|^2
0.6 0.6
0.4 0.4
0.2 0.2
0 0
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
frequence reduite frequence reduite
2.2.2 Propriétés
Les deux plus importantes propriétés des filtres sont la causalité et la stabi-
lité, que l’on définit de la manière suivante :
– un filtre est causal si sa RI satisfait la condition :
∀n < 0, h(n) = 0 .
Signal d'entree
4
2
amplitude
(a) 0
-2
-4
0 50 100 150 200 250
nombre d'echantillons
Signal de sortie
10
5
amplitude
(b) 0
-5
-10
0 50 100 150 200 250
nombre d'echantillons
Figure 2.3 – Divergence d’un filtre instable. (a) Le signal d’entrée est un bruit
blanc gaussien de type « bruit thermique ». (b) L’amplitude du signal de sortie
du filtre instable croît très vite, et finit par dépasser les limites physiques du
système.
P
X Q
X
ap yn−p = bq xn−q , (2.1)
p=0 q=0
2.3.1 Définitions
Filtres rationnels
On appelle filtre rationnel tout filtre dont la relation entrée-sortie est régie
par une équation de la forme (2.1). En prenant la transformée en z des deux
membres de cette équation, on obtient :
P
X Q
X
Y (z) ap z −p = X(z) bq z −q .
p=0 q=0
De manière équivalente, les filtres rationnels peuvent être définis comme ceux
dont la fonction de transfert est une fraction rationnelle en z.
Pôles et zéros
D’après la remarque précédente, H(z) prend la forme d’un quotient de deux
polynômes en z. On dit que H(z) est sous forme irréductible lorsque le numé-
rateur et le dénominateur de H(z) n’ont aucune racine commune, c’est-à-dire
lorsque toutes les simplifications on été faite sur cette fraction rationnelle. On
appelle pôles (respectivement zéros) d’un filtre rationnel les racines complexes
du dénominateur (respectivement du numérateur) de sa fonction de transfert
mise sous forme irréductible.
Filtres dynamiques
On appelle filtre dynamique tout filtre rationnel à la fois causal et stable. Les
filtres dynamiques sont des filtres rationnels pour lesquels on n’observera pas
(en théorie) de divergence de la sortie pourvu que l’entrée reste bornée, et qui
permettront un traitement « en ligne » et récurrent des données. Ils présentent
des caractéristiques très intéressantes dans la pratique.
2.3.2 Propriétés
Caractérisation des filtres dynamiques
On peut montrer que pour qu’un filtre rationnel soit causal et stable, il faut
et il suffit que tous ses pôles soient de module strictement inférieur à 1. Après
avoir mis (2.2) sous la forme irréductible du quotient de deux polynômes en z
(et non plus en z −1 ), la simple recherche des racines complexes du dénominateur
permet donc de s’assurer que le filtre étudié est un filtre dynamique.
2.4. EXEMPLES 25
ce qui montre que la RI du filtre ne comporte que Q+1 valeurs non nulles {bq ; 0 ≤
q ≤ Q}. C’est la raison pour laquelle de tels filtres sont appelés filtres à réponse
impulsionnelle finie (RIF). On remarquera que les filtres RIF ne comportent
pas de partie récurrente. Ils sont donc toujours stables.
Si P 6= 0, alors la RI du filtre comporte en général un nombre infini de
valeurs non nulles. On désigne de tels filtres par le terme de filtres à réponse
impulsionnelle infinie (RII). Les filtres de ce type comportent toujours une
partie récurrente, et donc des pôles. Il faut donc prendre garde aux questions
de stabilité.
Un cas particulier intéressant de filtre RII se produit lorsque Q = 0. L’équa-
tion entrée sortie a pour expression :
P
1 X b0
yn = − ap yn−p + xn ,
a0 p=1 a0
b0 zP
H(z) = PP = b0 PP .
p=0 ap z −p p=0 aP −p z p
les filtres sont appelés filtres tous pôles (FTP). Étant un cas particulier de filtres
RII, ils peuvent aussi présenter des problèmes de stabilité. Les FTP sont très
utilisés dans la pratique car la part prépondérante de leur partie récurrente leur
confère des propriétés particulières que nous n’examinerons pas ici.
Enfin, mentionnons que, outre les instabilités liées à la position des pôles, des
instabilités d’origine numérique peuvent se produire lors de la mise en œuvre
des filtres RII. En effet, le calcul récurrent de la sortie peut s’accompagner
d’une accumulation d’erreurs d’arrondi qui fait diverger le filtre. C’est pourquoi,
dans certaines applications, il est intéressant mettre en œuvre le filtre avec
des coefficients entiers. Les filtres RIF ne posent évidemment pas ce genre de
problème puisqu’ils ne comportent pas de partie récurrente.
2.4 Exemples
On donne dans cette section deux exemples de filtres simples, afin d’illustrer
certaines caractéristiques des types de filtres définis précédemment et d’intro-
duire quelques notions importantes pour la synthèse de filtres.
26 CHAPITRE 2. FILTRAGE LINÉAIRE
1
10
0.8
amplitude
amplitude
0.6
5
0.4
0.2
0
0
-0.2 -5
-10 -5 0 5 10 -0.5 0 0.5
nombre d'echantillons frequence reduite
yn = a yn−1 + b xn .
b2
|H(ν)|2 = . (2.3)
1 − 2a cos(2πν) + a2
b2
|H(ν)|2 ≈ .
1+ a2 − 2a(1 − 4π 2 ν 2 /2)
b2 b2
|H(ν)|2 ≈ = ,
1 + a − 2a
2 (1 − a)2
ln |H(ν)|2 ≈ 2 ln b − 2 ln(1 − a) .
Ceci montre que lorsque ν tend vers 0 ou, de manière équivalente, lorsque ln ν
tend vers −∞, ln |H(ν)|2 a pour asymptote la droite horizontale d’ordonnée
2 ln b − 2 ln(1 − a).
Lorsque ν se rapproche de 1/2, c’est le terme en ν 2 qui devient prépondérant
dans le dénominateur. On a donc :
b2
|H(ν)|2 ≈ ⇐⇒ ln |H(ν)|2 ≈ 2 ln b − ln a − 2 ln(2πν) ,
a4π 2 ν 2
ce qui indique que, en échelles logarithmiques, |H(ν)|2 a pour asymptote la
droite de pente −2 dont forme exacte apparaît dans l’équation précédente. Le
spectre d’un FTP d’ordre un et ses asymptotes dont représentées à la figure 2.5.
L’allure du spectre indique clairement que le FTP du premier ordre est un
filtre passe-bas. On observe que les asymptotes approchent assez fidèlement le
spectre. C’est la raison pour laquelle, dans la pratique, on se contente souvent
de l’approximation du spectre par ses asymptotes. Celles-ci se croisent pour une
valeur νc de la fréquence telle que :
1 1−a
νc = √ .
2π a
Cette fréquence est appelée fréquence de coupure du filtre. Elle correspond ap-
proximativement à la fréquence au delà de laquelle l’atténuation devient impor-
tante.
Considérons maintenant un nouveau filtre constitué de deux FTP du premier
ordre identiques mis en cascade. La RI du filtre résultant va être le produit de
convolution des filtres élémentaires et, par conséquent, la RF du filtre résultant
va être le carré de celle d’un filtre élémentaire. En échelles logarithmiques, le
2.4. EXEMPLES 29
frequence de coupure
1
10
amplitude
0
10
-1
10 -4 -3 -2 -1 0
10 10 10 10 10
frequence reduite
Figure 2.5 – Spectre d’un filtre tous pôles du premier ordre, de paramètres
a = 0.8 et b = 1, représenté en échelles logarithmiques. Les asymptotes sont
représentées en traits mixtes. L’allure du spectre indique que le filtre est passe-
bas. Les asymptotes restent proches du spectre exact. L’intersection des deux
asymptotes donne la fréquence de coupure du filtre.
30 CHAPITRE 2. FILTRAGE LINÉAIRE
Signal d'entree
2
1
amplitude
-1
-2
0 50 100 150 200 250
nombre d'echantillons
Signal de sortie
2
1
amplitude
-1
-2
0 50 100 150 200 250
nombre d'echantillons
1 2
amplitude
amplitude
amplitude
0.5
0.5 0
0
0 -2
-0.5 -0.5 -4
0 20 0 0.25 0.5 0 0.25 0.5
nombre d'echantillons frequence reduite frequence reduite
Signal d'entree
amplitude
1
(a) 0.5
0
-0.5
0 10 20 30 40 50 60 70 80 90
nombre d'echantillons
Signal de sortie, phase non nulle
amplitude
1
(b) 0.5
0
-0.5
0 10 20 30 40 50 60 70 80 90
nombre d'echantillons
Signal de sortie, phase nulle
amplitude
1
(c) 0.5
0
-0.5
0 10 20 30 40 50 60 70 80 90
nombre d'echantillons
Figure 2.7 – Phénomène de rebond dans le domaine temporel. (a) Signal d’en-
trée. (b) Signal de sortie pour un filtre passe bas d’ordre 4 de fréquence de
coupure réduite égale à 0.375. On observe de nombreuses oscillations asymé-
triques par rapport à l’impulsion et au créneau. (c) Signal de sortie pour un
filtre de mêmes caractéristiques à phase nulle. Les oscillations sont symétriques
par rapport à l’impulsion et au créneau. En contrepartie, ce filtre n’est pas
causal.
1 1
0.8 0.8
|H(nu)|^2
|H(nu)|^2
0.6 0.6
0.4 0.4
0.2 0.2
0 0
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
frequence reduite frequence reduite
(c) Filtre Chebychev type II (d) Filtre elliptique
1 1
0.8 0.8
|H(nu)|^2
|H(nu)|^2
0.6 0.6
0.4 0.4
0.2 0.2
0 0
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
frequence reduite frequence reduite
Figure 2.8 – Spectre d’un filtre passe-bande pour les types classiques de filtres.
Les fréquences de coupure réduites étaient fixées à 0.125 et 0.375. (a) Filtre
Butterworth du d’ordre 8. (b) et (c) Filtres de Chebychev d’ordre 8 de type I
et II respectivement. (d) Filtre elliptique d’ordre 8.
Filtres de Butterworth
Les filtres de butterworth présentent un spectre monotone (c’est-à-dire sans
oscillations) dans les parties passe-bande et coupe-bande de la RF. En contre-
partie, la pente du spectre au voisinage de la fréquence de coupure est moins
forte que pour les autres types de filtres. Un des avantages de ce type de filtres
est que l’on peut établir la forme analytique de la fonction de transfert en fonc-
tion des caractéristiques désirées. On évite ainsi d’avoir recours à des méthodes
numériques d’optimisation.
Filtres elliptiques
Les filtres elliptiques présentent des oscillations d’amplitude uniforme à la
fois dans la partie passe-bande du spectre. Ici aussi, l’amplitude des oscillations
fait partie des paramètres de conception du filtre. La pente du spectre au voi-
sinage de la fréquence de coupure est plus élevée que pour les autres types de
filtres, à ordre donné. En contrepartie, le problème d’optimisation permettant
de déterminer les coefficients de la fonction de transfert présente une grande
complexité ; la synthèse d’un filtre de ce type requiert donc généralement un
volume de calcul élevé.
Chapitre 3
Signal aléatoire
3.1 Introduction
Lorsque l’on étudie des phénomènes physiques ou biologiques, les observa-
tions ou mesures que l’on effectue sont toujours entachées d’incertitudes. Lorsque
l’utilisation qui est faite des observations est peu sensible aux incertitudes, ces
dernières peuvent être négligées. Mais, dans la plupart des cas, il est utile d’en
tenir compte, ne serait-ce que pour évaluer précisément la manière dont elles
se propagent dans une chaîne de traitement et affectent le résultat final. Mais
comment tenir compte de quantités incertaines, donc présentant un caractère
imprévisible ? Une possibilité est de modéliser de telles incertitudes en faisant
appel à la notion de phénomène aléatoire, et donc de hasard.
L’expérience montre que de telles modélisations décrivent très bien des phé-
nomènes biologiques (par exemple, le comportement de certaines cellules ner-
veuses), physiques (comptes de photons en tomographie d’émission) ou autres.
Par ailleurs, de telles descriptions permettent aussi d’adopter une approche sys-
tématique des problèmes d’estimation. Le but de ce chapitre est donc de pré-
senter quelques résultats sur les signaux aléatoires, c’est à dire comportant des
incertitudes. Les deux questions importantes auxquelles nous donnerons des élé-
ments de réponse sont les suivantes :
1. dans quelle mesure les incertitudes affectent-elles la représentation spec-
trale des signaux ?
2. comment les incertitudes se propagent-elles lors des opérations de filtrage ?
Pour cela, nous nous limitons aux signaux à temps discret qui sont les plus
utilisés dans la pratique. Par conséquent, la question de l’échantillonnage des
signaux aléatoires à temps continu n’est pas abordée ici. De plus, la représenta-
tion spectrale de signaux aléatoires complexes posant quelques difficultés, nous
nous limitons aux signaux à valeurs réelles. Enfin, comme l’étude des signaux
aléatoires utilise largement le calcul des probabilités et la notion de variable
aléatoire, nous rappelons ci-après quelques résultats fondamentaux sur ces ques-
tions. Il est à noter que l’introduction de toutes ces notions nécessite de faire
35
36 CHAPITRE 3. SIGNAL ALÉATOIRE
appel à des concepts abstraits tels que les espaces probabilisés, la théorie de la
mesure, etc. Ici, on adopte un point de vue beaucoup plus concret, en omettant
une bonne partie de cet arrière plan théorique. Par conséquent, quelques uns des
développements ci-dessous peuvent présenter un certain flou, voire un manque
de rigueur. Pour une présentation plus complète de ces notions, le lecteur est
renvoyé à l’abondante littérature sur la théorie des probabilités et des processus
aléatoires.
0.8 0.8
probabilité P(X ≤ x)
0.6 0.6
0.4 0.4
0.2 0.2
0 0
-10 -5 0 5 10 -10 -5 0 5 10
valeur de la mesure valeur de la mesure
0 4
Supposons de plus que FX est continûment dérivable, et posons fx = FX . Par
définition :
fX (x)dx = dFX (x) ≈ FX (x + dx) − FX (x) ,
et d’après (3.1), on a :
∀x, fX (x) ≥ 0 ,
car une probabilité est toujours positive. D’autre part, d’après la définition de
fX : Z x2
FX (x2 ) − FX (x1 ) = fX (x)dx ,
x1
38 CHAPITRE 3. SIGNAL ALÉATOIRE
On en déduit que Z +∞
fX (x)dx = 1 ,
−∞
moyenne m = E[X] ,
2 2 2
variance p = E[(X − m) ] = E[X ] − m ,
var[X]
écart-type σ = var[X] .
4
fXY (x, y)dx dy = P (x < X ≤ x + dx, y < Y ≤ y + dy) .
Notons que la densité de probabilité de chacune des variables renseigne sur les
valeurs probables d’une mesure sans tenir compte de l’autre, contrairement à la
densité du couple qui exprime aussi le lien entre les deux mesures. C’est pourquoi
il n’est en général pas possible de déduire la densité du couple à partir de la
densité de chacune des variables. Les variables indépendantes font exception à
cette règle. En effet, on a :
2. Pour les VA à valeurs discrètes, les densités de probabilité sont à remplacer par des
probabilités discrètes, comme pour les VA scalaires.
3.2. VARIABLES ALÉATOIRES 41
4 cov[X, Y ]
ρXY = p .
var[X]var[Y ]
Cette matrice résume donc les propriétés énergétiques de X et Y par ses termes
diagonaux, et le lien entre X et Y par ses termes rectangles.
Lorsque deux VA sont liées, la mesure de l’une renseigne sur les valeurs pro-
bables de l’autre. Cette situation est illustrée à la figure 3.2 : supposons que
42 CHAPITRE 3. SIGNAL ALÉATOIRE
l’on cherche à mesurer le rythme cardiaque d’une certaine population. Des ana-
lyses préliminaires (épidémiologiques par exemple) ont montré que le rythme
cardiaque moyen de cette population est de 60 Hz avec un écart-type de 10 Hz.
On modélise donc le rythme cardiaque des individus de cette population par
une VA gaussienne de moyenne 60 et d’écart-type 10. La densité correspon-
dante est donnée à la figure 3.2-b, en traits pleins. On observe que ce modèle
interdit pratiquement les mesures inférieures à 30 Hz et supérieures à 90 Hz.
Pour mesurer le rythme cardiaque de chaque individu, on dispose d’un appareil
relativement imprécis, puisque sa dispersion moyenne autour de la vraie valeur
est de 5 Hz. On modélise ici encore cette dispersion par une gaussienne, dont
une représentation apparaît à la figure 3.2-a. On observe que des écarts allant
jusqu’à 15 Hz par rapport à la vraie valeur peuvent se produire. En combinant
les informations apportées par ces deux modèles, il est intuitif que des mesures
seront vraisemblables dans un domaine un peu plus large que celui des vraies
valeurs du rythme cardiaque, en raison de la dispersion du capteur. C’est ce que
l’on observe effectivement sur la courbe en traits interrompus de la figure 3.2-b,
qui donne la densité des mesures.
Supposons maintenant que l’on ait mesuré une valeur de rythme cardiaque
à l’aide de l’appareil. Quelle information cette mesure nous donne-t-elle sur la
vraie valeur du rythme cardiaque ? Intuitivement, si la mesure se situe dans
le domaine des valeurs probables du rythme cardiaque, on pourra déduire que
la vraie valeur se situe autour de la valeur mesurée, avec une dispersion assez
semblable à celle du capteur. C’est effectivement ce que l’on constate à la fi-
gure 3.2-c, pour une valeur mesurée égale à 50 Hz. Par contre, si la mesure se
situe vers les extrémités du domaine des valeurs probables, il semble logique que
la vraie valeur ait plus de chance d’être vers l’intérieur de ce domaine que vers
l’extérieur. C’est ce que l’on observe à la figure 3.2-d, où le calcul montre que les
valeurs les plus probables du vrai rythme cardiaque se situent autour de 80 Hz,
et non pas de 90 Hz.
Pour formaliser ces notions, il est nécessaire de faire appel à la règle de
Bayes : considérons un couple de VA (X, Y ), et supposons que X ait pris la
valeur x (x représente donc la valeur mesurée). La densité de Y une fois que
l’on sait que X a pris la valeur x, que l’on note fY |X=x (y), prend l’expression
suivante :
fXY (x, y)
fY |X=x (y) = .
fX (x)
On remarque que fY |X=x est entièrement déterminée par la densité du couple,
puisque le dénominateur de l’expression ci-dessus se déduit de fXY par projec-
tion. Soulignons l’importance de la relation ci-dessus, qui indique la manière de
combiner les informations amenées d’une part par les modèles des incertitudes
et d’autre part par les mesures. Indiquons également que fY |X=x étant la densité
de probabilité d’une VA scalaire, elle permet de définir les grandeurs usuelles :
espérance mathématique (que l’on désigne alors par le terme d’espérance condi-
tionnelle), moments, etc.
Enfin, comme pour les VA scalaires, les couples de VA gaussiennes ont une
grande importance. La densité de probabilité d’un couple (X, Y ) de VA gaus-
3.2. VARIABLES ALÉATOIRES 43
Densite de probabilite
0.06 0.03
0.04 0.02
0.02 0.01
0 0
-20 -10 0 10 20 0 50 100
Rythme cardiaque Rythme cardiaque
(c) - Mesure à 50 Hz (d) - Mesure à 90 Hz
0.1 0.1
Densite de probabilite
0.06 0.06
0.04 0.04
0.02 0.02
0 0
0 50 100 0 50 100
Rythme cardiaque Rythme cardiaque
4 1 1 −1 x − mX
fXY (x, y) = exp − (x − mX , y − mY )RXY ,
2π |RXY |1/2 2 y − mY
et est généralement notée N ((mX , mY ), RXY ). Enfin, parmi les propriétés des
couples de VA gaussiennes, mentionnons que chaque élément du couple est lui-
même gaussien, et que toutes les lois conditionnelles sont gaussiennes.
44 CHAPITRE 3. SIGNAL ALÉATOIRE
L’expression ci-dessus montre que E[X] est un vecteur composé des espérances
des éléments de X. On définit aussi que la matrice de covariance de X :
4
= E (X − E[X])(X − E[X])T ,
RX
= E XX T − E[X]E[X]T .
Estimation
4.1 Introduction
Dans de nombreuses situations expérimentales en physique et en biologie, on
ne dispose pas directement de mesures des quantités qui nous intéressent. Seules
sont disponibles des observations qui sont liées à la grandeur inconnue, et qui, la
plupart du temps, comportent des incertitudes. L’objet des techniques d’estima-
tion est d’utiliser « au mieux » (en un sens à définir) les mesures effectuées pour
en extraire de l’information sur la grandeur d’intérêt, et, dans la majorité des
cas, prendre une décision « raisonnable » sur sa valeur. Comme il n’existe pas
de critère universel d’optimalité pour l’extraction de l’information présente dans
les données, l’utilisateur se trouve devant la nécessité de faire des choix : choix
de modèles d’incertitudes (sur les données, sur la quantité à estimer), choix de
la relation mathématique, plus ou moins approximative, qui lie la grandeur à es-
timer et les données observées, choix d’un critère pour l’attribution d’une valeur
estimée à la grandeur inconnue. Cette multiplicité de choix constitue une des
difficultés de l’estimation. Dans ce qui suit, nous présentons une approche assez
systématique de l’estimation qui permet de résoudre la plupart des problèmes
usuels tout en s’adaptant à leurs caractéristiques particulières. Après avoir défini
la problématique de l’estimation et présenté cette méthodologie de résolution,
nous nous intéressons plus particulièrement au cas où les phénomènes étudiés
peuvent être modélisés par des systèmes linéaires, et où les incertitudes peuvent
être considérées comme gaussiennes en première approximation.
47
48 CHAPITRE 4. ESTIMATION
phie, une seule mesure du gain de l’amplificateur), le mieux que l’on puisse faire
en l’absence de toute autre information est d’attribuer à l’estimée de x, notée
x̂, la valeur de la mesure. Dans ce cas, on a donc :
x̂ = z .
Il est important de voir que l’équation (4.1) est en fait basée sur plusieurs
hypothèses implicites. L’expérimentateur suppose que la moyenne va permettre
de réduire l’influence des incertitudes sans pour autant affecter la valeur de x.
Selon lui, l’effet des incertitudes serait de fournir une mesure tantôt inférieure à
x, tantôt supérieure à x. En d’autres termes, il suppose que les incertitudes sont
additives et de moyenne nulle, et donc que l’on peut modéliser les phénomènes
par :
zn = x + bn , (4.2)
où bn représente les incertitudes, ou le bruit affectant la mesure n. L’expéri-
mentateur émet donc une hypothèse de structure sur le phénomène étudié. Ici,
cette hypothèse de structure prend la forme relativement simple de (4.2) ; celle-
ci sépare clairement la partie certaine (x) de la partie incertaine (le bruit b), les
deux étant liées aux mesures z par une relation déterministe (addition).
Par ailleurs, en supposant que la moyenne intervenant dans (4.1) permet
de réduire l’influence des incertitudes, l’utilisateur admet implicitement que les
échantillons de bruit bn ont un comportement plutôt agité et réparti autour de
zéro, alors que x reste constant. Il formule donc une hypothèse probabiliste qui
décrit ici le comportement statistique du bruit (bruit centré et peu corrélé), et
qui fait apparaître un contraste entre la quantité à estimer et les incertitudes
(ici, contraste entre l’invariance de x et les fortes variations des échantillons du
bruit b).
Dans l’exemple ci-dessus, les hypothèses probabilistes portent seulement sur
les incertitudes affectant les mesures. Aucune information sur les valeurs plau-
sibles de x n’est introduite, et on se fie exclusivement aux mesures pour prendre
une décision sur la valeur de l’estimée. Aucune valeur n’étant interdite, x̂ peut
donc théoriquement prendre n’importe quelle valeur, même si certaines d’entre
elles sont incompatibles avec la physique des phénomènes étudiés. Ceci peut se
révéler pénalisant, surtout dans des conditions d’estimation difficiles (fortes in-
certitudes sur les mesures, mauvais contraste...). Si l’on dispose d’informations
a priori sur x, il peut être intéressant de les formuler également sous la forme
d’hypothèses probabilistes. Par exemple, si l’on connaît des zones de valeurs
probables de x (par exemple, x positif, x inférieur à une borne donnée, x plutôt
distribué autour de telle ou telle valeur connue à l’avance...), on peut résumer
4.3. MÉTHODOLOGIE DE L’ESTIMATION 49
4.3.1 Principe
fXZ (x, z)
fX|Z=z (x) = ,
fZ (z)
fZ|X=x (z) fX (x)
= . (4.3)
fZ (z)
où, pour obtenir (4.4), on a pu négliger le terme fZ (z) qui n’intervient pas dans
la maximisation.
Il est à noter que la nature des hypothèses de structure et probabilistes a
un impact important sur la forme des densités fZ|X=x et fX , et donc sur la
difficulté du problème de maximisation permettant d’obtenir x̂MAP . Dans la
pratique, un modèle précis des phénomènes observés peut conduire à d’excel-
lentes performances, mais aussi à des calculs longs et difficiles, voire impossible
à mettre en œuvre. C’est pourquoi, il est généralement nécessaire de faire un
compromis entre la précision des hypothèses et les performances d’une part, et
les difficultés de calcul et de mise en œuvre d’autre part. Ce compromis doit
évidemment être adapté aux caractéristiques particulières du problème traité
et à la difficulté de l’estimation. Si le contraste entre les données mesurées et
4.3. MÉTHODOLOGIE DE L’ESTIMATION 51
la quantité à estimer est bon, ce qui indique que l’information fournie par les
mesures est riche, l’information a priori sur x a peu d’importance. On peut
alors supposer sans danger que x peut prendre ses valeurs n’importe où dans
un très grand domaine. On traduit cette idée en prenant pour fX une fonction
constante sur le domaine considéré. En faisant croître la taille du domaine jus-
qu’à l’infini 1 , fX (x) = constante disparaît de (4.4) et on obtient l’estimateur
au sens du maximum de vraisemblance (MV) :
4
x̂MV = arg max fZ|X=x (z) . (4.5)
x
4.3.2 Exemples
L’objet des exemples présentés ci-dessous est d’indiquer comment les con-
cepts introduits au paragraphe 4.3.1 peuvent être utilisés en pratique. Le premier
exemple illustre dans un cas très simple la démarche générale que nous avons
présentée et la différence de comportement entre les estimateurs MV et MAP.
Le second exemple montre que la technique classique d’estimation d’un retard
par corrélation peut être obtenue par la même démarche.
z n = x + bn , (4.6)
généralement la mise en œuvre. La valeur moyenne ayant déjà été choisie, il reste
à spécifier la variance ou l’écart-type de cette loi. En raison des caractéristiques
des lois gaussiennes (voir le chapitre 3), on peut prendre pour écart-type σB
une valeur de 10, ce qui rend très invraisemblables les valeurs de b supérieures
à 20 ou 30 en valeur absolue. On a donc :
2
fBn (bn ) = N (0, σB ) ; σB = 10 ,
b2n
1
= exp − 2 ,
KB 2σB
où KB désigne le coefficient de normalisation de cette gaussienne. D’après l’hy-
pothèse d’indépendance des incertitudes, on en déduit que la densité de proba-
bilité de (B1 , . . . , BN ) prend la forme :
PN !
2
1 n=1 bn
fB1 ...BN (b1 , . . . , bN ) = N exp − 2 . (4.7)
KB 2σB
2 2
On observe que les deux estimateurs ne diffèrent que par le terme σB /σX au
dénominateur du second membre de (4.10). Lorsque N est petit et que les me-
sures sont très incertaines (σB grand), ce terme, qui correspond à l’information
a priori sur x, a une influence significative. Celle-ci vient pallier la pauvreté des
informations contenues dans les données. Lorsque N est grand ou que l’incerti-
tude sur les mesures est faible, ce terme devient négligeable. Ceci correspond au
fait que l’information contenue dans les mesures est alors suffisante pour estimer
x correctement. Dans ce cas, les deux estimateurs sont pratiquement identiques.
Une illustration de ce comportement est donnée à la figure 4.1. Le système
simulé correspond exactement à celui traité en exemple : les mesures sont ob-
tenues en ajoutant à la grandeur x un bruit pseudo-aléatoire gaussien blanc de
moyenne nulle et d’écart type égal à 10. Les courbes représentent la valeur de
l’estimée en fonction du nombre N de mesures pour les deux estimateurs et pour
deux valeurs de x. On observe tout d’abord que l’estimateur MAP a un compor-
tement stable : quelle que soit la vraie valeur de x et quel que soit le nombre de
mesures, les valeurs estimées varient de manière relativement douce en fonction
de N . Par contre, lorsque N est inférieur à 100, l’estimateur MV présente de
grandes variations lorsque le nombre de mesures varie. Ceci s’explique par le fait
que l’estimateur MV se fie exclusivement aux mesures pour déterminer x̂. Pour
les petites valeurs de N , l’information contenue dans les mesures est relative-
ment pauvre, et une seule mesure fortement entachée d’erreur est suffisante pour
faire varier sensiblement la valeur de l’estimée. L’estimateur MAP ne présente
pas ce comportement, l’information a priori sur x venant contrebalancer l’effet
des incertitudes sur les mesures. Pour les grandes valeurs de N , les deux esti-
mateurs présentent un comportement semblable. Ceci correspond au fait que,
dans cette situation, l’information contenue dans les mesures est suffisante pour
déterminer une estimée correcte de x. Pour l’estimateur MAP, l’information a
priori sur x devient alors négligeable.
54 CHAPITRE 4. ESTIMATION
-5
0 100 200 300 400 500 600 700 800 900 1000
nombre de mesures
(b) Estimateur MV
5
estimee
-5
0 100 200 300 400 500 600 700 800 900 1000
nombre de mesures
(zn − xn−τ )2
1
fZn |τ (zn ) = exp − ,
K 2σ 2
PN PN
Le terme n=1 zn2 ne dépend pas de τ . Le terme n=1 x2n−τ est lui aussi indé-
pendant de τ ; en effet, comme nous avons supposé que la forme d’onde, donc le
signal x, est incluse dans les N échantillons mesurés, on peut faire le changement
de variable p = n − τ sans modifier la valeur de la somme. Les deux premiers
4.3. MÉTHODOLOGIE DE L’ESTIMATION 57
(a) Signaux
500
0
amplitude
-500
-1000
0 50 100 150 200 250 300 350
nombre d'echantillons
(b) Fonction de correlation
1
amplitude
0.5
-0.5
-300 -200 -100 0 100 200 300
nombre d'echantillons
Figure 4.2 – Estimation du temps d’arrivée d’un signal par MV. (a) Signaux
disponibles : en traits pleins, la forme d’onde originale (période d’électrocardio-
gramme) ; en traits interrompus, le signal mesuré, version décalée et bruitée du
signal original. (b) Fonction de corrélation des deux signaux. Celle-ci présente
un pic marqué pour τ = 100 ms, valeur du temps d’arrivée de la forme d’onde
dans le signal mesuré. Le maximum de la fonction de corrélation correspond à
l’estimée MV du temps d’arrivée.
et le signal mesuré est une version décalée de 100 ms et bruitée du signal original.
La fonction de corrélation présente un pic marqué pour τ = 100 ms, ce qui per-
met une bonne estimation de l’instant d’arrivée. Le pic serait beaucoup moins
marqué si les conditions d’estimation étaient moins favorables (par exemple,
incertitudes sur z plus grandes, signal x plus court, etc.).
4.3.3 Remarque
Soulignons que la démarche présentée ici a un caractère très systématique :
– formulation d’une hypothèse de structure (mise en équation du problème),
puis d’hypothèses probabilistes portant sur les incertitudes affectant les
mesures et sur la quantité à estimer ;
– utilisation des hypothèses pour exprimer la densité de probabilité condi-
tionnelle des observations et la densité de probabilité a priori de la quan-
tité à estimer ;
– définition de l’estimée comme argument maximisant le produit des deux
densités calculées à l’étape précédente, et calcul effectif de l’estimée.
Cette approche permet de résoudre l’immense majorité des problèmes rencontrés
dans la pratique, du moins en première approximation. Cependant, comme les
exemples l’ont montré, l’utilisateur doit faire des choix à chacune des étapes
de la résolution du problème d’estimation. Il est souvent amené à émettre des
hypothèses qui peuvent se révéler non justifiées. Une partie importante d’un
procédure d’estimation consiste donc à remettre en cause les hypothèses émises
à la lumière des résultats obtenus, d’en formuler d’autres le cas échéant, voire de
faire appel à des méthodes d’estimation plus sophistiquées que celles présentées
ici si les conditions le nécessitent.
Soulignons que, dans les expressions ci-dessus comme dans la suite de cette
section, les espérances mathématiques sont à prendre en supposant x connu. La
seule source d’incertitude provient donc des erreurs affectant les observations z.
mX̂ et RX̂ nous renseignent respectivement sur la moyenne des valeurs es-
timées et sur leur dispersion autour de la valeur moyenne. Mais ils nous donnent
peu d’indications sur la proximité entre l’estimée et la vraie valeur de x. Une
telle information nous est fournie par le biais bX̂ défini comme :
4
bX̂ = mX̂ − x .
Cette expression peut se mettre sous une forme simple : en écrivant que X̂ −x =
(X̂ − mX̂ ) + (mX̂ − x) = (X̂ − mX̂ ) + bX̂ , en développant le produit scalaire
et en utilisant la linéarité de l’espérance mathématique, on obtient :
h i h iT
EMQX̂ = E (X̂ − mX̂ )T (X̂ − mX̂ ) + 2E (X̂ − mX̂ ) bX̂ + bTX̂ bX̂ .
z = Hx + b , (4.13)
d’abord, l’estimée apparaît comme une fonction explicite des données. Ceci sim-
plifie la mise en œuvre de l’estimateur, puisqu’il n’est pas nécessaire d’avoir
recours à des méthodes numériques d’optimisation. Ensuite, cette fonction ex-
plicite est linéaire (ou plus précisément affine) ; ceci simplifie encore plus la mise
en œuvre, puisque le calcul de l’estimée fait uniquement appel à des inversions
de matrices et des produits matriciels. Mentionnons que la matrice dont l’inverse
apparaît dans (4.16) est souvent appelée matrice normale du problème. Au cours
des calculs ci-dessus, il a été implicitement supposé de cette matrice normale
2 2
est inversible. Cette hypothèse est toujours vérifiée lorsque le terme σB /σX est
2 2
non nul. Enfin, soulignons l’importance du rapport σB /σX , qui règle une grande
partie du compromis entre l’information a priori sur x et l’information apportée
par les mesures.
Estimateur MV
D’après la définition (4.5), l’estimée MV de x est définie par :
x̂MV = arg max fZ|X=x (z) .
x
les mesures est trop pauvre pour permettre l’estimation de x. Ceci contraste avec
la situation rencontrée en estimation MAP, ou un possible manque d’information
dans les mesures est compensé par l’information a priori sur x, ce qui garantit
la régularité de la matrice normale.
Enfin, en supposant que les incertitudes sur les mesures sont non corrélées,
ce qui se traduit par RB = I où I désigne l’identité, on obtient l’estimateur
des moindres carrés, dont l’expression est la suivante :
−1
x̂MC = H T H HT z . (4.18)
Cette estimateur est certainement celui qui est le plus utilisé. Il correspond aussi
à une information très pauvre sur le système, puisque aucune hypothèse n’est
émise sur x et que la seule hypothèse sur les incertitudes affectant les mesures
est qu’elles sont non corrélées et de moyenne nulle.
P =I,
Ce résultat s’établit par des calculs en tous points analogues à ceux que nous
venons de présenter. Le lemme d’inversion de matrice est souvent utilisé dans
le cas particulier où C = 1 et B = D T = u où u est un vecteur de dimension
appropriée ; il prend alors la forme :
où hTn+1 désigne la dernière ligne de Hn+1 . hn+1 est donc un vecteur de dimen-
sion P . Ce partitionnement de Hn+1 et zn+1 est compatible avec l’établissement
de formules récurrentes car, à tout instant n, Hn et zn font partie des données
du problème. D’après (4.20) et (4.22), et en utilisant les règles de calcul pour
les matrices décrites par blocs, on a :
−1
σ 2 −1
Pn+1 = HnT Hn + 2B RX + hn+1 hTn+1 ,
σX
−1
= Pn−1 + hn+1 hTn+1 .
De l’égalité ci-dessus, on déduit immédiatement que :
−1
Pn+1 Pn−1 − hn+1 hTn+1 ,
= Pn+1 Pn+1
= I − Pn+1 hn+1 hTn+1 . (4.23)
Utilisons maintenant le partitionnement de Hn+1 et zn+1 pour développer l’ex-
pression de l’estimée x̂n+1 donnée en (4.21). On obtient :
x̂n+1 = x0 + Pn+1 HnT (zn − Hn x0 ) + hn+1 (zn+1 − hTn+1 x0 ) .
68 CHAPITRE 4. ESTIMATION
Or, d’après (4.19) et (4.20), le terme HnT (zn − Hn x0 ) qui intervient dans l’ex-
pression ci-dessus est égal à Pn−1 (x̂n − x0 ). On a donc :
L’équation ci-dessus est une relation de récurrence entre x̂n+1 et x̂n ; on observe
qu’elle ne fait pas intervenir x0 . Par contre, elle dépend de la matrice Pn+1 .
Pour obtenir un algorithme récurrent, il faut exprimer cette matrice en fonction
de quantités connues à l’instant n, ce que l’on fait en appliquant le lemme
d’inversion de matrice à l’expression (4.23). On obtient :
on aboutit à :
4
kn = Pn hn+1 ,
4
rn = 1 + hTn+1 Pn hn+1 ,
Initialisation de l’algorithme
Dans le cas d’un estimateur MAP, l’initialisation de l’algorithme ne pose
aucune difficulté. Il suffit en effet de choisir pour instant initial l’instant n = 0,
c’est à dire celui qui précède la première observation. D’après (4.20), le terme
HnT Hn disparaît de l’expression de la matrice Pn , et on a donc :
2
σX
P0 = 2 RX .
σB
P0 = λI , λ grand ,
x̂0 = 0.
Une telle technique d’initialisation, souvent présentée comme une astuce peu
avouable car non conforme à la théorie, prend tout son sens si on l’interprète
dans un cadre bayésien. En effet, on est ramené à l’estimateur MAP avec une
matrice de covariance a priori très grande, donc une information a priori très
peu contraignante. Une telle manière de procéder se justifie d’autant plus que
le poids de l’a priori diminue en proportion du nombre d’observations traitées.
Dans la pratique, la valeur de l’estimée devient assez rapidement indépendante
des conditions initiales choisies. On se trouve donc dans une situation où une
information a priori minime permet de faire fonctionner une méthode sans pour
autant contraindre la solution de manière sensible.
Remarques
Soulignons tout d’abord la structure du système d’équations (4.25) qui dé-
finit l’algorithme MCR. La première de ces équations sert à remettre à jour
70 CHAPITRE 4. ESTIMATION
où εn désigne l’erreur entre une valeur observée et une valeur prédite à l’aide
du modèle disponible à l’instant n. De nombreux algorithmes d’optimisation
récurrents sont de cette forme. Ici, la fonction ϕ est linéaire, ce qui est la consé-
quence directe de la structure linéaire des estimateurs étudiés. Le calcul de cette
fonction ϕ est effectué par les trois dernières équations du système (4.25), et on
remarque que celles-ci sont indépendantes des mesures z. Par conséquent, on
peut imaginer de calculer à l’avance l’ensemble des produits kn rn−1 , ce qui per-
met ensuite une estimation en ligne de x avec un minimum de calculs. Cette
propriété peut être utilisée dans des situations où l’on désire suivre en temps
réel l’évolution de l’estimée tout en ne disposant que d’une puissance de calcul
limitée.
En ce qui concerne le volume de calcul, un décompte précis du nombre
d’opération nécessaire pour calculer l’estimée sous forme compacte et avec l’al-
gorithme MCR ne montre aucun avantage marquant pour l’une ou l’autre ap-
proche, du moins dans le cas le plus courant où N est très supérieur à P . L’intérêt
de l’algorithme MCR ne réside donc pas dans une réduction du volume des cal-
culs, mais plutôt dans la possibilité de traiter les données en ligne et dans une
simplification de la mise en œuvre. En effet, bien que le système (4.25) nécessite
le stockage de la matrice Pn de dimension (P, P ) ce qui peut être pénalisant si
x est de très grande dimension, aucune inversion de matrice n’est requise pour
calculer la solution. De plus, l’algorithme MCR ne nécessite pas le stockage de
la totalité du vecteur z, mais seulement de la mesure zn à l’instant courant.
Il peut d’ailleurs fonctionner sans connaissance préalable du nombre total de
mesures N .
Par ailleurs, les quantités Pn et rn que nous avons introduites comme des
intermédiaires de calcul ont une interprétation statistique : Pn représente, à un
terme de normalisation près, la matrice de covariance de l’estimateur, et rn est
la variance de la quantité εn = zn+1 − hTn+1 x̂n . En pratique, cela signifie que
la matrice Pn est nécessairement symétrique définie positive, et que rn est lui
aussi positif. Or on observe que des instabilités numériques se manifestent dans
l’algorithme MCR lorsque Pn ou rn perd cette propriété. On dispose ainsi à la
fois d’indicateurs d’instabilité et de moyens d’améliorer la stabilité numérique
de l’algorithme. On peut par exemple assurer la symétrie de Pn en ne calculant
qu’une de ses sous-matrices triangulaires supérieure ou inférieure, (ou en faisant
la moyenne des deux). On peut aussi surveiller le signe de rn pour, le cas échéant,
réinitialiser l’algorithme. Des techniques plus sophistiquées, faisant appel à la
décomposition de Pn en racine carrée, ont également été proposées.
Enfin, insistons particulièrement sur le fait que, dans une situation don-
née, il faut distinguer très nettement d’une part ce qui a trait aux hypothèses
émises et à l’estimateur utilisé, et d’autre part ce qui a trait à l’algorithme em-
ployé. En effet, un algorithme n’est qu’une technique de calcul d’un estimateur
particulier qui, si la représentation numérique des données avait une précision
4.5. ESTIMATION DANS LE CAS LINÉAIRE ET GAUSSIEN 71
4.5.4 Exemple
L’objet de ce paragraphe est double : d’une part, indiquer une nouvelle
fois comment un problème que l’on rencontre en génie biomédical peut être
mis en équation pour permettre l’application des techniques exposées ci-dessus ;
d’autre part, illustrer concrètement l’effet des divers paramètres qui influent
sur la difficulté d’un problème d’estimation. L’exemple choisi est l’identification
d’un système linéaire représenté par sa réponse impulsionnelle. Un tel problème
se pose entre autres en modélisation de systèmes biologiques.
zn = xTn h + bn (4.27)
72 CHAPITRE 4. ESTIMATION
z = Xh + b , (4.28)
4 2 2
où l’on a posé λ = σB /σH . Ces estimateurs peuvent être mis en œuvre indif-
féremment sous la forme compacte ou sous la forme récurrente exposées aux
paragraphes précédents.
Résultats
Afin d’illustrer le comportement des deux estimateurs ci-dessus, nous avons
simulé un système passe-bas du troisième ordre dont la réponse impulsionnelle,
qui comporte P = 32 échantillons non nuls, est représentée à la figure 4.3.
Ce modèle représente assez bien la relation pression-débit dans le lit vasculaire
pulmonaire. Nous avons ensuite utilisé des entrées pseudo-aléatoires de taille
et de nature différentes, et ajouté à la sortie correspondante un bruit blanc
gaussien indépendant de l’entrée de manière à obtenir un rapport signal à bruit
(défini comme le rapport des puissances respectives de la sortie et du bruit) de
20 dB et 0 dB.
Dans la première expérience, l’entrée choisie était un signal blanc de taille
N = 256 précédé de valeurs nulles, et le rapport signal-à-bruit était de 20 dB.
Ces conditions d’estimation sont favorables car nous avons un rapport N/P élevé
et de faibles incertitudes sur les mesures. De plus, l’entrée, étant un signal blanc,
va stimuler le système à toutes les fréquences et donc favoriser son identification.
Les résultats obtenus avec l’estimateur MV sont présentés à la figure 4.4. Ils
sont conformes à ce que l’on pouvait attendre, c’est à dire de très bonne qualité,
l’estimée se distinguant à peine de la vraie valeur. L’utilisation d’un estimateur
MAP fournirait des résultats extrêmement voisins.
Nous nous sommes ensuite placés dans les mêmes conditions que précédem-
ment, mais avec un rapport signal-à-bruit de 0 dB. Ceci correspond à des condi-
tions moins favorables, car la puissance des incertitudes est maintenant du même
ordre de grandeur que celle des mesures. C’est ce que montre la figure 4.5 où les
4.5. ESTIMATION DANS LE CAS LINÉAIRE ET GAUSSIEN 73
0.6
0.4
amplitude
0.2
-0.2
-0.4
0 50 100 150 200 250 300 350 400 450 500
temps (ms.)
0.6
0.4
amplitude
0.2
-0.2
-0.4
0 50 100 150 200 250 300 350 400 450 500
temps (ms.)
0.6
0.4
amplitude
0.2
-0.2
-0.4
0 50 100 150 200 250 300 350 400 450 500
temps (ms.)
résultats obtenus avec l’estimateur MV sont de moins bonne qualité que dans
le cas précédent. L’utilisation d’un estimateur MAP dans lequel l’information a
priori est spécifiée sous forme d’une matrice RH non diagonale permet d’ob-
tenir une amélioration appréciable de la qualité des résultats. Cette dernière
permet de traduire l’idée de douceur de la réponse impulsionnelle à identifier en
introduisant une corrélation entre ses échantillons.
Si le signal d’entrée ne comporte plus que 32 échantillons, le contraste devient
médiocre car le rapport N/P est alors égal à 1. Ceci correspond à des conditions
défavorables, comme le montrent les résultats présentés à la figure 4.6. Bien que
les incertitudes sur les mesures soient relativement faibles (rapport signal-à-bruit
de 20 dB), la solution obtenue avec l’estimateur MV présente de grandes oscil-
lations (amplitude maximale de l’ordre de 1000 !) qui la rendraient inexploitable
dans la pratique. Ces oscillations s’interprètent comme une variance excessive de
la solution. Plus encore que dans le cas précédent, l’utilisation d’un estimateur
MAP produit une amélioration spectaculaire en réduisant cette variance dans
des proportions importantes.
Enfin, si le signal d’entrée est composé non plus d’un signal blanc, mais d’un
signal corrélé, on peut là aussi s’attendre à des résultats de mauvaise qualité. In-
tuitivement, cela est dû à ce qu’un signal corrélé a un contenu spectral limité ; il
apporte donc moins d’information qu’un signal blanc sur le système à identifier,
car il n’en stimule qu’une partie du comportement dynamique. Ceci se traduit
d’ailleurs de manière algébrique par une détérioration du conditionnement de
la matrice X T X, ce qui rend l’estimée plus sensible aux incertitudes. Ce com-
portement est illustré par les figures 4.7 à 4.9. L’entrée corrélée utilisée pour
stimuler le système a été obtenue par filtrage d’un signal blanc. La figure 4.7
présente les modules des transformées de Fourier respectives du filtre servant à
corréler l’entrée et de la réponse impulsionnelle à identifier. Il est apparent que
le signal d’entrée a un contenu fréquentiel limité aux très basses fréquences, et
stimule donc très peu les hautes fréquences du système à identifier.
Les résultats obtenus pour des rapports signal-à-bruit de 20 dB et 0 dB
apparaissent respectivement aux figures 4.8 et 4.9. On constate là aussi que
l’estimateur MV fournit des résultats de mauvaise qualité en raison d’une va-
riance excessive sur la solution : les oscillations sont de l’ordre de 104 pour un
rapport signal-à-bruit de 20 dB, et de 105 lorsque le rapport signal-à-bruit vaut
0 dB. Ceci rend évidemment les résultats totalement inexploitable. L’utilisation
d’une méthode MAP dans laquelle l’information a priori est spécifiée sous la
forme d’une matrice RH non diagonale, ce qui traduit la douceur de la réponse
impulsionnelle, améliore la qualité des résultats de manière spectaculaire.
Ces résultats illustrent donc le comportement des estimateurs dans diffé-
rentes conditions. Ils mettent en évidence la très grande importance pratique de
trois paramètres : le rapport entre le nombre de mesures et le nombre de para-
mètres à estimer, l’importance des incertitudes et la nature de la matrice liant
les mesures à la grandeur à estimer (il s’agit ici de la matrice X). Lorsque cette
matrice ne transmet qu’une petite partie du comportement de la quantité incon-
nue, ce qui se produisait ici pour une entrée corrélée, l’estimation est beaucoup
difficile. Ceci suggère également la démarche pratique à adopter. Après avoir mis
4.5. ESTIMATION DANS LE CAS LINÉAIRE ET GAUSSIEN 77
0.6
0.4
amplitude
0.2
-0.2
-0.4
0 50 100 150 200 250 300 350 400 450 500
temps (ms.)
2.5
Module de la TF
1.5
0.5
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
frequences reduites
0.6
0.4
amplitude
0.2
-0.2
-0.4
0 50 100 150 200 250 300 350 400 450 500
temps (ms.)
0.6
0.4
amplitude
0.2
-0.2
-0.4
0 50 100 150 200 250 300 350 400 450 500
temps (ms.)
Les questions auxquelles il est nécessaire de donner des réponses sont les sui-
vantes :
1. pour quelle classe de signaux la transformation ci-dessus a-t-elle un sens ?
2. existe-t-il une formule d’inversion ?
On s’intéressera particulièrement à l’effet de la transformation (A.1) sur la com-
position des signaux par les opérateurs usuels tels que l’addition, la multiplica-
tion et surtout la convolution.
83
84 ANNEXE A. PRÉCISIONS SUR LA TRANSFORMÉE DE FOURIER
a bien un sens, et possède les principales propriétés suivantes (on suppose que
x et y appartiennent à L1 ) :
– linéarité
F(αx(t) + βy(t)) = αX(ν) + βY (ν) ;
– translation en temps
F(x(t − α)) = X(ν) e−2iπαν ;
– homothétie en temps
1
F(x(αt)) = |α| X(ν/α) ;
– translation en fréquence
F(x(t) e2iπαt ) = X(ν − α) ;
– homothétie en fréquence
1
F( |α| x(t/α)) = X(αν) ;
– conjugaison
F(x(−t)∗ ) = X(ν)∗ ;
– convolution
F(x(t) ∗ y(t)) = X(ν) Y (ν) ;
– dérivation en temps
si x0 (t) ∈ L1 F(x0 (t)) = 2iπνX(ν) ;
– dérivation en fréquence
si t x(t) ∈ L1 , alors X(ν) est dérivable et F(−2i π t x(t)) = X 0 (ν).
Ces propriétés sont intéressantes, mais insuffisantes pour l’instant car à ce stade,
il n’est pas possible d’établir de formule d’inversion. La raison en est que le fait
que x ∈ L1 n’implique pas que sa transformée de Fourier appartienne à L1 . En
fait, on a :
Si x ∈ L1 , alors X est une fonction continue et
lim = 0 .
ν→±∞
est toujours défini pour x et y dans L2 et définit un produit scalaire dans cet
espace. On peut même montrer que L2 , muni de ce produit scalaire, est un
espace de Hilbert.
L1 et L2 sont deux espaces tels que L1 ∩ L2 6= ∅, L1 6⊂ L2 et L2 6⊂ L1 .
Pour définir la transformée de Fourier sur L2 , on commence par s’intéresser à
L1 ∩ L2 . L’expression (A.1) définissant F a alors un sens, et toutes les propriétés
énoncées précédemment sont valables. On observe ensuite que L1 ∩ L2 est dense
dans L2 . Par des passages à la limite rendus possibles par la structure d’espace
de Hilbert de L2 , on peut alors prolonger la transformée de Fourier sur L1 ∩ L2
à L2 tout entier. On a alors le résultat suivant :
À toute fonction x(t) ∈ L2 , on peut associer une autre fonction X(ν) ∈ L2
telle que
si x(t) ∈ L1 ∩ L2 , X(ν) = F(x(t)) au sens de L1 ;
– plus généralement, au sens de la norme dans L2
RA
X(ν) = limA→+∞ −A x(t)e−2iπνt dt et
RA
x(t) = limA→+∞ −A X(ν)e2iπνt dν ;
– théorème de Plancherel
∀(x, y) ∈ L22 , < x · y >=< X · Y > ;
– conséquence
R +∞ R +∞
kxkL2 = −∞ |x(t)|2 dt = kXkL2 = −∞ |X(ν)|2 dν.
Ceci indique que la transformée de Fourier définit une isométrie de L2
sur lui-même.
86 ANNEXE A. PRÉCISIONS SUR LA TRANSFORMÉE DE FOURIER
A étant une matrice symétrique, aij = aji et les deux sommes apparaissant au
second membre de (B.2) sont égales. On peut donc écrire :
N
∂ψ X ∂φi (u)
= aij φj (u) ,
∂uk i,j=1
∂uk
89
90 ANNEXE B. CALCUL DU GRADIENT DE FORMES QUADRATIQUES