Cours-Traitement d’image-Pr Zaarane (1)
Cours-Traitement d’image-Pr Zaarane (1)
Cours-Traitement d’image-Pr Zaarane (1)
et
Applications
2
Introduction
2. Domaines d’application :
▪ Domaine militaire :
➢ Guidage de missiles en tous genres (autodirecteur (courte portée), de croisière
(longue portée), etc.),
➢ Renseignement (télédétection à partir d'images satellite dont la précision peut aller
aujourd'hui jusqu'à quelques centimètres, ou aériennes, la photo-interprétation),
➢ Simulateurs « réels » (de vol avion, de char, etc.),
▪ Domaine médical :
➢ Radiographie,
➢ Echographie,
➢ Scanner, etc. 3
Introduction
▪ Domaine industriel ( Robotique) :
➢ Contrôle de la qualité des produits (état de surface, dimensionnement, forme, couleur)
➢ Assemblage, Reconnaissance de pièces
➢ Véhicule autonome
▪ Domaine multimédia :
➢ la compression / décompression pour la transmission d'Images ou l'amélioration de la qualité,
➢ la TV haute définition (Standard MPEG4),
➢ le remplacement des panneaux publicitaires dans des retransmissions sportives,
➢ la recherche d'images par le contenu dans des banques d'images,
4
Introduction
3. Définition :
Le traitement d’images est un domaine qui consiste en l’étude des images
numériques et de leurs transformations. Il consiste à analyser et à manipuler
une image numérique principalement dans le but d’en améliorer la qualité ou
d’en extraire des informations qui pourraient ensuite être utilisées.
Traitement
5
Introduction
Traitement d’images
eau
u
ivea
t niv
n
Hau
Bas
Compression Restauration
7
Deconvolution Segmentation
Représentation des images
1. C'est quoi une image :
▪ Image est une reproduction ou représentation d’une scène.
▪ Image est une représentation planaire d’un objet quelconque.
▪ Projection 2D d’une scène 3D.
▪ Mathématiquement, c'est une fonction bidimensionnelle de la forme f(x, y),
où f(x0, y0) est la valeur de f aux coordonnées (x0, y0).
➢ Pour chaque (x, y), f(x, y) représente l’intensité de la lumière en ce point.
8
Représentation des images
▪ Une image est une fonction d’au moins deux variables réelles :
9
Représentation des images
2. Image numérique :
▪ Une image numérique est une représentation binaire d’une image 2D
▪ Elle peut être vectorielle ou matricielle
▪ En générale, le terme « image numérique » fait référence au type matricielle
➢ Une image vectorielle est composée de formules mathématiques
➢ Une image matricielle est composée d’une ou plusieurs matrices ayant deux
dimensions
Image vectorielle
Image matricielle
10
Représentation des images
▪ Image numérique a un nombre fini de données numériques
▪ Ces données sont représentées par des pixels
– Pixel vient des termes picture element
▪ Chaque pixel est composé d’une ou plusieurs valeurs
– Généralement ce sont des valeurs entières de 8 bits
▪ Chaque valeur représente un canal
– 1 canal → Image niveau de gris (8 bits) ou monochrome (1 bit)
– 3 canaux → Image RGB (24 bits)
11
Représentation des images
▪ Image matricielle :
Une image matricielle est une image numérique formée d'une multitude de pixels,
et représentée sur une grille dotée de deux axes, X et Y. La précision d'une image matricielle
dépend du nombre de pixels qui la composent. Plus ils sont nombreux, plus l'image sera
nette : c'est la résolution.
12
Représentation des images
13
Représentation des images
Il existe 3 types d’images :
14
Représentation des images
▪ Image binaire : I(x, y) ∈ {0, 1} :
Un bit est l’unité minimale d’information
qu’un ordinateur manipule : 1 ou 0,
allumé ou éteint. L’image la plus simple
qu’un ordinateur puisse afficher est
constituée uniquement de noir et blanc.
Ainsi, un pixel pourrait être à l’état soit
«noir», soit «blanc».
15
Représentation des images
▪ Image en niveaux de gris : I(x, y) ∈ [0, 255]
Matrice où la valeur de chaque pixel représente l’intensité discrète de la lumière au
point (x, y) (0 : noir, 255 : blanc pour un codage des niveaux de gris sur 8 bits).
16
Représentation des images
▪ Exemple d’une image numérique en niveaux de gris
17
Représentation des images
▪ Image en couleurs :
Les couleurs sont définies par trois couleurs
primaires, généralement le rouge, le vert et le bleu,
qui combinées permettent de créer une large
gamme de couleurs. En traitement d'image, une
couleur est décrite en utilisant trois canaux - rouge,
vert et bleu (RGB). Ainsi, chaque pixel est représenté
par un ensemble de valeurs RGB, formant un tuple
qui définit sa couleur.
18
Représentation des images
Une image en couleur se représente
donc sous la forme d’une matrice à 3
dimensions :
▪ Abscisse (Coordonnée x)
▪ Ordonnée (Coordonnée y)
▪ Canal couleur (de 0 à 2 car 3 canaux
R, V, B)
19
Représentation des images
▪ Exemples de couleurs :
21
Représentation des images
▪ Résolution: La résolution d'une image est le nombre de pixels contenus dans l'image par
unité de longueur. Elle s'exprime le plus souvent en ppp (pixel par pouces) ou en ppi (pixel
per inch), parfois en pixel par cm.
Rappel : 1 pouce (ou inch) = 2,54 cm. 50 px
22
5"
Représentation des images
➢ Plus la résolution est élevée, plus les points son petits et nombreux, et plus l’image
est fine.
Exemple :
A 3 ppp, difficile de dire A 8 ppp, on peut voir que A 16 ppp, c’est encore
de quelle lettre il s’agit c’est un A mieux
23
Système de traitement d’images
▪ Schéma d’un système de traitement d’images :
Visualisation
Traitement
Pré- Analyse
Image Acquisition Numérique
traitement d’images
d’images
Transmission
24
Système de traitement d’images
1. Acquisition des Images Numériques :
25
Système de traitement d’images
26
Système de traitement d’images
A. Échantillonnage
27
Système de traitement d’images
Plus la fréquence d’échantillonnage fe
A. Échantillonnage est grande, plus le nombre d’échantillons
sera important
Signal analogique
Signal numérique
28
Système de traitement d’images
❑ Théorème de shannon
A. Échantillonnage
30
Système de traitement d’images
▪ Pourquoi cette propriété est importante ?
Si le théorème de Shannon n’est pas respecté (Féch < 2 Fmax), il y a une perte
d’information Repliement spectral (aliasing)
31
Système de traitement d’images
33
Système de traitement d’images
❑ Échantillonnage multidimensionnel
34
Système de traitement d’images
❑ Échantillonnage d’image
▪ Pour les images
✓ Prend des échantillons (sous forme de pixels) à partir d’une image continue
(réelle) de sorte à construire une image discrète (matricielle)
1
𝐹𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑑′ é𝑐ℎ𝑎𝑡𝑖𝑙𝑙𝑜𝑛𝑛𝑎𝑔𝑒 ≥
2 × 𝑡𝑎𝑖𝑙𝑙𝑒 𝑑𝑢 𝑝𝑖𝑥𝑒𝑙
✓ En donnant les fréquences d’échantillonnage, on définit la résolution de
l’image.
35
Système de traitement d’images
❑ Ré-échantillonnage :
▪ C’est, à partir d’une image numérique, faire un échantillonnage (de fréquence
différente) pour obtenir une nouvelle image numérique.
➢ Sur-échantillonnage : Fréquence plus haute, on rajoute des pixels.
➢ Sous-échantillonnage : Fréquence plus basse, on enlève des pixels.
▪ On perd de la qualité en effectuant un ré-échantillonnage :
➢ Dilution de l’information
➢ Suppression de l’information
37
Système de traitement d’images
❑ Ré-échantillonnage :
38
Système de traitement d’images
❑ Ré-échantillonnage :
39
Système de traitement d’images
B. Quantification
40
Système de traitement d’images
Plus le nombre de bits est élevé,
plus les valeurs de chaque
Faible quantification échantillon du signal numérisé
(peu de bit) sont proches des valeurs du signal
analogique
Peu de valeurs pour
coder l’amplitude
Grande quantification
(beaucoup de bit)
beaucoup de valeurs
pour coder l’amplitude
41
Système de traitement d’images
Son intense Son peu intense
Signal
Grand numérisé
nombre de différent
pour les
bits pour la
deux sons
quantificatio
n
❑ Quantification multidimensionnel
43
Système de traitement d’images
❑ Quantification multidimensionnel
44
Système de traitement d’images
❑ Quantification multidimensionnel
• Mesure discrète :
▪ Pour chaque intervalle d’échantillonnage, on mesure l’amplitude
▪ A une amplitude va correspondre un chiffre entier, qui arrondit les valeurs
▪ L’échelle des valeurs doit être adaptée à la dynamique de l’image:
❑ Quantification multidimensionnel
46
Système de traitement d’images
▪ Le codage d’une image numérique
Codage 1 bit par pixel
Chaque pixel peut prendre de valeurs de couleur : 0 ou 1
l’image est en noir (0) et blanc(1)
Image
Matrice
47
Système de traitement d’images
48
Système de traitement d’images
Exemple :
255 255 255 255
255 0 0 255
Matrice décimale Donne l’image :
255 0 0 255
255 255 255 255
00 00 00 00
Matrice hexadécimale 40 40 40 40
7F 7F 7F 7F Donne l’image :
FF FF FF FF 49
Système de traitement d’images
Codage 8 bits par pixel en couleurs indexées
Chaque nombre associé à un pixel fait référence à une couleur qui figure dans un
dictionnaire fourni avec l'image.
51
Système de traitement d’images
Codage 24 bits par pixel en RVB
donne l’image
? 54
Système de traitement d’images
donne l’image
? 55
Système de traitement d’images
56
Système de traitement d’images
Une mauvaise quantification peut faire apparaître des distorsions dans les images
et une sous quantification peut faire apparaitre des faux contours 57
Système de traitement d’images
❑ Règles de Quantification
▪ Comme pour l'échantillonnage, il existe des règles pour déterminer la bonne
quantification (le bon nombre de bits) pour coder les images numériques.
▪ L'une dépend du capteur et de sa capacité effective à observer des signaux de
valeurs différentes : le rapport signal sur bruit.
▪ Le rapport signal sur bruit est défini à partir du rapport entre l'amplitude des niveaux
de gris mesurables par le capteur (nmax - nmin) et le niveau du bruit, en gros
l'écart-type sn de la perturbation aléatoire qui affecte les niveaux de gris. En prenant
le logarithme de base 2, on a le nombre de bits utile au capteur pour coder les
images.
58
Système de traitement d’images
❑ Règles de Quantification
Outre les capacités du capteur, le nombre de bits réellement nécessaires pour coder une
image varie d'une image à l'autre, en fonction de leur contenu informationnel. Ce nombre
dépend de l'entropie, définie à partir de la distribution des niveaux de gris de l'image.
M et N : les dimensions de
l’image numérisée.
L : le nombre de niveaux
de gris L=2𝑘 .
2. Compression
Compresser une image = réduire la taille de son fichier en remplaçant la série de
ses données par une autre plus réduite.
➢ Pourquoi compresser une image (ou tout autre type de données : texte, son,
vidéo, etc.) ?
• Pour réduire sa place sur disque.
• Pour accélérer sa transmission sur un réseau.
62
Système de traitement d’images
Plus le taux de compression est élevé, plus le
2. Compression niveau de pertes est important et plus la
qualité d’image est dégradée.
Taux de compression :
𝑡𝑎𝑖𝑙𝑙𝑒 𝑜𝑟𝑖𝑔𝑖𝑛𝑎𝑙𝑒
Taux de compression =
𝑡𝑎𝑖𝑙𝑙𝑒 𝑐𝑜𝑚𝑝𝑟𝑒𝑠𝑠é𝑒
2. Compression
L’algorithme est efficace si l’image contient des grandes zones de même couleur.
66
Système de traitement d’images
67
Système de traitement d’images
68
Système de traitement d’images
Dans l’ensemble, les algorithmes de compression sont efficaces si l’image comporte de
grandes zones de couleurs identiques ou très voisines.
750 Ko 1,8 Mo
69
Système de traitement d’images
70
L’amélioration d’images
1. Histogramme
Un histogramme, dans le contexte du traitement d'images, est une
représentation graphique de la répartition des niveaux de couleur ou de
luminosité d'une image. C'est un outil fondamental pour analyser la
distribution des intensités de pixels dans une image.
▪ L’histogramme donne des informations particulière à une image telle que :
➢ La distribution statistique des niveaux de gris
➢ Les bornes de répétition des niveaux
71
L’amélioration d’images
1. Histogramme
72
L’amélioration d’images
1. Histogramme
Les histogrammes, sont fréquemment utilisés pour l’amélioration d’image qui
consiste à modifier les caractéristique visuelle de l’image de manière à en faciliter
son interprétation par l’œil humain. Ils peuvent être utilisé pour:
➢ Ajustement de contraste : En modifiant la distribution des valeurs de
luminosité via l'histogramme, on peut augmenter ou diminuer le contraste de
l'image.
➢ Ajustement de la luminosité : En modifiant l'histogramme, on peut ajuster la
luminosité générale de l'image ou la relation entre les niveaux de luminosité.
73
L’amélioration d’images
1. Histogramme
H ( x ) = n( x )
n(x) le nombre de pixel qui ont le meme niveau de gris x allant de 0 à m-1.
74
L’amélioration d’images
L'histogramme représente la répartition des pixels en fonction de leurs niveaux
de gris. Il fournit diverses informations comme les statistiques d'ordre.
W
75
L’amélioration d’images
▪ Exercice:
Par exemple, soit l’image de 5 pixels par 5 pixels de côté avec des valeurs
comprises entre 0 et 4 :
➢ Donnez son histogramme sous la forme
d'un diagramme à barres.
76
L’amélioration d’images
▪ Corriger:
Son histogramme est une fonction qui, à chaque valeur de niveau de gris compris
entre 0 et 4, associe le nombre de pixels ayant cette valeur:
77
L’amélioration d’images
▪ Corriger:
78
L’amélioration d’images
▪ Exercice:
➢ Tracer l'histogramme de cette image sous la forme d'un diagramme à barres.
➢ D'après l'histogramme, quel niveau de gris est le plus présent ?
79
L’amélioration d’images
▪ Corriger:
80
L’amélioration d’images
L’histogramme permet d’obtenir rapidement une information générale sur
l’apparence de l’image. Une image visuellement plaisante aura généralement un
histogramme équilibré (proche d’une fonction plate). Par exemple dans l’image ci-dessous,
l’histogramme est tassé sur la gauche: l’image est trop sombre :
81
L’amélioration d’images
82
L’amélioration d’images
Finalement dans ce dernier exemple, l’histogramme est trop creusé au centre, les
noirs sont trop noirs, les blancs trop blancs (on dit que l’image est saturée) :
83
L’amélioration d’images
84
L’amélioration d’images
▪ Histogramme cumulatif
L'histogramme cumulé est une représentation dérivée de l'histogramme classique
d'une image. Il affiche la distribution cumulative des niveaux de gris ou des couleurs
présents dans une image. Pour obtenir un histogramme cumulé, on additionne les valeurs
de l'histogramme d'une manière cumulative. Ainsi, chaque valeur de l'histogramme cumulé
représente la somme des fréquences de toutes les valeurs de niveaux de gris ou de
couleurs jusqu'à ce point. Cela permet de mettre en évidence la répartition globale des
valeurs dans l'image.
𝑥
𝐻𝐶 𝑥 = 𝐻(𝑖)
𝑖=0 85
L’amélioration d’images
▪ Histogramme cumulatif
Il associe à chaque niveau de gris le pourcentage de pixels qui sont au moins aussi
sombre que lui, donc on aura un petit pourcentage pour la valeur 0, et 100% pour
255 ou avant (cela dépend du niveau de gris maximum dans l’image).
30 28 70 64
25 24 60
50
20
40 36
15
12 30 24
10
20
5 10
0 0 86
0 1 2 0 1 2
L’amélioration d’images
Divers traitements d'analyse sont exclusivement réalisés en se basant sur
l'histogramme. Parmi eux :
Il est important de noter que certains de ces traitements sont souvent effectués au niveau
des capteurs. Leur pertinence est étroitement liée aux conditions d'acquisition des images.
87
L’amélioration d’images
A. Normalisation d’histogramme
89
L’amélioration d’images
A. Normalisation d’histogramme
𝑯(𝒊)
𝑯𝒏 𝒊 = 𝑯𝒏 𝒊 ϵ [0,1]
𝑾 × 𝑯
➢ La fonction correspondante 𝑯𝒏 est l’histogramme normalisé.
➢ On peut dire que c’est une approximation discrète de la densité de probabilité ddp de
la variable aléatoire « niveau de gris d’un pixel ».
90
L’amélioration d’images
A. Normalisation d’histogramme
2𝐷 − 1
𝑓𝑛𝑒𝑤 x, y = (𝑓 𝑥, 𝑦 − 𝑁𝑚𝑖𝑛 ).
𝑁𝑚𝑎𝑥 − 𝑁𝑚𝑖𝑛
▪ 𝟐𝑫 − 𝟏 : dynamique.
▪ 𝑵𝒎𝒊𝒏 : la plus petite valeur dans l'image.
▪ 𝑵𝒎𝒂𝒙 : la plus grande valeur dans l'image. 91
L’amélioration d’images
A. Normalisation d’histogramme
92
L’amélioration d’images
▪ Histogramme cumulatif normalisé
HCn(x) est le taux de pixels dont le niveau de gris est inférieur ou égal à x.
W
σ𝒙𝒊=𝟎 𝑯(𝒙)
𝑯𝑪𝒏 𝒙 =
𝑾 × 𝑯
H
93
L’amélioration d’images
B. Égalisation d’histogramme
L'égalisation d'histogramme est une transformation des niveaux de gris dont le principe est
d'équilibrer le mieux possible la distribution des pixels dans la dynamique. elle a pour but de
répartir uniformément les pixels dans chacun des niveaux : Idéalement, on cherche à avoir le
même nombre de pixels pour tous les niveaux de 0 à 255 (Histogramme plat).
95
L’amélioration d’images
❑ Etapes à suivre pour l’égalisation d’un histogramme d’une image F :
3,5
3
3
2,5
2 2
2
1,5
1 1
1
0,5
00000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000
0
10
15
20
25
30
35
40
45
50
55
60
65
70
75
80
85
90
95
140
150
160
0
5
100
105
110
115
120
125
130
135
145
155
165
170
175
180
185
190
195
200
205
210
215
220
225
230
235
240
245
250
255
97
L’amélioration d’images
▪ Normalisation de l’histogramme
0,4
0,35 0,34
0,3
0,25
0,22 0,22
0,2
0,15
0,11 0,11
0,1
0,05
00000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000
0
18
60
12
24
30
36
42
48
54
66
72
78
84
90
96
102
144
186
228
0
6
108
114
120
126
132
138
150
156
162
168
174
180
192
198
204
210
216
222
234
240
246
252
98
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
0
1
0,1
0
5
10
15
20
25
30
35
40
45
50
55
60
65
70
75
80
85
90
95
100
105
110
115
L’amélioration d’images
120
125
130
135
140
145
150
▪ Calcul de l’histogramme cumulatif normalisé
155
160
165
170
175
180
185
190
195
200
205
210
215
220
225
230
235
240
245
250
255
99
L’amélioration d’images
▪ Image égalisée
Résultat :
255 227 227
28 115 115
100
L’amélioration d’images
C. Segmentation par l’histogramme
101
L’amélioration d’images
C. Segmentation par l’histogramme
Le seuillage effectué avec un seuil unique revient à une opération de binarisation. Soit
I(x,y), la valeur d’intensité du pixel de coordonnées (x,y) dans l’image :
Les pixels sont classés en deux catégories, on a créé une image binaire en noir et blanc.
102
L’amélioration d’images
C. Segmentation par l’histogramme
103
L’amélioration d’images
C. Segmentation par l’histogramme
On peut également pratiquer le multi-seuillage. Soit on utilise deux seuils, T1 et T2, et on
effectue à nouveau une binarisation de l’image.
0 Si 𝐼(𝑥, 𝑦) < 𝑇1
𝑰𝒔 (𝒙, 𝒚) = 1 Si 𝑇1 ≤ 𝐼(𝑥, 𝑦) ≤ 𝑇2
0 Si 𝐼(𝑥, 𝑦) > 𝑇2
Plusieurs seuils peuvent être définis pour regrouper les pixels dans différentes classes. Par la
suite, chaque classe peut être assignée à une couleur spécifique, ce qui permet d'analyser la
distribution géographique de ces pixels dans l'image. 104
L’amélioration d’images
C. Segmentation par l’histogramme
105
L’amélioration d’images
C. Segmentation par l’histogramme
107
L’amélioration d’images
2. Contraste
Variation maximale entre les valeurs de niveaux de gris max et min dans l’image. Le
calcul du contraste peut se faire de différentes manières, mais la fonction suivante
est la plus utilisée.
max 𝑓 𝑥, 𝑦 − min[𝑓(𝑥, 𝑦)]
𝐶=
max 𝑓 𝑥, 𝑦 + min[𝑓(𝑥, 𝑦)]
C’est une valeur entre 0 et 1, de ce fait il est normalisé par la valeur maximale.
Une plus grande différence entre les valeurs minimales et maximales indique un contraste
plus fort. 108
L’amélioration d’images
2. Contraste
109
L’amélioration d’images
2. Contraste
Pour info, les photos en noir et blanc qui semblent « belles » sont généralement
les plus contrastées. Et pour cause, elles n’ont que le contraste pour exister 111
L’amélioration d’images
2. Contraste
112
L’amélioration d’images
Exercice…
113
L’amélioration d’images
3. Luminance
▪ Luminance ou brillance d’une image est défini comme la moyenne de tous les pixels de
l’image.
▪ Pour augmenter la luminance, il suffit de décaler l’histogramme : 𝐼𝑛𝑒𝑤 𝑖, 𝑗 = 𝐼 𝑖, 𝑗 + 𝑏
▪ Dans les deux images suivantes seule la luminance est différente :
114
L’amélioration d’images
3. Luminance
Image sombre Image à faible
contraste
115
L’amélioration d’images
4. Transformations des images
❑ Principe : Changer la valeur de chaque pixel d’une image I pour obtenir une nouvelle image
𝐼 ′ . Cette image résultante a même taille que I, mais des propriétés plus intéressantes.
❑ Notation : la transformation est notée t :
t
𝐼𝑁𝑥 ×𝑁𝑦 → 𝑰′𝑁𝑥 ×𝑁𝑦
❑ Types de transformations
➢ Transformations Ponctuelles
➢ Transformations Locales
➢ Transformations Globales
116
L’amélioration d’images
❑ Transformations Ponctuelles (ou pixel à pixel) :
Ce sont des opérations qui sont appliquées pixel par pixel de manière indépendante. Chaque pixel de
l'image est transformé en fonction de sa propre valeur, sans tenir compte des pixels voisins.
- La nouvelle valeur 𝐼′ (x,y) est obtenue à partir de 𝐼 𝑥, 𝑦 seulement :
t
𝐼𝑁𝑥 ×𝑁𝑦 → 𝑰′𝑁𝑥 ×𝑁𝑦 =≫ 𝐼′ 𝑥, 𝑦 = 𝑡 𝐼 𝑥, 𝑦
y y
117
L’amélioration d’images
❑ Transformations Locales ( ou de voisinage) :
y y
118
L’amélioration d’images
❑ Transformations Locales ( ou de voisinage) :
119
L’amélioration d’images
❑ Transformations Globales :
I t 𝑰′
120
L’amélioration d’images
5. Look up table LUT :
o Une transformation ponctuelle t change un niveau de gris 𝒊 dans l’image initial 𝑰 en un niveau
de gris 𝒊′ pour obtenir l’image résultat 𝑰′ .
o Elle est donc définie par une table de correspondance ou LUT (Look Up Table) qui définit,
pour chaque niveau de gris 𝒊, le nouveau niveau 𝒊′ = t(𝒊) .
o La modification d’un histogramme est représentée sur une courbe indiquant la modification
globale des composantes de l’image avec en abscisse les valeurs initiales et en ordonnées les
valeurs après modification. Cette courbe correspond à une fonction de transfert définie par
LUT .
121
L’amélioration d’images
5. Look up table LUT :
➢ Représentation de la LUT : Tableau ou Courbe
𝒊 t(𝒊)
0 t(0)
1 t(1)
2 t(2)
. .
. .
. .
𝑖0 𝑡(𝑖0 )
. .
. .
. .
255 t(255) 122
L’amélioration d’images
5. Look up table LUT : 𝒊 t(𝒊)
0 255 𝒊 t(𝒊)
𝒊 t(𝒊)
1 254 0 0
0 0
𝟎 𝒔𝒊 𝒊 < 𝟏𝟐𝟕 1 0
Identité 𝒊′ = 𝒊 1 1
2 253 Seuillage ′
𝒊 =ቊ
𝟐𝟓𝟓 𝒔𝒊 𝒊 ≥ 𝟏𝟐𝟕 2 0
… …
2 2
… …
… … Négatif 𝒊′ = 255-𝒊
123
L’amélioration d’images
➢ Une LUT définit la transformation t des niveaux de gris entre l’image initiale et l’image finale.
➢ Cette transformation change la distribution statique des niveaux des gris, caractérisée par
l’histogramme de chaque image.
124
L’amélioration d’images
6. Recadrage de la dynamique :
✓ L’image dois avoir : - un bon contraste
- des contours d’objets bien marqués
Types du recadrage : - Transformation linéaire simple
- Transformation linéaire avec saturation
- Transformation linéaire par morceau
- Transformation non linéaire
125
L’amélioration d’images
6. Recadrage de la dynamique :
Il s’agit d’une transformation du type 𝑓 ′ = 𝑡 𝑓 qui permet de modifier la dynamique des
niveaux de gris dans le but d’améliorer l’aspect visuel de l’image. À un niveau de gris 𝑓 de
l’image originale correspond le niveau 𝑡(𝑓) dans l’image transformée. On fait subir à chaque
pixel un traitement ne dépendant que de sa valeur. La transformation 𝑡(𝑓) peut être réalisée
en temps réel sur l’image en cours d’acquisition à l’aide d’une table de correspondance dans
la quelle les valeurs de la transformation sont mémorisées. Un adressage de cette mémoire
par une donnée 𝑓 fournit directement la valeur 𝑡(𝑓).
126
L’amélioration d’images
A. Transformation linéaire simple
C'est une méthode de recadrage de la dynamique qui
implique une modification globale des niveaux de luminosité
de l'image à l'aide d'une fonction linéaire.
▪ Expansion de Ia dynamique
′
𝟐𝟓𝟓
𝑰 𝒊, 𝒋 = 𝑰 𝒊, 𝒋 − 𝒎𝒊𝒏
𝒎𝒂𝒙 − 𝒎𝒊𝒏
𝑰 𝒊,𝒋 −𝒎𝒊𝒏
avec ∈ [0,1]
𝒎𝒂𝒙−𝒎𝒊𝒏
128
L’amélioration d’images
A. Transformation linéaire simple
129
L’amélioration d’images
A. Transformation linéaire simple
❑ Limite : Si la dynamique est déjà maximale, la transformation n’apporte aucun
changement.
130
L’amélioration d’images
B. Transformation linéaire avec saturation
Cette méthode est similaire à la transformation linéaire simple, mais elle inclut une saturation, ce qui
signifie que les valeurs en dehors d'une plage spécifiée sont limitées.
➢ Fonction de transformation
• Effet : - Rehaussement du contraste
Défini par deux seuils : min < 𝑆𝑚𝑖𝑛 < 𝑆𝑚𝑎𝑥 < max
• des niveaux 𝑆𝑚𝑖𝑛 < i < 𝑆𝑚𝑎𝑥
255
𝐼 ′ (𝑖, 𝑗) = (𝐼(𝑖, 𝑗) − 𝑆𝑚𝑖𝑛 ) - et saturation
𝑆𝑚𝑎𝑥 −𝑆𝑚𝑖𝑛
• À 0 des niveaux min ≤ i < 𝑆𝑚𝑖𝑛
𝐼 ′ (𝑖, 𝑗) ≤0 → 𝐼 ′ (𝑖, 𝑗) =0
• A 255 des niveaux 𝑆𝑚𝑎𝑥 < i ≤ 𝑚𝑎𝑥
𝐼 ′ (𝑖, 𝑗) ≥ 255 → 𝐼 ′ (𝑖, 𝑗) = 255
131
L’amélioration d’images
B. Transformation linéaire avec saturation
132
L’amélioration d’images
C. Transformation linéaire par morceau
La transformation linéaire par morceau consiste à diviser une image en segments ou zones distincts,
puis à appliquer des transformations linéaires différentes à chaque segment. Contrairement à une
transformation linéaire simple qui affecte toute l'image de manière uniforme, cette approche permet
des ajustements locaux spécifiques à certaines parties de l'image.
• Effet : selon la pente locale (gain) , expansion ou compression
de la dynamique.
➢ Rehaussement de contraste si gain >1,
➢ Diminution du contraste si gain < 1.
133
L’amélioration d’images
C. Transformation linéaire par morceau
Exemple :
134
L’amélioration d’images
C. Transformation linéaire par morceau
135
L’amélioration d’images
C. Transformation linéaire par morceau
136
L’amélioration d’images
C. Transformation linéaire par morceau
137
L’amélioration d’images
D. Transformation non linéaire
Contrairement aux transformations linéaires, les transformations non linéaires permettent des
ajustements plus complexes. Les transformations non linéaires sont des opérations qui
modifient la relation entre les valeurs des pixels dans une image d'une manière qui n'est pas
linéaire. Cela signifie que la variation d'une valeur de pixel à une autre ne suit pas une
progression constante.
➢ Des fonctions non linéaires, telles que les fonctions logarithmiques ou exponentielles,
peuvent être utilisées pour modifier la dynamique de l'image de manière plus sophistiquée.
➢ L’un des exemples courant de la transformations non linéaires est la corrections gamma.
138
L’amélioration d’images
D. Transformation non linéaire
❑ Corrections gamma :
L’œil humain ne perçoit pas une palette de couleur de façon linéaire, les tons moyens dans
l’image paraissent plus sombre. La correction gamma vise à corriger cette différence de
perception. Elle a pour équation : 𝑦 = 𝑥 𝛾
=
==
139
L’amélioration d’images
D. Transformation non linéaire 𝐼′
Corrections gamma :
𝐼 𝑥,𝑦 𝛾
Fonction de transfert : 𝐼′ 𝑥, 𝑦 = 255
255
𝜸=1,5 𝜸=0,7
𝜸=2 𝜸=0,5
𝜸=3 𝜸=0,2
141
L’amélioration d’images
D. Transformation non linéaire
❑ Corrections gamma :
142
Opération sur l’image
❑ Opérations arithmétiques :
➢ Addition, Soustraction, Multiplication, Division
❑ Opérations logiques :
➢ ET logique, OU Logique, Négation
❑ Convolution
143
Opération sur l’image
1. Opérations arithmétiques :
A. Addition d’images
L’addition de deux images F et G de même taille est une nouvelle image H de même taille dont
chaque pixel correspond à la somme des valeurs des pixels des images originales. L’addition
pixel a pixel est défini par :
H x, y = Min(F x, y + G x, y ; 2N − 1)
N: Nombre de bits du codage
❑ L’addition des images peut permettre :
➢ D’augmenter la luminance en additionnant une image avec elle-même.
➢ De diminuer le bruit. 144
Opération sur l’image
A. Addition d’images
145
Opération sur l’image
A. Addition d’images
▪ Pour une image couleur, l'addition est réalisée séparément sur chaque composante
(rouge, vert, bleu).
▪ Attention le résultat de l'addition peut dépasser le nombre de niveaux d'intensité.
Le résultat final dépend de l'implémentation : on peut obtenir la valeur maximale
d'intensité (on parle de saturation) ou un modulo peut être effectué avec la valeur
maximale.
146
Opération sur l’image
A. Addition d’images
▪ On peut également effectuer la somme d'une image et d'une constante.
H x, y = F x, y + C
147
Opération sur l’image
B. Soustraction d’images
La soustraction d’images est utilisée dans certaines application pour mettre en
évidence certaine détails caractéristiques. On peut définir la soustraction S pixel à
pixel de deux images F et G par :
S x, y = Max F x, y − G x, y ; 0
▪ On peut également effectuer la soustraction d'une image et d'une constante.
S x, y = F x, y − C
▪ Utilisation classique : soustraction de la luminosité du fond d'une scène pour
analyser plus facilement l'avant plan. 148
Opération sur l’image
B. Soustraction d’images
149
Opération sur l’image
B. Soustraction d’images
150
Opération sur l’image
B. Soustraction d’images
151
Opération sur l’image
B. Soustraction d’images
152
Opération sur l’image
C. Multiplication d’images
▪ Obtenir une troisième image par multiplication de deux images ou par multiplication
▪ Avec une constante supérieure à 1, on illumine l'image alors qu'avec une constante
inférieure à 1 on l'assombrit.
153
Opération sur l’image
C. Multiplication d’images
154
Opération sur l’image
C. Multiplication d’images
155
Opération sur l’image
C. Multiplication d’images
156
Opération sur l’image
C. Multiplication d’images
157
Opération sur l’image
2. Opérations logiques
A. ET logique
158
Opération sur l’image
A. ET logique
▪ Pour les images en niveaux de gris, l'opérateur logique est appliqué sur la
47 en binaire 00101111
160
Opération sur l’image
A. ET logique
161
Opération sur l’image
A. ET logique
162
Opération sur l’image
B. OU logique
Les objets sont codés 0 et le fond 1. Inverser les images puis faire le ou
163
Opération sur l’image
B. OU logique
• Par exemple 127 OU 128 donne 255 mais 127 OU 126 donne 127.
164
Opération sur l’image
B. OU logique
165
Opération sur l’image
2. Opérations logiques sur les images
166
Opération sur l’image
167
Opération sur l’image
3. Convolution
▪ C’est l’opération de base de traitement d’images
▪ Le produit de convolution est une opération très courante en traitement d'images.
Ce produit représente une classe d'opérations simples à programmer et efficace
dans ses résultats.
▪ En traitement d'images, la convolution est souvent utilisée pour appliquer des
filtres ou des noyaux à une image, permettant des opérations telles que le lissage,
le rehaussement des contours, etc.
168
Opération sur l’image
3. Convolution
▪ Le produit de convolution est une opération de voisinage linéaire et invariante par
translation.
▪ Il n'y a pas d'autre opération ayant ces propriétés. Cette opération fait donc appel
aux outils disponibles pour effectuer la convolution:
• Multiplication du niveau de gris d'un pixel par une constante.
• Addition des niveaux de gris des pixels d'une image.
169
Opération sur l’image
3. Convolution
L’équation générale de la convolution, notée g(x), de la fonction d’origine f(x) avec
une fonction h(x) est :
𝒈 𝒙 = 𝑰 𝒙 ∗ 𝒉 𝒙 = 𝒉 𝒙 − 𝒌 𝑰(𝒌)
∀𝒌
171
Opération sur l’image
B. Convolution en discret :
▪ En pratique, la convolution numérique d'une image se fera par une sommation de
multiplications.
▪ Un filtre de convolution est une matrice (image) généralement (mais pas toujours)
de taille impaire et symétrique : 3x3, 5x5, 7x7, ...
▪ Convolution d'une image par un filtre 2D :
𝒈 𝒙, 𝒚 = 𝑰 𝒙, 𝒚 ∗ 𝒇𝒊𝒍𝒕𝒓𝒆 𝒙, 𝒚
𝒈(𝒙, 𝒚) = 𝑰 𝒙 + 𝒖, 𝒚 + 𝒗 ∗ 𝒇𝒊𝒍𝒕𝒓𝒆(𝒖, 𝒗)
172
𝒖 𝒗
Opération sur l’image
B. Convolution en discret :
▪ Un pixel 𝑓 𝑥, 𝑦 est remplacé par une somme pondérée de lui-même et des pixels de
son voisinage.
𝑔 𝑥, 𝑦 = 𝐼 𝑥 + 𝑢, 𝑦 + 𝑣 ∗ 𝑓𝑖𝑙𝑡𝑟𝑒 𝑢, 𝑣 𝒇𝒊𝒍𝒕𝒓𝒆 𝟎, 𝟎 = 𝒘𝟓
𝑢 𝑣
= 𝐼 𝑥 − 1, 𝑦 − 1 ∗ 𝑤1 + 𝐼 𝑥 − 1, 𝑦 ∗ 𝑤2 + 𝐼 𝑥 − 1, 𝑦 + 1 ∗ 𝑤3 + 𝐼 𝑥, 𝑦 − 1 ∗
𝑤4 + 𝑓 𝑥, 𝑦 ∗ 𝑤5 + 𝐼 𝑥, 𝑦 + 1 ∗ 𝑤6 + 𝐼 𝑥 + 1, 𝑦 − 1 ∗ 𝑤7 + 𝐼 𝑥 + 1, 𝑦 ∗ 𝑤8 +
𝐼 𝑥 + 1, 𝑦 + 1 ∗ 𝑤9
173
Opération sur l’image
B. Convolution en discret :
?
174
Opération sur l’image
B. Convolution en discret :
▪ En pratique :
L'opération de convolution de l'image g par le masque f, consiste donc à replacer la valeur de chaque
pixel I(x,y) par une combinaison Linéaire de ses voisins, où le coefficient attaché à chaque voisin (x-
i,y-j) est déterminé par la valeur f[i,j] du noyau de convolution.
I f
175
Opération sur l’image
B. Convolution en discret :
▪ En pratique : 𝒈 𝒙, 𝒚 = 𝑰 𝒙, 𝒚 ∗ 𝒇 𝒙, 𝒚
176
Opération sur l’image
B. Convolution en discret :
▪ En pratique : 𝒈 𝒙, 𝒚 = 𝑰 𝒙, 𝒚 ∗ 𝒇 𝒙, 𝒚
177
Opération sur l’image
B. Convolution en discret :
▪ En pratique : 𝒈 𝒙, 𝒚 = 𝑰 𝒙, 𝒚 ∗ 𝒇 𝒙, 𝒚
178
Opération sur l’image
B. Convolution en discret :
▪ Problème : Que faire avec les bords de l'image ( Effet de bord)?
179
Opération sur l’image
B. Convolution en discret :
▪ Mettre à zéro (0): Mise à zéro de la couronne
0 0 0 0 0 0 0 0 0 0
0 0
Masque
0 0
0 0
0 0
0 0
0 0
0 0
0 0
0 0 0 0 0 0 0 0 0 0
180
Opération sur l’image
B. Convolution en discret :
▪ Miroir de l'image : Réaliser un effet de miroir
2 2 5 9 1 7 8 2 0 0
2 2 5 9 1 7 8 2 0 0
3 3 0 0
8 8 0 0
4 4 0 0
6 6 0 0
9 9 0 0
0 0 0 0
5 5 0 0 0 0 0 0 0 0
5 5 0 0 0 0 0 0 0 0
181
Filtrage
❑Filtrage linéaire
• Réalisable avec une convolution : g(x,y)= f(x,y) * filtre(x, y)
• Moyenneur, Gaussien,…
❑Filtrage NON linéaire
• N’est pas réalisable avec une convolution
• Médian, Max,…
182
Filtrage
1. Filtrage linéaire :
Le filtre est dit linéaire si la valeur du nouveau pixel est une combinaison linéaire des
valeurs des pixels du voisinage. Le voisinage est une matrice carrée et symétrique autour
du pixel considéré. En fonction du filtre utilisé, on pourra obtenir différents effets visuels.
183
Filtrage
1. Filtrage linéaire :
L'application principale des produits de convolution est la création des filtres « passe haut»
et « passe bas ».
❑ Filtres passe-bas
➢ Atténuent les hautes fréquences de l'image, ce qui a pour effet de lisser
l'image. Cela est utile pour réduire le bruit et supprimer les détails fins.
❑ Filtres passe-haut
➢ Accentuent les hautes fréquences de l'image, mettant en évidence les
contours et les détails. Cela peut être utilisé pour détecter les bords et les
caractéristiques importantes de l'image.
184
Filtrage
A. Filtres passe-haut :
Un filtre « passe haut » favorise les hautes fréquences spatiales, comme les détails, et de
ce fait, il améliore le contraste. Il laisse passer les hautes fréquences et atténue voire
supprime/coupe les basses fréquences.
185
Filtrage
A. Filtres passe-haut :
Un filtre « passe haut » est caractérisé par un noyau comportant des valeurs négatives
autour du pixel central, comme dans l'exemple ci-dessous;
186
Filtrage
B. Filtres passe-bas :
les filtres « passe bas » agissent en sens inverse des filtres « passe haut » et le résultat est
un adoucissement des détails, ainsi qu'une réduction du bruit granuleux. Il laisse passer les
basses fréquences et atténue voire supprime/coupe les hautes fréquences.
187
Filtrage
B. Filtres passe-bas :
Un filtre "passe-bas" est défini par un noyau qui comporte des valeurs positives
disposées autour du pixel central, ce noyau est conçu de manière à favoriser les
composantes de basse fréquence de l'image, contribuant ainsi à la réduction du bruit et
à l'élimination des détails fins.
188
Filtrage
B. Filtres passe-bas :
Les filtres passe-bas ou lisseurs sont tendance à rendre l’image floue. Ce type de
filtrage est généralement utilisé pour atténuer le bruit de l'image, c'est la raison pour
laquelle on parle habituellement de lissage.
On distingue deux filtres passe-bas,
➢ Le filtre Moyenneur ,
➢ et le filtre gaussien
189
Filtrage
C. Filtre Moyenneur:
Le filtre Moyenneur
• Permet de lisser l'image (smoothing)
• Remplace chaque pixel par la valeur moyenne de ses voisins
• Réduit le bruit
• Réduit les détails non-important
• Brouille ou rend floue l'image (blur edges)
190
Filtrage
C. Filtre Moyenneur:
Le filtrage par la moyenne consiste à remplacer chaque pixel par la valeur moyenne de
ses voisins (le pixel lui même y compris).
▪ Les coefficients d’un filtre moyenneur sont égaux. Leurs valeurs est 1Τ𝑁2 Avec N la
taille du masque.
Pour N=3
𝟏ൗ
𝟐𝟓
191
Filtrage
C. Filtre Moyenneur:
1 1 1
1ൗ ∗ 1 1 1 Lissage (flou apparent)
9
1 1 1
Plus le filtre grossit , plus le lissage devient important et plus le flou s'accentue ! 192
Filtrage
C. Filtre Moyenneur:
Filtre Moyenneur
Image originale 3*3
7*7 5*5
193
Filtrage
C. Filtre Moyenneur:
194
Filtrage
D. Filtre gaussien:
Comme son nom le dit, le filtre gaussien possède un noyau de convolution de forme
gaussienne. Il est un filtre linéaire dont les éléments du noyau de convolution sont
déterminés selon la densité d'une loi gaussienne centrée à 2 dimensions.
La forme du filtre est obtenu de l’équation d’une gaussienne:
2
−(𝑖 +𝑗 2)
1
H 𝑖, 𝑗 = 𝑒 2𝜎 2
2𝜋𝜎 2
195
Filtrage
D. Filtre gaussien:
Le degré de lissage est déterminé par l’écart-type associé au filtre gaussien mais alors
plus l’écart-type est élevé plus il faut prendre un filtre grand.
2 4 6 4 2
1 2 1
4 9 12 9 4
1ൗ ∗ 6 12 15 12 6 1ൗ ∗ 2 4 2
119 16
4 9 12 9 4 1 2 1
2 4 6 4 2
Fenêtre de taille 5 × 5 Fenêtre de taille 3 × 3
197
Le filtre gaussien donnera un
Filtrage meilleure lissage et une
meilleure réduction du bruit
D. Filtre gaussien: que le filtre moyenneur
198
Filtrage
le filtre gaussien est séparable:
▪ son noyau peut-être écrit comme un produit de deux noyaux plus simples.
𝑖2 +𝑗2 𝑖2 𝑗2
En effet, 𝑒 2𝜎2 =𝑒 2𝜎2 .𝑒 2𝜎2 , donc 𝐻 = 𝐻𝑥 . 𝐻𝑦
201
Filtrage
2. Filtrage non linéaire :
- Le bruit impulsionnel : Lorsque l’image fait apparaitre des valeur parasites aberrantes
qui ne dépendent pas des valeurs initiales de l’image, le filtrage linéaire diffuse ces
valeurs aberrantes sur les pixels voisins.
202
Filtrage
2. Filtrage non linéaire :
A. Filtre Median
▪ Pour nettoyer le bruit dans une image, il existe mieux que le filtre moyenneur ou le
filtre gaussien
▪ II s'agit du filtre median
▪ C'est un filtre non-linéaire, qui ne peut pas s'implémenter comme un produit de
convolution
▪ Le filtre médian est bien adapté au filtrage du bruit impulsionnel
203
Filtrage
A. Filtre Median
▪ Le filtre médian utilise aussi un noyau sur lequel on effectue les opérations suivantes:
1. trier les valeurs d’illuminance des pixels couverts par le masque (luminances triées dans
l'ordre croissant).
2. extraire la médiane des données triées
3. remplacer la valeur du pixel central par la médiane
Median
204
bruit
Filtrage
2. Filtrage non linéaire :
A. Filtre Median
205
Filtrage
2. Filtrage non linéaire :
A. Filtre Median
206
Filtrage
A. Filtre Median:
Filtre Median
Image originale 3*3
7*7 5*5
207
Filtrage
2. Filtrage non linéaire :
B. Filtrage Min/Max
• On considère le niveau de gris du pixel à traiter, et d’autre part tous ses voisins (à
l’exception de lui même).
• Sur les voisins on calcule le niveau min et le niveau max,
• Si le niveau de gris du pixel à traiter est compris entre le min et le max. alors on le
laisse inchangé
• Sinon on le remplace par le max(resp min).
208
Filtrage
B. Filtrage Min/Max
➢ Principe:
Consiste à remplacer la valeur au pixel (x,y) par le minimum ou le maximum sur la
fenêtre centrée en ce point selon la proximité de ces deux valeurs à la valeur
centrale.
Min=90, Max=198
on a donc 208 >Max
d’où la valeur 208 ça sera remplacé par 198 dans le
cas du filtrage Max.
209
Filtrage
B. Filtrage Min/Max
▪ Ce filtre de lissage supprime bien le bruit de type “poivre et sel“ c’est à dire qu’il
“adoucit“ les pixels isolés ayant un niveau de gris très différent des niveaux de
gris de leur voisinage
▪ Il a la particularité de bien préserver les contours très marqués.
▪ Ce filtre s’assure en fait que tout pixel a son niveau de gris placé dans la gamme
de ses voisins.
210
Filtrage
B. Filtrage Min/Max
211
Détection de contours
1. Qu’est ce qu’un contour?
Un contour est une variation brusque d’intensité.
▪ Par définition, un contour est la frontière qui sépare deux objets dans une image.
➢ Une discontinuité de l’image
212
Toute discontinuité n’est
Détection de contours nécessairement située à la
1. Qu’est ce qu’un contour? frontière entre deux objets
▪ Les contours dans une image proviennent des :
➢ Discontinuités de la fonction de réflectance (texture, ombre).
➢ Discontinuités de profondeur (bords de l'objet).
Ils sont caractérisés par des discontinuités de la fonction d'intensité dans les images.
▪ Donc, pour détecter ses discontinuités, il faut détecter toutes les lignes qui marquent
les changements d'intensité.
➢ Pas seulement les bords !
213
Détection de contours
1. Qu’est ce qu’un contour?
Exemple de détection des discontinuités :
214
Détection de contours
1. Qu’est ce qu’un contour?
Différentes types de contours :
215
Détection de contours
2. Détection de contour
▪ La détection de contour (edge detection) est un outil fondamental en traitement
d’images.
▪ Elle sert entre autre en extraction et détection de caractéristiques dans l’images.
La mise en évidence des points représentant les contours d'objets dans une image peut
servir à:
➢ reconnaître des objets présents dans une scène
➢ différencier des zones de l'image
➢ faire de la segmentation d'images…
216
Détection de contours
2. Détection de contour
▪ La détection de contour (edge detection) est un outil fondamental en traitement
d’images.
▪ Elle sert entre autre en extraction et détection de caractéristiques dans l’images.
La mise en évidence des points représentant les contours d'objets dans une image peut
servir à:
➢ reconnaître des objets présents dans une scène
➢ différencier des zones de l'image
➢ faire de la segmentation d'images…
217
Détection de contours
2. Détection de contour
▪ Mathématiquement, pour détecter le
contour, on fait la dérivée de la valeur des
pixels pour détecter les pentes.
218
Détection de contours
2. Détection de contour
Dérivées de l’image:
219
Détection de contours
2. Détection de contour
Dérivées de l’image:
Les contours correspondent :
➢ Aux maxima de la première dérivée.
➢ Aux passages par zéros de la
deuxième dérivée
220
Détection de contours
2. Détection de contour
Il existe plusieurs méthodes de détection de contour, deux approche sont les plus
utilisées:
➢ Approximation du Gradient ( les extrema locaux de la dérivée première)
➢ Approximation du Laplacien (les passages par zéro de la dérivée second)
221
Détection de contours
3. Approximation du Gradient
▪ La première dérivée de l’image (Gradient) est l’opérateur de base pour mesures les
contours dans l’image.
1
2 2 2
𝜕𝑓 𝜕𝑓
𝛻𝑓 = +
𝜕𝑥 𝜕𝑦
222
Détection de contours
3. Approximation du Gradient
➢ Il s'agira ensuite d'effectuer une sélection des contours les plus marqués, c'est-
à-dire les points de plus fort contraste par un seuillage adéquat.
223
Détection de contours
3. Approximation du Gradient
224
Détection de contours
3. Approximation du Gradient
Une image est discrète par nature. On cherche donc à approximer les dérivées par
différences finies.
225
Détection de contours
3. Approximation du Gradient
❑ Opérateurs gradient :
▪ Ces opérateurs sont à considérer comme des filtres qui vont être corrélés à l'image.
▪ Le filtrage seras effectué suivant les lignes de l'image puis suivant les colonnes.
226
Détection de contours
3. Approximation du Gradient
A. filtre de Roberts :
227
Détection de contours
3. Approximation du Gradient
A. Filtre de Roberts :
228
Détection de contours
3. Approximation du Gradient
B. Filtre Prewitt:
229
Détection de contours
3. Approximation du Gradient
B. Filtre Prewitt:
B. Filtre Sobel:
▪ Il s'agit d'un des opérateurs les plus simples qui donne toutefois des résultats
corrects.
231
Détection de contours
3. Approximation du Gradient
B. Filtre Sobel:
Les filtres de Sobel sont les suivants :
Filtre horizontal :
h=
Filtre vertical :
v=
232
Détection de contours
3. Approximation du Gradient
B. Filtre Sobel:
233
Détection de contours
B. Filtre Sobel:
234