Cours-Traitement d’image-Pr Zaarane (1)

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 234

Traitement d’image

et
Applications

Professeur ZAARANE Abdelmoghit


Introduction
1. Historique:
▪ Le traitement d’images s’est développé avec l’apparition des calculateurs
puissants.
➢ Une image est une quantité énorme d’informations
• Capacité de stockage
• Vitesse de calcul
• Algorithme performant du traitement

2
Introduction
2. Domaines d’application :
▪ Domaine militaire :
➢ Guidage de missiles en tous genres (autodirecteur (courte portée), de croisière
(longue portée), etc.),
➢ Renseignement (télédétection à partir d'images satellite dont la précision peut aller
aujourd'hui jusqu'à quelques centimètres, ou aériennes, la photo-interprétation),
➢ Simulateurs « réels » (de vol avion, de char, etc.),
▪ Domaine médical :
➢ Radiographie,
➢ Echographie,
➢ Scanner, etc. 3
Introduction
▪ Domaine industriel ( Robotique) :
➢ Contrôle de la qualité des produits (état de surface, dimensionnement, forme, couleur)
➢ Assemblage, Reconnaissance de pièces
➢ Véhicule autonome

▪ Domaine multimédia :
➢ la compression / décompression pour la transmission d'Images ou l'amélioration de la qualité,
➢ la TV haute définition (Standard MPEG4),
➢ le remplacement des panneaux publicitaires dans des retransmissions sportives,
➢ la recherche d'images par le contenu dans des banques d'images,
4
Introduction
3. Définition :
Le traitement d’images est un domaine qui consiste en l’étude des images
numériques et de leurs transformations. Il consiste à analyser et à manipuler
une image numérique principalement dans le but d’en améliorer la qualité ou
d’en extraire des informations qui pourraient ensuite être utilisées.

Traitement

5
Introduction

Traitement d’images

eau
u
ivea

t niv
n

Hau
Bas

Vision par ordinateur


6
Introduction
▪ Exemples d’opération du traitement d’images

Compression Restauration

7
Deconvolution Segmentation
Représentation des images
1. C'est quoi une image :
▪ Image est une reproduction ou représentation d’une scène.
▪ Image est une représentation planaire d’un objet quelconque.
▪ Projection 2D d’une scène 3D.
▪ Mathématiquement, c'est une fonction bidimensionnelle de la forme f(x, y),
où f(x0, y0) est la valeur de f aux coordonnées (x0, y0).
➢ Pour chaque (x, y), f(x, y) représente l’intensité de la lumière en ce point.

8
Représentation des images
▪ Une image est une fonction d’au moins deux variables réelles :

Image : f(x, y) Image 2D


Volume : f(x, y, z) Image 3D
Séquence d’image : f(x, y, t) Image 3D
Séquence de volumes : f(x, y, z, t) Image 4D

9
Représentation des images
2. Image numérique :
▪ Une image numérique est une représentation binaire d’une image 2D
▪ Elle peut être vectorielle ou matricielle
▪ En générale, le terme « image numérique » fait référence au type matricielle
➢ Une image vectorielle est composée de formules mathématiques
➢ Une image matricielle est composée d’une ou plusieurs matrices ayant deux
dimensions
Image vectorielle

Image matricielle
10
Représentation des images
▪ Image numérique a un nombre fini de données numériques
▪ Ces données sont représentées par des pixels
– Pixel vient des termes picture element
▪ Chaque pixel est composé d’une ou plusieurs valeurs
– Généralement ce sont des valeurs entières de 8 bits
▪ Chaque valeur représente un canal
– 1 canal → Image niveau de gris (8 bits) ou monochrome (1 bit)
– 3 canaux → Image RGB (24 bits)

11
Représentation des images
▪ Image matricielle :
Une image matricielle est une image numérique formée d'une multitude de pixels,
et représentée sur une grille dotée de deux axes, X et Y. La précision d'une image matricielle
dépend du nombre de pixels qui la composent. Plus ils sont nombreux, plus l'image sera
nette : c'est la résolution.

12
Représentation des images

❑ Coordonnées d’un pixel dans une image


matricielle :
• Représentation du pixel de
coordonnées (5 , 4)
• x la coordonnée horizontale
• y la coordonnée verticale

13
Représentation des images
Il existe 3 types d’images :

▪ Image binaire : I(x, y) ∈ {0, 1}

▪ Image en niveaux de gris : I(x, y) ∈ [0, 255]

▪ Image en couleurs : IR(x, y), IV (x, y), IB(x, y)

14
Représentation des images
▪ Image binaire : I(x, y) ∈ {0, 1} :
Un bit est l’unité minimale d’information
qu’un ordinateur manipule : 1 ou 0,
allumé ou éteint. L’image la plus simple
qu’un ordinateur puisse afficher est
constituée uniquement de noir et blanc.
Ainsi, un pixel pourrait être à l’état soit
«noir», soit «blanc».

15
Représentation des images
▪ Image en niveaux de gris : I(x, y) ∈ [0, 255]
Matrice où la valeur de chaque pixel représente l’intensité discrète de la lumière au
point (x, y) (0 : noir, 255 : blanc pour un codage des niveaux de gris sur 8 bits).

16
Représentation des images
▪ Exemple d’une image numérique en niveaux de gris

17
Représentation des images
▪ Image en couleurs :
Les couleurs sont définies par trois couleurs
primaires, généralement le rouge, le vert et le bleu,
qui combinées permettent de créer une large
gamme de couleurs. En traitement d'image, une
couleur est décrite en utilisant trois canaux - rouge,
vert et bleu (RGB). Ainsi, chaque pixel est représenté
par un ensemble de valeurs RGB, formant un tuple
qui définit sa couleur.

18
Représentation des images
Une image en couleur se représente
donc sous la forme d’une matrice à 3
dimensions :
▪ Abscisse (Coordonnée x)
▪ Ordonnée (Coordonnée y)
▪ Canal couleur (de 0 à 2 car 3 canaux
R, V, B)

19
Représentation des images
▪ Exemples de couleurs :

Rouge Verte Bleu couleur résultante


0 0 0 Noire
0 0 1 Bleu
0 1 0 Vert
0 1 1 Cyan
1 0 0 Rouge
1 0 1 Magenta
1 1 0 Jaune
1 1 1 blanc
20
Représentation des images
3. Caractéristiques d’une image numérique :

▪ Dimension: C’est la taille de l’image. Une image numérique est représentée


comme une matrice de pixels, alors le nombre de colonnes de cette matrice
multiplié par le nombre lignes, nous donne le nombre total de pixels dans une
image. 12 px

Image définie par 12 x 12 pixels


D=144px
12 px

21
Représentation des images

▪ Résolution: La résolution d'une image est le nombre de pixels contenus dans l'image par
unité de longueur. Elle s'exprime le plus souvent en ppp (pixel par pouces) ou en ppi (pixel
per inch), parfois en pixel par cm.
Rappel : 1 pouce (ou inch) = 2,54 cm. 50 px

Résolution = 50 pixels / 5" = 10 ppp 4"


40 px

22
5"
Représentation des images

➢ Plus la résolution est élevée, plus les points son petits et nombreux, et plus l’image
est fine.
Exemple :

A 3 ppp, difficile de dire A 8 ppp, on peut voir que A 16 ppp, c’est encore
de quelle lettre il s’agit c’est un A mieux
23
Système de traitement d’images
▪ Schéma d’un système de traitement d’images :

Visualisation
Traitement
Pré- Analyse
Image Acquisition Numérique
traitement d’images
d’images

Transmission

24
Système de traitement d’images
1. Acquisition des Images Numériques :

25
Système de traitement d’images

Numérisation = Échantillonnage + Quantification

26
Système de traitement d’images

A. Échantillonnage

27
Système de traitement d’images
Plus la fréquence d’échantillonnage fe
A. Échantillonnage est grande, plus le nombre d’échantillons
sera important

Signal analogique

Signal numérique

28
Système de traitement d’images

❑ Théorème de shannon

➢ la fréquence d’échantillonnage doit être supérieure ou égale à deux


fois la fréquence la plus élevée du signal que l’on numérise

Par exemple, si l'on veut numériser le signal analogique qui possède


une bande passante s'étendant entre 300 et 3400 Hz.
Quelle doit être la fréquence d'échantillonnage minimum ?
29
Système de traitement d’images

A. Échantillonnage

30
Système de traitement d’images
▪ Pourquoi cette propriété est importante ?
Si le théorème de Shannon n’est pas respecté (Féch < 2 Fmax), il y a une perte
d’information Repliement spectral (aliasing)

31
Système de traitement d’images

▪ Echantillonnage d’une image correspondant aux


bandes noires

▪ Avec un échantillonnage adapté, l'image


numérique fait apparaître des structures
conformes à l'information présente dans
l'image
32
Système de traitement d’images
▪ En considérant seulement 1 échantillon sur 2,
une structure différente apparaît, dont l'analyse
(ici des bandes verticales, plus épaisses) ne sera
pas conforme à la réalité de l'objet :

33
Système de traitement d’images

❑ Échantillonnage multidimensionnel

34
Système de traitement d’images

❑ Échantillonnage d’image
▪ Pour les images
✓ Prend des échantillons (sous forme de pixels) à partir d’une image continue
(réelle) de sorte à construire une image discrète (matricielle)

1
𝐹𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑑′ é𝑐ℎ𝑎𝑡𝑖𝑙𝑙𝑜𝑛𝑛𝑎𝑔𝑒 ≥
2 × 𝑡𝑎𝑖𝑙𝑙𝑒 𝑑𝑢 𝑝𝑖𝑥𝑒𝑙
✓ En donnant les fréquences d’échantillonnage, on définit la résolution de
l’image.

35
Système de traitement d’images

18 ppp soit environ 7


72 ppp soit environ pixels/cm dans ce cas on
28 pixels/cm. observe l'effet de
pixellisation 36
Système de traitement d’images

❑ Ré-échantillonnage :
▪ C’est, à partir d’une image numérique, faire un échantillonnage (de fréquence
différente) pour obtenir une nouvelle image numérique.
➢ Sur-échantillonnage : Fréquence plus haute, on rajoute des pixels.
➢ Sous-échantillonnage : Fréquence plus basse, on enlève des pixels.
▪ On perd de la qualité en effectuant un ré-échantillonnage :
➢ Dilution de l’information
➢ Suppression de l’information

37
Système de traitement d’images

❑ Ré-échantillonnage :

38
Système de traitement d’images

❑ Ré-échantillonnage :

39
Système de traitement d’images
B. Quantification

▪ La quantification consiste, pour chaque échantillon, à lui associer une


valeur d’amplitude.
▪ Cette valeur de l’amplitude s’exprime
en « bit » et l’action de transformer
la valeur numérique de l’amplitude en
valeur binaire s’appelle le codage.

40
Système de traitement d’images
Plus le nombre de bits est élevé,
plus les valeurs de chaque
Faible quantification échantillon du signal numérisé
(peu de bit) sont proches des valeurs du signal
analogique
Peu de valeurs pour
coder l’amplitude

Grande quantification
(beaucoup de bit)
beaucoup de valeurs
pour coder l’amplitude

41
Système de traitement d’images
Son intense Son peu intense

Signal
Grand numérisé
nombre de différent
pour les
bits pour la
deux sons
quantificatio
n

Petit nombre Signal


numérisé
de bits pour
identique
la pour les
quantificatio deux sons
n 42
Système de traitement d’images

❑ Quantification multidimensionnel

43
Système de traitement d’images

❑ Quantification multidimensionnel

44
Système de traitement d’images

❑ Quantification multidimensionnel
• Mesure discrète :
▪ Pour chaque intervalle d’échantillonnage, on mesure l’amplitude
▪ A une amplitude va correspondre un chiffre entier, qui arrondit les valeurs
▪ L’échelle des valeurs doit être adaptée à la dynamique de l’image:

log 𝟐 [𝑵𝒎𝒂𝒙 − 𝑵𝒎𝒊𝒏 ]


▪ Chaque valeur recouvre un intervalle : il s’agit d’une fonction discrète, en
“marches d’escalier”
45
Système de traitement d’images

❑ Quantification multidimensionnel

L'information est codée en binaire : un élément peut se trouver dans 2


états différents. Il constitue une mémoire élémentaire ou bit.
La profondeur de quantification (ou profondeur de pixel) est Le nombre
de bits dont on dispose pour exprimer la couleur d’un pixel, ce nombre
détermine le nombre de couleurs disponibles pour cette image

46
Système de traitement d’images
▪ Le codage d’une image numérique
Codage 1 bit par pixel
Chaque pixel peut prendre de valeurs de couleur : 0 ou 1
l’image est en noir (0) et blanc(1)

Image
Matrice

47
Système de traitement d’images

Codage 8 bits par pixel en niveaux de gris

Chaque pixel peut prendre de 28 = 256 valeurs

Noir (010 ou 016 ) Blanc (25510 ou 𝐹𝐹16 )


256 valeurs de gris

48
Système de traitement d’images

Codage 8 bits par pixel en niveaux de gris

Exemple :
255 255 255 255
255 0 0 255
Matrice décimale Donne l’image :
255 0 0 255
255 255 255 255

00 00 00 00
Matrice hexadécimale 40 40 40 40
7F 7F 7F 7F Donne l’image :
FF FF FF FF 49
Système de traitement d’images
Codage 8 bits par pixel en couleurs indexées

Chaque pixel peut prendre de 28 = 256 nuances de couleurs différentes

Chaque nombre associé à un pixel fait référence à une couleur qui figure dans un
dictionnaire fourni avec l'image.

Exemple de dictionnaire: Nombre associé au pixel Couleurs


0 Noir
1 Bleu C’est le cas du format
2 Rouge
3 blanc
« GIF » très utilisé sur
etc,.. Jusqu’à 255 D’autre couleurs internet.
… 50
Système de traitement d’images
Exemple :
Dictionnaire associé
Image au format GIF (256 couleurs)

51
Système de traitement d’images
Codage 24 bits par pixel en RVB

à Chaque pixel on associe 28 = 256 nuances de couleurs différentes rouge


et 28 = 256 nuances de couleurs différentes vert
et 28 = 256 nuances de couleurs différentes bleu

▪ La couleur du pixel sera le résultat de la synthèse additive des 3 couleurs primaires,


chacune étant codée sur 8 bits
▪ On parle aussi de codage 8 bits par canal (comprendre «8 bits par couleur primaire »)

Soit un codage total sur : 3 x 8 bits = 24 bits 52


Système de traitement d’images
Exemple :
Pour un pixel :
Bleu, on aura : 0𝑟𝑜𝑢𝑔𝑒 , 0𝑣𝑒𝑟𝑡 , 255𝑏𝑙𝑒𝑢
Chaque « cellule » du tableau
Pour un vert : 0𝑟𝑜𝑢𝑔𝑒 , 255𝑣𝑒𝑟𝑡 , 0𝑏𝑙𝑒𝑢
de nombres associé à l’image
Pour un orange : 255𝑟𝑜𝑢𝑔𝑒 , 172𝑣𝑒𝑟𝑡 , 0𝑏𝑙𝑒𝑢
contiendra donc 3 valeurs de 0
Pour noir : 0𝑟𝑜𝑢𝑔𝑒 , 0𝑣𝑒𝑟𝑡 , 0𝑏𝑙𝑒𝑢
à 255
Pour un blanc : 255𝑟𝑜𝑢𝑔𝑒 , 255𝑣𝑒𝑟𝑡 , 255𝑏𝑙𝑒𝑢
Etc…
Chaque pixel pourra donc prendre au total:
256 x 256 x 256 = 16,8 millions de couleurs différentes 53
Système de traitement d’images

Matrice décimale RVB 24 bits


0 0 255 255 255 255 255 0 255
0 0 255 255 255 255 255 0 255
0 0 255 255 255 255 255 0 255
0 0 255 255 255 255 255 0 255

donne l’image

? 54
Système de traitement d’images

Matrice hexadécimale RVB 24 bits


00 FF 00 FF FF FF FF 00 00
00 FF 00 00 00 00 FF 00 00
00 FF 00 00 00 00 FF 00 00
00 FF 00 FF FF FF FF 00 00

donne l’image

? 55
Système de traitement d’images

56
Système de traitement d’images

8 bits (256 ng) 4 bits (16 ng) 1 bits (2 ng)

Une mauvaise quantification peut faire apparaître des distorsions dans les images
et une sous quantification peut faire apparaitre des faux contours 57
Système de traitement d’images
❑ Règles de Quantification
▪ Comme pour l'échantillonnage, il existe des règles pour déterminer la bonne
quantification (le bon nombre de bits) pour coder les images numériques.
▪ L'une dépend du capteur et de sa capacité effective à observer des signaux de
valeurs différentes : le rapport signal sur bruit.
▪ Le rapport signal sur bruit est défini à partir du rapport entre l'amplitude des niveaux
de gris mesurables par le capteur (nmax - nmin) et le niveau du bruit, en gros
l'écart-type sn de la perturbation aléatoire qui affecte les niveaux de gris. En prenant
le logarithme de base 2, on a le nombre de bits utile au capteur pour coder les
images.
58
Système de traitement d’images
❑ Règles de Quantification
Outre les capacités du capteur, le nombre de bits réellement nécessaires pour coder une
image varie d'une image à l'autre, en fonction de leur contenu informationnel. Ce nombre
dépend de l'entropie, définie à partir de la distribution des niveaux de gris de l'image.

𝐸 = ෍ −𝑝𝑖 log 2 (𝑝𝑖 )


𝑖≤𝑁
Où N est le nombre de niveaux de gris présents, pi est la proportion (0 < pi < 1) de points
de l'image ayant pour niveau de gris i. Cette grandeur représente le nombre moyen de
bits par pixel nécessaires pour coder toute l'information présente. Elle est utilisée dans
les techniques de compression sans perte pour adapter le volume de donnée des images à
leur contenu informationnel. 59
Système de traitement d’images

M et N : les dimensions de
l’image numérisée.
L : le nombre de niveaux
de gris L=2𝑘 .

Dans le cas d’une image ayant ces


caractéristiques, quel est le
nombre de bits nécessaire pour
stocker cette image? 60
Système de traitement d’images
Calcul du poids (en octets) d’une image bitmap RVB 24 bits:

▪ Il y a 24 bits par pixel soit 3 octets par pixels.


➢ Donc le tableau décrivant une image de définition L x H occupera

Nombre total de pixels x 3 = L x H x 3 octets


Exemple: Image de 3000x4000 pixels en RVB :
3000 x 4000 x 3 = 36. 106 octets = 36 Mo Ce nombre est énorme et occupe
beaucoup trop de place sur un
Il va falloir compresser
disque dur ou une carte mémoire!
les données
61
Système de traitement d’images

2. Compression
Compresser une image = réduire la taille de son fichier en remplaçant la série de
ses données par une autre plus réduite.
➢ Pourquoi compresser une image (ou tout autre type de données : texte, son,
vidéo, etc.) ?
• Pour réduire sa place sur disque.
• Pour accélérer sa transmission sur un réseau.

62
Système de traitement d’images
Plus le taux de compression est élevé, plus le
2. Compression niveau de pertes est important et plus la
qualité d’image est dégradée.
Taux de compression :

𝑡𝑎𝑖𝑙𝑙𝑒 𝑜𝑟𝑖𝑔𝑖𝑛𝑎𝑙𝑒
Taux de compression =
𝑡𝑎𝑖𝑙𝑙𝑒 𝑐𝑜𝑚𝑝𝑟𝑒𝑠𝑠é𝑒

Le taux de compression est variable, il dépend de la nature de l’image à compresser


et de l’algorithme de compression utilisé.
▪ Cette compression peut soit conserver l’image intacte, on parle alors de
compression sans perte, soit autoriser une dégradation de l’image pour
diminuer encore l’empreinte mémoire, on parle ici de compression avec perte.
63
Système de traitement d’images

2. Compression

Compression sans perte (lossless) Compression avec perte (lossy)

o Reconstruction parfaite o Image reconstruite ≠ image originale


o Basés sur la redondance o Basés sur la quantification
o statistique Faible rapport de o Redondance psychovisuelle : “visually
compression lossless”
o Rapport de compression élevé
64
Système de traitement d’images
❑ Algorithme RLE (Run-Length Encoding)
Il consiste à reconnaitre des valeurs identiques de couleurs et réécrit le fichier en indiquant la
fréquence de chaque couleur. →→→ Code la répétition de pixels identiques en donnant le nombre
de répétitions et le pixel à répéter
L’algorithme RLE comprime ces valeurs en:
Exemple :
AE AE AE 1F 1F 1F 1F 1F 12 12 12 12 3AE 51F 412
Occupe 24 caractères / 12 Octets Occupe seulement 9 caractères /
4.5 Octets

L’algorithme est efficace si l’image contient des grandes zones de même couleur.

Les formats BMP ou PCX de Windows utilisent cet algorithme 65


Système de traitement d’images
❑ Algorithme RLE (Run-Length Encoding)
▪ Surtout efficace pour des images ≤ 256 couleurs.
▪ Inefficace pour des images en 16 millions de couleurs (trop de nuances
différentes pour qu’il y ait de longues séquences de pixels identiques).

66
Système de traitement d’images

❑ Algorithme de compression JPEG


Dans un 1er temps:
L’algorithme compare la couleur d’un pixel avec celle de ses voisins. Si les couleurs sont
proches, l’algorithme considère qu’il s’agit de la même couleur. Il redessine alors tous les
pixels concernés avec cette couleur.

Faible compression Forte compression

(bonne qualité) (faible qualité)

67
Système de traitement d’images

❑ Algorithme de compression JPEG


Dans une 2eme temps:
▪ Les valeurs de ces pixels sont compressées avec, entre autres, un algorithme de
type RLE.
▪ Au cours de la compression, on perd de l’information concernant la vraie couleur
des pixels.
▪ Le JPEG est une compression destructive.

68
Système de traitement d’images
Dans l’ensemble, les algorithmes de compression sont efficaces si l’image comporte de
grandes zones de couleurs identiques ou très voisines.

Exemple: Poids de deux images en 4000x3000 (jpeg, qualité 80%)

750 Ko 1,8 Mo
69
Système de traitement d’images

Les formats les plus célèbres utilisent des compressions:


➢ Le format JPEG
➢ Le format GIF, TIF
➢ Le format PCX, BMP de Windows
En dehors des images:
➢ Les formats ZIP, RAR….

70
L’amélioration d’images

1. Histogramme
Un histogramme, dans le contexte du traitement d'images, est une
représentation graphique de la répartition des niveaux de couleur ou de
luminosité d'une image. C'est un outil fondamental pour analyser la
distribution des intensités de pixels dans une image.
▪ L’histogramme donne des informations particulière à une image telle que :
➢ La distribution statistique des niveaux de gris
➢ Les bornes de répétition des niveaux
71
L’amélioration d’images

1. Histogramme

72
L’amélioration d’images

1. Histogramme
Les histogrammes, sont fréquemment utilisés pour l’amélioration d’image qui
consiste à modifier les caractéristique visuelle de l’image de manière à en faciliter
son interprétation par l’œil humain. Ils peuvent être utilisé pour:
➢ Ajustement de contraste : En modifiant la distribution des valeurs de
luminosité via l'histogramme, on peut augmenter ou diminuer le contraste de
l'image.
➢ Ajustement de la luminosité : En modifiant l'histogramme, on peut ajuster la
luminosité générale de l'image ou la relation entre les niveaux de luminosité.
73
L’amélioration d’images

1. Histogramme

On appelle histogramme de l'image I, comportant N x M pixels sur m niveaux de


gris, la fonction H(x) définie par :

H ( x ) = n( x )
n(x) le nombre de pixel qui ont le meme niveau de gris x allant de 0 à m-1.

74
L’amélioration d’images
L'histogramme représente la répartition des pixels en fonction de leurs niveaux
de gris. Il fournit diverses informations comme les statistiques d'ordre.
W

H(x) est le nombre


de pixels dont le
H
niveau de gris est
égal à x.

75
L’amélioration d’images
▪ Exercice:
Par exemple, soit l’image de 5 pixels par 5 pixels de côté avec des valeurs
comprises entre 0 et 4 :
➢ Donnez son histogramme sous la forme
d'un diagramme à barres.

76
L’amélioration d’images
▪ Corriger:
Son histogramme est une fonction qui, à chaque valeur de niveau de gris compris
entre 0 et 4, associe le nombre de pixels ayant cette valeur:

77
L’amélioration d’images
▪ Corriger:

➢ L’histogramme sous la forme d'un diagramme à barres.

78
L’amélioration d’images
▪ Exercice:
➢ Tracer l'histogramme de cette image sous la forme d'un diagramme à barres.
➢ D'après l'histogramme, quel niveau de gris est le plus présent ?

79
L’amélioration d’images
▪ Corriger:

➢ L’histogramme sous la forme d'un diagramme à barres.

80
L’amélioration d’images
L’histogramme permet d’obtenir rapidement une information générale sur
l’apparence de l’image. Une image visuellement plaisante aura généralement un
histogramme équilibré (proche d’une fonction plate). Par exemple dans l’image ci-dessous,
l’histogramme est tassé sur la gauche: l’image est trop sombre :

81
L’amélioration d’images

Maintenant, l’histogramme est tassé au centre, l’image est grisâtre et manque de


contraste:

82
L’amélioration d’images

Finalement dans ce dernier exemple, l’histogramme est trop creusé au centre, les
noirs sont trop noirs, les blancs trop blancs (on dit que l’image est saturée) :

83
L’amélioration d’images

L’histogramme ne contient aucune information spatiale et des images très


différentes peuvent avoir des histogrammes similaires. Par exemple les deux
images ci-dessous ont le même histogramme :

84
L’amélioration d’images
▪ Histogramme cumulatif
L'histogramme cumulé est une représentation dérivée de l'histogramme classique
d'une image. Il affiche la distribution cumulative des niveaux de gris ou des couleurs
présents dans une image. Pour obtenir un histogramme cumulé, on additionne les valeurs
de l'histogramme d'une manière cumulative. Ainsi, chaque valeur de l'histogramme cumulé
représente la somme des fréquences de toutes les valeurs de niveaux de gris ou de
couleurs jusqu'à ce point. Cela permet de mettre en évidence la répartition globale des
valeurs dans l'image.
𝑥

𝐻𝐶 𝑥 = ෍ 𝐻(𝑖)
𝑖=0 85
L’amélioration d’images
▪ Histogramme cumulatif
Il associe à chaque niveau de gris le pourcentage de pixels qui sont au moins aussi
sombre que lui, donc on aura un petit pourcentage pour la valeur 0, et 100% pour
255 ou avant (cela dépend du niveau de gris maximum dans l’image).
30 28 70 64

25 24 60

50
20
40 36
15
12 30 24
10
20
5 10

0 0 86
0 1 2 0 1 2
L’amélioration d’images
Divers traitements d'analyse sont exclusivement réalisés en se basant sur
l'histogramme. Parmi eux :

1. Normalisation → exploiter toute la dynamique de codage.


2. Égalisation → équilibrer la dynamique de codage et augmenter le contraste.
3. Segmentation → simplifier l'image en regroupant les pixels selon leurs valeurs.

Il est important de noter que certains de ces traitements sont souvent effectués au niveau
des capteurs. Leur pertinence est étroitement liée aux conditions d'acquisition des images.
87
L’amélioration d’images
A. Normalisation d’histogramme

La normalisation d'histogramme, ou expansion


de dynamique, est une transformation affine
du niveau de gris des pixels de telle sorte que
l'image utilise toute la dynamique de
représentation. Elle permet d’étendre la plage
de valeurs d’une image en étalant de manière
uniforme les niveaux de gris de l’image sur tout
l’intervalle de valeurs disponibles.
88
L’amélioration d’images
A. Normalisation d’histogramme
La normalisation d'histogramme, consiste à normaliser le niveau de gris entre 0 et 255,
de manière à ce que la valeur d’intensité la plus faible soit à zéro et que la plus grand soit
à la valeur maximale. De cette façon, si les valeurs de l’histogramme sont très proches
les unes des autres, l’étirement va permettre de fournir une meilleur répartition afin de
rendre les pixels clairs encore plus clairs et les pixels foncé proche du noir.
a ≤ NG ≤ b Etirement 0 ≤ NG ≤ 255

89
L’amélioration d’images
A. Normalisation d’histogramme

➢ La probabilité d’apparition d’un niveau de gris i dans l’image est :

𝑯(𝒊)
𝑯𝒏 𝒊 = 𝑯𝒏 𝒊 ϵ [0,1]
𝑾 × 𝑯
➢ La fonction correspondante 𝑯𝒏 est l’histogramme normalisé.
➢ On peut dire que c’est une approximation discrète de la densité de probabilité ddp de
la variable aléatoire « niveau de gris d’un pixel ».

90
L’amélioration d’images
A. Normalisation d’histogramme

Normaliser l’histogramme d’une image f consiste à appliquer une transformation


d’histogramme à l’image afin d’étendre la plage de valeur de f à l’ensemble des valeurs
disponibles.

2𝐷 − 1
𝑓𝑛𝑒𝑤 x, y = (𝑓 𝑥, 𝑦 − 𝑁𝑚𝑖𝑛 ).
𝑁𝑚𝑎𝑥 − 𝑁𝑚𝑖𝑛
▪ 𝟐𝑫 − 𝟏 : dynamique.
▪ 𝑵𝒎𝒊𝒏 : la plus petite valeur dans l'image.
▪ 𝑵𝒎𝒂𝒙 : la plus grande valeur dans l'image. 91
L’amélioration d’images
A. Normalisation d’histogramme

92
L’amélioration d’images
▪ Histogramme cumulatif normalisé
HCn(x) est le taux de pixels dont le niveau de gris est inférieur ou égal à x.
W

σ𝒙𝒊=𝟎 𝑯(𝒙)
𝑯𝑪𝒏 𝒙 =
𝑾 × 𝑯
H

93
L’amélioration d’images
B. Égalisation d’histogramme
L'égalisation d'histogramme est une transformation des niveaux de gris dont le principe est
d'équilibrer le mieux possible la distribution des pixels dans la dynamique. elle a pour but de
répartir uniformément les pixels dans chacun des niveaux : Idéalement, on cherche à avoir le
même nombre de pixels pour tous les niveaux de 0 à 255 (Histogramme plat).

L'égalisation d'histogramme est donc


un procédé par lequel on force tous
les niveaux de gris de l’image à être
équiprobable ( même nombre de
pixels).
94
L’amélioration d’images
B. Égalisation d’histogramme
L’histogramme obtenu après égalisation
s’étale bien sur toute l’échelle des niveaux
de gris avec un espacement accru. Les
données discrètes des niveaux de gris ne
permettent pas d’obtenir un histogramme
rigoureusement plat.

95
L’amélioration d’images
❑ Etapes à suivre pour l’égalisation d’un histogramme d’une image F :

1. Calcul de l’histogramme H(i) avec i ∈ [0, 255]


𝑯(𝒊)
2. Normalisation de l’histogramme 𝑯𝒏 𝒊 = avec i ∈ [0, 255]
𝑾×𝑯

3. Densité de probabilité cumulative 𝑯𝑪 𝑖 = σ𝑥𝑖=0 𝐻𝑛(𝑖) avec i ∈ [0, 255]


4. Transformation des niveaux de gris de l’image 𝑓𝑛𝑒𝑤 x, y = 𝑯𝑪 𝑓 x, y × 255

Egaliser l’image suivante :


235 212 212
150 150 110
100 110 110
96
L’amélioration d’images
▪ Calcul de l’histogramme

3,5
3
3

2,5
2 2
2

1,5
1 1
1

0,5
00000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000
0
10
15
20
25
30
35
40
45
50
55
60
65
70
75
80
85
90
95

140

150

160
0
5

100
105
110
115
120
125
130
135

145

155

165
170
175
180
185
190
195
200
205
210
215
220
225
230
235
240
245
250
255
97
L’amélioration d’images
▪ Normalisation de l’histogramme

0,4

0,35 0,34

0,3

0,25
0,22 0,22
0,2

0,15
0,11 0,11
0,1

0,05
00000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000
0
18

60
12

24
30
36
42
48
54

66
72
78
84
90
96
102

144

186

228
0
6

108
114
120
126
132
138

150
156
162
168
174
180

192
198
204
210
216
222

234
240
246
252
98
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9

0
1

0,1
0
5
10
15
20
25
30
35
40
45
50
55
60
65
70
75
80
85
90
95
100
105
110
115
L’amélioration d’images

120
125
130
135
140
145
150
▪ Calcul de l’histogramme cumulatif normalisé

155
160
165
170
175
180
185
190
195
200
205
210
215
220
225
230
235
240
245
250
255
99
L’amélioration d’images
▪ Image égalisée

Résultat :
255 227 227

171 171 115

28 115 115

100
L’amélioration d’images
C. Segmentation par l’histogramme

L'histogramme est un outil essentiel pour la segmentation d'images. La


segmentation d'une image consiste à diviser l'image en régions ou segments distincts
afin de faciliter l'analyse ou le traitement ultérieur de chaque partie séparément.

➢ A partir des histogrammes unidimensionnels de l’image, on peut aisément pratiquer


une segmentation, et cela par une opération toute simple appelée le seuillage.

101
L’amélioration d’images
C. Segmentation par l’histogramme

Le seuillage effectué avec un seuil unique revient à une opération de binarisation. Soit
I(x,y), la valeur d’intensité du pixel de coordonnées (x,y) dans l’image :

1 Si 𝐼(𝑥, 𝑦) > 𝑇 , 𝑇 étant le seuil fixé


𝑰𝒔 (𝒙, 𝒚) =
0 Sinon.

Les pixels sont classés en deux catégories, on a créé une image binaire en noir et blanc.

102
L’amélioration d’images
C. Segmentation par l’histogramme

103
L’amélioration d’images
C. Segmentation par l’histogramme
On peut également pratiquer le multi-seuillage. Soit on utilise deux seuils, T1 et T2, et on
effectue à nouveau une binarisation de l’image.
0 Si 𝐼(𝑥, 𝑦) < 𝑇1

𝑰𝒔 (𝒙, 𝒚) = 1 Si 𝑇1 ≤ 𝐼(𝑥, 𝑦) ≤ 𝑇2

0 Si 𝐼(𝑥, 𝑦) > 𝑇2

Plusieurs seuils peuvent être définis pour regrouper les pixels dans différentes classes. Par la
suite, chaque classe peut être assignée à une couleur spécifique, ce qui permet d'analyser la
distribution géographique de ces pixels dans l'image. 104
L’amélioration d’images
C. Segmentation par l’histogramme

105
L’amélioration d’images
C. Segmentation par l’histogramme

Le seuillage peut également être réalisé de manière automatique. On peut séparer


les classes de manière à optimiser un critère spécifique, ou bien repérer les
différentes pics en détectant automatiquement les maximas et minimas locaux de
l'histogramme lissé.
➢ Optimisation d'un critère : un critère spécifique est défini, par exemple, la
variance entre les classes ou l'entropie de l'image.
➢ Détection automatique des maximas et minimas locaux : Ces points d'extrémité
peuvent être utilisés comme seuils pour la segmentation de l'image. 106
L’amélioration d’images
2. Contraste
Le contraste d'une image fait référence à la différence ou à la variation des tons,
des couleurs ou des niveaux de luminosité dans une image. Il représente la
différence entre les parties les plus sombres et les plus claires de l'image.

107
L’amélioration d’images
2. Contraste
Variation maximale entre les valeurs de niveaux de gris max et min dans l’image. Le
calcul du contraste peut se faire de différentes manières, mais la fonction suivante
est la plus utilisée.
max 𝑓 𝑥, 𝑦 − min[𝑓(𝑥, 𝑦)]
𝐶=
max 𝑓 𝑥, 𝑦 + min[𝑓(𝑥, 𝑦)]

C’est une valeur entre 0 et 1, de ce fait il est normalisé par la valeur maximale.

Une plus grande différence entre les valeurs minimales et maximales indique un contraste
plus fort. 108
L’amélioration d’images
2. Contraste

109
L’amélioration d’images
2. Contraste

▪ Techniquement, lorsque le contraste d’une image est augmenté, il en va de


même avec l’intensité des couleurs. Il sera donc judicieux de très légèrement
diminuer la saturation d’une image excessivement contrastée.
▪ À l’inverse, lorsque le contraste d’une image est diminué, les couleurs deviennent
plus ternes. Il faut alors rehausser la saturation.
D’ailleurs, il faut noter que visuellement, une image peu contrastée nécessite des
couleurs fortes qui vont à leur tour amener du contraste.
110
L’amélioration d’images
2. Contraste
▪ Voici un exemple où l’image en noir et blanc étant terne, elle doit être «
contrastée » avec de la couleur :
Si on diminue
les contrastes,
il faut rajouter
la couleur.

Pour info, les photos en noir et blanc qui semblent « belles » sont généralement
les plus contrastées. Et pour cause, elles n’ont que le contraste pour exister 111
L’amélioration d’images
2. Contraste

▪ En augmentant légèrement le contraste, on augmente légèrement les détails de


l’image, et donc elle s’alourdie en nombre d’octets (si l’on considère les images
compressés, par opposition avec les images non compressées).

▪ En augmentant au maximum le contraste, on diminue drastiquement les


nuances de l’image, et donc elle s’allège en nombre d’octets.

112
L’amélioration d’images

Exercice…

113
L’amélioration d’images
3. Luminance
▪ Luminance ou brillance d’une image est défini comme la moyenne de tous les pixels de
l’image.
▪ Pour augmenter la luminance, il suffit de décaler l’histogramme : 𝐼𝑛𝑒𝑤 𝑖, 𝑗 = 𝐼 𝑖, 𝑗 + 𝑏
▪ Dans les deux images suivantes seule la luminance est différente :

114
L’amélioration d’images
3. Luminance
Image sombre Image à faible
contraste

Image lumineuse Image à fort


contraste

115
L’amélioration d’images
4. Transformations des images
❑ Principe : Changer la valeur de chaque pixel d’une image I pour obtenir une nouvelle image
𝐼 ′ . Cette image résultante a même taille que I, mais des propriétés plus intéressantes.
❑ Notation : la transformation est notée t :
t
𝐼𝑁𝑥 ×𝑁𝑦 → 𝑰′𝑁𝑥 ×𝑁𝑦

❑ Types de transformations
➢ Transformations Ponctuelles
➢ Transformations Locales
➢ Transformations Globales
116
L’amélioration d’images
❑ Transformations Ponctuelles (ou pixel à pixel) :

Ce sont des opérations qui sont appliquées pixel par pixel de manière indépendante. Chaque pixel de
l'image est transformé en fonction de sa propre valeur, sans tenir compte des pixels voisins.
- La nouvelle valeur 𝐼′ (x,y) est obtenue à partir de 𝐼 𝑥, 𝑦 seulement :
t
𝐼𝑁𝑥 ×𝑁𝑦 → 𝑰′𝑁𝑥 ×𝑁𝑦 =≫ 𝐼′ 𝑥, 𝑦 = 𝑡 𝐼 𝑥, 𝑦

Exemple : Seuillage, Ajustement de luminosité/contraste, Opération algébriques.


I 𝑰′
x x

y y

117
L’amélioration d’images
❑ Transformations Locales ( ou de voisinage) :

-> Utiliser l’information autour d’un point pour en générer un autre.


la nouvelle valeur 𝐼′(x,y) est obtenue à partir de l’ensemble des valeurs initiales 𝐼(𝑣(𝑥,𝑦)) dans un
voisinage autour du pixel de cordonnées (x,y) :
t t
𝐼𝑁𝑥 ×𝑁𝑦 → 𝑰′𝑁𝑥 ×𝑁𝑦 =≫ 𝐼 ′ 𝑥, 𝑦 = 𝑡 𝐼(𝑣(𝑥,𝑦))
I 𝑰′
x x

y y

118
L’amélioration d’images
❑ Transformations Locales ( ou de voisinage) :

-> Pour construire 𝐼′(x,y) , on utilise les pixels autour :

(x-1,y-1) (x,y-1) (x+1,y-1)


(x-1,y) (x,y) (x+1,y)
(x-1,y+1) (x,y+1) (x+1,y+1)

119
L’amélioration d’images
❑ Transformations Globales :

-> Utiliser l’information de toute l’image pour modifier un point.


la nouvelle valeur 𝐼 ′ (x,y) est obtenue à partir de de l’ensemble des valeurs de l’image initiale 𝐼.
t
𝑰𝑁𝑥 ×𝑁𝑦 → 𝑰′𝑁𝑥 ×𝑁𝑦 =≫ 𝐼 ′ 𝑥, 𝑦 = 𝑡 𝐼

I t 𝑰′

120
L’amélioration d’images
5. Look up table LUT :
o Une transformation ponctuelle t change un niveau de gris 𝒊 dans l’image initial 𝑰 en un niveau
de gris 𝒊′ pour obtenir l’image résultat 𝑰′ .
o Elle est donc définie par une table de correspondance ou LUT (Look Up Table) qui définit,
pour chaque niveau de gris 𝒊, le nouveau niveau 𝒊′ = t(𝒊) .
o La modification d’un histogramme est représentée sur une courbe indiquant la modification
globale des composantes de l’image avec en abscisse les valeurs initiales et en ordonnées les
valeurs après modification. Cette courbe correspond à une fonction de transfert définie par
LUT .

121
L’amélioration d’images
5. Look up table LUT :
➢ Représentation de la LUT : Tableau ou Courbe
𝒊 t(𝒊)
0 t(0)
1 t(1)
2 t(2)
. .
. .
. .
𝑖0 𝑡(𝑖0 )
. .
. .
. .
255 t(255) 122
L’amélioration d’images
5. Look up table LUT : 𝒊 t(𝒊)
0 255 𝒊 t(𝒊)
𝒊 t(𝒊)
1 254 0 0
0 0
𝟎 𝒔𝒊 𝒊 < 𝟏𝟐𝟕 1 0
Identité 𝒊′ = 𝒊 1 1
2 253 Seuillage ′
𝒊 =ቊ
𝟐𝟓𝟓 𝒔𝒊 𝒊 ≥ 𝟏𝟐𝟕 2 0
… …
2 2
… …
… … Négatif 𝒊′ = 255-𝒊

123
L’amélioration d’images
➢ Une LUT définit la transformation t des niveaux de gris entre l’image initiale et l’image finale.
➢ Cette transformation change la distribution statique des niveaux des gris, caractérisée par
l’histogramme de chaque image.

124
L’amélioration d’images
6. Recadrage de la dynamique :
✓ L’image dois avoir : - un bon contraste
- des contours d’objets bien marqués
Types du recadrage : - Transformation linéaire simple
- Transformation linéaire avec saturation
- Transformation linéaire par morceau
- Transformation non linéaire

125
L’amélioration d’images
6. Recadrage de la dynamique :
Il s’agit d’une transformation du type 𝑓 ′ = 𝑡 𝑓 qui permet de modifier la dynamique des
niveaux de gris dans le but d’améliorer l’aspect visuel de l’image. À un niveau de gris 𝑓 de
l’image originale correspond le niveau 𝑡(𝑓) dans l’image transformée. On fait subir à chaque
pixel un traitement ne dépendant que de sa valeur. La transformation 𝑡(𝑓) peut être réalisée
en temps réel sur l’image en cours d’acquisition à l’aide d’une table de correspondance dans
la quelle les valeurs de la transformation sont mémorisées. Un adressage de cette mémoire
par une donnée 𝑓 fournit directement la valeur 𝑡(𝑓).

126
L’amélioration d’images
A. Transformation linéaire simple
C'est une méthode de recadrage de la dynamique qui
implique une modification globale des niveaux de luminosité
de l'image à l'aide d'une fonction linéaire.
▪ Expansion de Ia dynamique

➢ Soit [𝑖𝑚𝑖𝑛 , 𝑖𝑚𝑎𝑥 ] la dynamique de l'image initiale.


➢ Fonction de transformation
255
𝑖′ = (𝑖 − 𝑖𝑚𝑖𝑛 )
𝑖𝑚𝑎𝑥 −𝑖𝑚𝑖𝑛
Effet : Rehaussement du contraste par expansion
(𝑖−𝑖𝑚𝑖𝑛 )
avec ∈ [0,1] de la dynamique
𝑖𝑚𝑎𝑥 −𝑖𝑚𝑖𝑛
- Remarque : pas d'effet si 𝑖𝑚𝑖𝑛 =0 et 𝑖𝑚𝑎𝑥 =255 127
L’amélioration d’images
A. Transformation linéaire simple

𝑚𝑎𝑥 − 𝑚𝑖𝑛 255 − 0


= ′
𝐼 𝑖, 𝑗 − 𝑚𝑖𝑛 𝐼 𝑖, 𝑗 − 0
Alors :


𝟐𝟓𝟓
𝑰 𝒊, 𝒋 = 𝑰 𝒊, 𝒋 − 𝒎𝒊𝒏
𝒎𝒂𝒙 − 𝒎𝒊𝒏

𝑰 𝒊,𝒋 −𝒎𝒊𝒏
avec ∈ [0,1]
𝒎𝒂𝒙−𝒎𝒊𝒏
128
L’amélioration d’images
A. Transformation linéaire simple

129
L’amélioration d’images
A. Transformation linéaire simple
❑ Limite : Si la dynamique est déjà maximale, la transformation n’apporte aucun
changement.

130
L’amélioration d’images
B. Transformation linéaire avec saturation
Cette méthode est similaire à la transformation linéaire simple, mais elle inclut une saturation, ce qui
signifie que les valeurs en dehors d'une plage spécifiée sont limitées.
➢ Fonction de transformation
• Effet : - Rehaussement du contraste
Défini par deux seuils : min < 𝑆𝑚𝑖𝑛 < 𝑆𝑚𝑎𝑥 < max
• des niveaux 𝑆𝑚𝑖𝑛 < i < 𝑆𝑚𝑎𝑥
255
𝐼 ′ (𝑖, 𝑗) = (𝐼(𝑖, 𝑗) − 𝑆𝑚𝑖𝑛 ) - et saturation
𝑆𝑚𝑎𝑥 −𝑆𝑚𝑖𝑛
• À 0 des niveaux min ≤ i < 𝑆𝑚𝑖𝑛
𝐼 ′ (𝑖, 𝑗) ≤0 → 𝐼 ′ (𝑖, 𝑗) =0
• A 255 des niveaux 𝑆𝑚𝑎𝑥 < i ≤ 𝑚𝑎𝑥
𝐼 ′ (𝑖, 𝑗) ≥ 255 → 𝐼 ′ (𝑖, 𝑗) = 255

131
L’amélioration d’images
B. Transformation linéaire avec saturation

132
L’amélioration d’images
C. Transformation linéaire par morceau
La transformation linéaire par morceau consiste à diviser une image en segments ou zones distincts,
puis à appliquer des transformations linéaires différentes à chaque segment. Contrairement à une
transformation linéaire simple qui affecte toute l'image de manière uniforme, cette approche permet
des ajustements locaux spécifiques à certaines parties de l'image.
• Effet : selon la pente locale (gain) , expansion ou compression
de la dynamique.
➢ Rehaussement de contraste si gain >1,
➢ Diminution du contraste si gain < 1.

133
L’amélioration d’images
C. Transformation linéaire par morceau

Exemple :

Mise en œuvre de 2 seuils :


- les valeurs entre [0, ...,m[ et ]M,...,255] sont inchangées
- les pixels entre [m...M] sont mis à 255 (ces pixels sont «
blancs »)

134
L’amélioration d’images
C. Transformation linéaire par morceau

• la transformation « opposée » où seuls les


pixels dont les valeurs sont appartiennent à
l’intervalle [m, M] restent inchangés, les autres
valeurs de pixels sont mises à 0 (« noirs »).

135
L’amélioration d’images
C. Transformation linéaire par morceau

136
L’amélioration d’images
C. Transformation linéaire par morceau

137
L’amélioration d’images
D. Transformation non linéaire
Contrairement aux transformations linéaires, les transformations non linéaires permettent des
ajustements plus complexes. Les transformations non linéaires sont des opérations qui
modifient la relation entre les valeurs des pixels dans une image d'une manière qui n'est pas
linéaire. Cela signifie que la variation d'une valeur de pixel à une autre ne suit pas une
progression constante.
➢ Des fonctions non linéaires, telles que les fonctions logarithmiques ou exponentielles,
peuvent être utilisées pour modifier la dynamique de l'image de manière plus sophistiquée.
➢ L’un des exemples courant de la transformations non linéaires est la corrections gamma.

138
L’amélioration d’images
D. Transformation non linéaire
❑ Corrections gamma :
L’œil humain ne perçoit pas une palette de couleur de façon linéaire, les tons moyens dans
l’image paraissent plus sombre. La correction gamma vise à corriger cette différence de
perception. Elle a pour équation : 𝑦 = 𝑥 𝛾

=
==

139
L’amélioration d’images
D. Transformation non linéaire 𝐼′

Corrections gamma :

𝐼 𝑥,𝑦 𝛾
Fonction de transfert : 𝐼′ 𝑥, 𝑦 = 255
255

✓ Lorsque 𝜸 > 𝟏 : cette transformation augmente la


plage dynamique des intensités élevées: dilatation des
zones claire. Donc, il assombrit les parties claires.
✓ Lorsque 𝜸 < 𝟏 : elle augmente la plage dynamique
𝐼
des intensités faibles : dilatation des zones sombre.
Donc, il éclaircit les partie foncées
140
L’amélioration d’images

𝜸=1,5 𝜸=0,7

𝜸=2 𝜸=0,5

𝜸=3 𝜸=0,2

141
L’amélioration d’images
D. Transformation non linéaire
❑ Corrections gamma :

142
Opération sur l’image
❑ Opérations arithmétiques :
➢ Addition, Soustraction, Multiplication, Division

❑ Opérations logiques :
➢ ET logique, OU Logique, Négation

❑ Convolution

143
Opération sur l’image
1. Opérations arithmétiques :
A. Addition d’images
L’addition de deux images F et G de même taille est une nouvelle image H de même taille dont
chaque pixel correspond à la somme des valeurs des pixels des images originales. L’addition
pixel a pixel est défini par :

H x, y = Min(F x, y + G x, y ; 2N − 1)
N: Nombre de bits du codage
❑ L’addition des images peut permettre :
➢ D’augmenter la luminance en additionnant une image avec elle-même.
➢ De diminuer le bruit. 144
Opération sur l’image
A. Addition d’images

▪ L’addition de deux images différentes :

▪ L’addition d’image avec elle-même :

145
Opération sur l’image
A. Addition d’images
▪ Pour une image couleur, l'addition est réalisée séparément sur chaque composante
(rouge, vert, bleu).
▪ Attention le résultat de l'addition peut dépasser le nombre de niveaux d'intensité.
Le résultat final dépend de l'implémentation : on peut obtenir la valeur maximale
d'intensité (on parle de saturation) ou un modulo peut être effectué avec la valeur
maximale.

146
Opération sur l’image
A. Addition d’images
▪ On peut également effectuer la somme d'une image et d'une constante.
H x, y = F x, y + C

147
Opération sur l’image
B. Soustraction d’images
La soustraction d’images est utilisée dans certaines application pour mettre en
évidence certaine détails caractéristiques. On peut définir la soustraction S pixel à
pixel de deux images F et G par :

S x, y = Max F x, y − G x, y ; 0
▪ On peut également effectuer la soustraction d'une image et d'une constante.

S x, y = F x, y − C
▪ Utilisation classique : soustraction de la luminosité du fond d'une scène pour
analyser plus facilement l'avant plan. 148
Opération sur l’image
B. Soustraction d’images

149
Opération sur l’image
B. Soustraction d’images

150
Opération sur l’image
B. Soustraction d’images

❑ Une autre application est la détection de changements entre deux


images d'une séquence vidéo.
❑ En cas de changement, une différence absolue conduira à des valeurs
d'intensité des pixels significativement différentes de 0 dans la région
de l'image où le mouvement a eu lieu et à des valeurs nulles ailleurs .

151
Opération sur l’image
B. Soustraction d’images

152
Opération sur l’image
C. Multiplication d’images

▪ Obtenir une troisième image par multiplication de deux images ou par multiplication

d'une image par une constante.

▪ La multiplication par une constante réelle est la plus utilisée.

▪ Avec une constante supérieure à 1, on illumine l'image alors qu'avec une constante

inférieure à 1 on l'assombrit.

153
Opération sur l’image
C. Multiplication d’images

La multiplication d’une image I par un facteur (f) est définie par :


M x, y = M𝑖𝑛 I x, y ∗ f ; 255
❑ La multiplication d’image peut permettre d’améliorer le contraste ou la
luminance.

154
Opération sur l’image
C. Multiplication d’images

155
Opération sur l’image
C. Multiplication d’images

156
Opération sur l’image
C. Multiplication d’images

▪ La multiplication entre pixels est moins utilisée.


▪ On peut multiplier par une image binaire pour obtenir un masquage.
On multiplie par 1 les pixels que l'on veut conserver et par 0 les autres.
Il est cependant plus facile et rapide d'utiliser l'opérateur logique ET.

157
Opération sur l’image
2. Opérations logiques
A. ET logique

▪ Deux images de même taille en Noir et Blanc ou en Niveau de gris.

▪ Chaque valeur de pixel de l’image résultat est obtenu par un ET logique

sur les pixels correspondant de l'image 1 et de l'image 2.

158
Opération sur l’image
A. ET logique

▪ Pour les images en niveaux de gris, l'opérateur logique est appliqué sur la

représentation binaire des niveaux de gris, en comparant les bits correspondants.

▪ 2 niveaux de gris 47 et 252 codés sur 8 bits,

47 en binaire 00101111

252 en binaire 11111100

Résultat 00101100 soit 44


159
Opération sur l’image
A. ET logique

Application : Intersection de 2 images

Les objets sont codés 0 et le


fond 1. Inverser les images
puis faire le ET

160
Opération sur l’image
A. ET logique

Application : Masque pour isoler une région

161
Opération sur l’image
A. ET logique

Application : Masque pour isoler une région

162
Opération sur l’image
B. OU logique

Application : Fusion de 2 images N&B

Les objets sont codés 0 et le fond 1. Inverser les images puis faire le ou
163
Opération sur l’image

B. OU logique

Attention : si les 2 images en Niveau de gris, le résultat du OU peut

grandement varier avec un changement minime dans les valeurs d'entrée.

• Par exemple 127 OU 128 donne 255 mais 127 OU 126 donne 127.

164
Opération sur l’image
B. OU logique

Application : Fusion images NdG et N&B

165
Opération sur l’image
2. Opérations logiques sur les images

166
Opération sur l’image

167
Opération sur l’image
3. Convolution
▪ C’est l’opération de base de traitement d’images
▪ Le produit de convolution est une opération très courante en traitement d'images.
Ce produit représente une classe d'opérations simples à programmer et efficace
dans ses résultats.
▪ En traitement d'images, la convolution est souvent utilisée pour appliquer des
filtres ou des noyaux à une image, permettant des opérations telles que le lissage,
le rehaussement des contours, etc.

168
Opération sur l’image
3. Convolution
▪ Le produit de convolution est une opération de voisinage linéaire et invariante par
translation.
▪ Il n'y a pas d'autre opération ayant ces propriétés. Cette opération fait donc appel
aux outils disponibles pour effectuer la convolution:
• Multiplication du niveau de gris d'un pixel par une constante.
• Addition des niveaux de gris des pixels d'une image.

169
Opération sur l’image
3. Convolution
L’équation générale de la convolution, notée g(x), de la fonction d’origine f(x) avec
une fonction h(x) est :

𝒈 𝒙 = 𝑰 𝒙 ∗ 𝒉 𝒙 = ෍ 𝒉 𝒙 − 𝒌 𝑰(𝒌)
∀𝒌

➢ 𝑓 𝑥 est la fonction d’origine et 𝑔 𝑥 la fonction convoluée (résultat de la


convolution)
➢ ℎ 𝑥 est appelé masque de convolution, noyau de convolution, filtre, fenêtre,
kernel,…
170
Opération sur l’image
A. Propriétés de la convolution :
▪ Additivité/distributivité : 𝑰 ∗ 𝒉𝟏 + 𝑰 ∗ 𝒉𝟐 = 𝑰 ∗ (𝒉𝟏 + 𝒉𝟐 )
▪ Commutativité : 𝒉𝟏 ∗ 𝒉𝟐 = 𝒉𝟐 ∗ 𝒉𝟏
▪ Associativité du produit de convolution : 𝑰 ∗ 𝒉𝟏 ∗ 𝒉𝟐 = 𝑰 ∗ (𝒉𝟏 ∗ 𝒉𝟐 )
▪ Séparabilité d’un opérateur de convolution :
Traitement selon y
Un filtre de convolution est dit séparable si
Traitement selon x
𝒉 𝒙, 𝒚 = 𝒉𝒙 (𝒙). 𝒉𝒚 (𝒚)
𝑰 𝒙, 𝒚 ∗ 𝒉 𝒙, 𝒚 = 𝒉𝒚 𝒚 ∗ (𝒉𝒙 𝒙 ∗ 𝑰 𝒙, 𝒚 )

171
Opération sur l’image
B. Convolution en discret :
▪ En pratique, la convolution numérique d'une image se fera par une sommation de
multiplications.
▪ Un filtre de convolution est une matrice (image) généralement (mais pas toujours)
de taille impaire et symétrique : 3x3, 5x5, 7x7, ...
▪ Convolution d'une image par un filtre 2D :
𝒈 𝒙, 𝒚 = 𝑰 𝒙, 𝒚 ∗ 𝒇𝒊𝒍𝒕𝒓𝒆 𝒙, 𝒚

𝒈(𝒙, 𝒚) = ෍ ෍ 𝑰 𝒙 + 𝒖, 𝒚 + 𝒗 ∗ 𝒇𝒊𝒍𝒕𝒓𝒆(𝒖, 𝒗)
172
𝒖 𝒗
Opération sur l’image
B. Convolution en discret :
▪ Un pixel 𝑓 𝑥, 𝑦 est remplacé par une somme pondérée de lui-même et des pixels de
son voisinage.

𝑔 𝑥, 𝑦 = ෍ ෍ 𝐼 𝑥 + 𝑢, 𝑦 + 𝑣 ∗ 𝑓𝑖𝑙𝑡𝑟𝑒 𝑢, 𝑣 𝒇𝒊𝒍𝒕𝒓𝒆 𝟎, 𝟎 = 𝒘𝟓
𝑢 𝑣
= 𝐼 𝑥 − 1, 𝑦 − 1 ∗ 𝑤1 + 𝐼 𝑥 − 1, 𝑦 ∗ 𝑤2 + 𝐼 𝑥 − 1, 𝑦 + 1 ∗ 𝑤3 + 𝐼 𝑥, 𝑦 − 1 ∗
𝑤4 + 𝑓 𝑥, 𝑦 ∗ 𝑤5 + 𝐼 𝑥, 𝑦 + 1 ∗ 𝑤6 + 𝐼 𝑥 + 1, 𝑦 − 1 ∗ 𝑤7 + 𝐼 𝑥 + 1, 𝑦 ∗ 𝑤8 +
𝐼 𝑥 + 1, 𝑦 + 1 ∗ 𝑤9
173
Opération sur l’image
B. Convolution en discret :

?
174
Opération sur l’image
B. Convolution en discret :
▪ En pratique :
L'opération de convolution de l'image g par le masque f, consiste donc à replacer la valeur de chaque
pixel I(x,y) par une combinaison Linéaire de ses voisins, où le coefficient attaché à chaque voisin (x-
i,y-j) est déterminé par la valeur f[i,j] du noyau de convolution.

I f

175
Opération sur l’image
B. Convolution en discret :
▪ En pratique : 𝒈 𝒙, 𝒚 = 𝑰 𝒙, 𝒚 ∗ 𝒇 𝒙, 𝒚

176
Opération sur l’image
B. Convolution en discret :
▪ En pratique : 𝒈 𝒙, 𝒚 = 𝑰 𝒙, 𝒚 ∗ 𝒇 𝒙, 𝒚

177
Opération sur l’image
B. Convolution en discret :
▪ En pratique : 𝒈 𝒙, 𝒚 = 𝑰 𝒙, 𝒚 ∗ 𝒇 𝒙, 𝒚

178
Opération sur l’image
B. Convolution en discret :
▪ Problème : Que faire avec les bords de l'image ( Effet de bord)?

179
Opération sur l’image
B. Convolution en discret :
▪ Mettre à zéro (0): Mise à zéro de la couronne

0 0 0 0 0 0 0 0 0 0
0 0
Masque
0 0
0 0
0 0
0 0
0 0
0 0
0 0
0 0 0 0 0 0 0 0 0 0

180
Opération sur l’image
B. Convolution en discret :
▪ Miroir de l'image : Réaliser un effet de miroir

2 2 5 9 1 7 8 2 0 0
2 2 5 9 1 7 8 2 0 0
3 3 0 0
8 8 0 0
4 4 0 0
6 6 0 0
9 9 0 0
0 0 0 0
5 5 0 0 0 0 0 0 0 0
5 5 0 0 0 0 0 0 0 0

181
Filtrage

❑Filtrage linéaire
• Réalisable avec une convolution : g(x,y)= f(x,y) * filtre(x, y)
• Moyenneur, Gaussien,…
❑Filtrage NON linéaire
• N’est pas réalisable avec une convolution
• Médian, Max,…

182
Filtrage
1. Filtrage linéaire :
Le filtre est dit linéaire si la valeur du nouveau pixel est une combinaison linéaire des
valeurs des pixels du voisinage. Le voisinage est une matrice carrée et symétrique autour
du pixel considéré. En fonction du filtre utilisé, on pourra obtenir différents effets visuels.

❑ On classe habituellement les filtres linéaires en 2 familles :


➢ Filtres passe-bas
➢ Filtres passe-haut

183
Filtrage
1. Filtrage linéaire :
L'application principale des produits de convolution est la création des filtres « passe haut»
et « passe bas ».
❑ Filtres passe-bas
➢ Atténuent les hautes fréquences de l'image, ce qui a pour effet de lisser
l'image. Cela est utile pour réduire le bruit et supprimer les détails fins.
❑ Filtres passe-haut
➢ Accentuent les hautes fréquences de l'image, mettant en évidence les
contours et les détails. Cela peut être utilisé pour détecter les bords et les
caractéristiques importantes de l'image.
184
Filtrage
A. Filtres passe-haut :

Un filtre « passe haut » favorise les hautes fréquences spatiales, comme les détails, et de
ce fait, il améliore le contraste. Il laisse passer les hautes fréquences et atténue voire
supprime/coupe les basses fréquences.

185
Filtrage
A. Filtres passe-haut :

Un filtre « passe haut » est caractérisé par un noyau comportant des valeurs négatives
autour du pixel central, comme dans l'exemple ci-dessous;

186
Filtrage
B. Filtres passe-bas :

les filtres « passe bas » agissent en sens inverse des filtres « passe haut » et le résultat est
un adoucissement des détails, ainsi qu'une réduction du bruit granuleux. Il laisse passer les
basses fréquences et atténue voire supprime/coupe les hautes fréquences.

187
Filtrage
B. Filtres passe-bas :

Un filtre "passe-bas" est défini par un noyau qui comporte des valeurs positives
disposées autour du pixel central, ce noyau est conçu de manière à favoriser les
composantes de basse fréquence de l'image, contribuant ainsi à la réduction du bruit et
à l'élimination des détails fins.

188
Filtrage
B. Filtres passe-bas :

Les filtres passe-bas ou lisseurs sont tendance à rendre l’image floue. Ce type de
filtrage est généralement utilisé pour atténuer le bruit de l'image, c'est la raison pour
laquelle on parle habituellement de lissage.
On distingue deux filtres passe-bas,
➢ Le filtre Moyenneur ,
➢ et le filtre gaussien

189
Filtrage
C. Filtre Moyenneur:

Le filtre Moyenneur
• Permet de lisser l'image (smoothing)
• Remplace chaque pixel par la valeur moyenne de ses voisins
• Réduit le bruit
• Réduit les détails non-important
• Brouille ou rend floue l'image (blur edges)

190
Filtrage
C. Filtre Moyenneur:
Le filtrage par la moyenne consiste à remplacer chaque pixel par la valeur moyenne de
ses voisins (le pixel lui même y compris).
▪ Les coefficients d’un filtre moyenneur sont égaux. Leurs valeurs est 1Τ𝑁2 Avec N la
taille du masque.
Pour N=3

𝟏ൗ
𝟐𝟓

191
Filtrage
C. Filtre Moyenneur:

1 1 1
1ൗ ∗ 1 1 1 Lissage (flou apparent)
9
1 1 1

Plus le filtre grossit , plus le lissage devient important et plus le flou s'accentue ! 192
Filtrage
C. Filtre Moyenneur:

Filtre Moyenneur
Image originale 3*3

7*7 5*5

193
Filtrage
C. Filtre Moyenneur:

194
Filtrage
D. Filtre gaussien:
Comme son nom le dit, le filtre gaussien possède un noyau de convolution de forme
gaussienne. Il est un filtre linéaire dont les éléments du noyau de convolution sont
déterminés selon la densité d'une loi gaussienne centrée à 2 dimensions.
La forme du filtre est obtenu de l’équation d’une gaussienne:

2
−(𝑖 +𝑗 2)
1
H 𝑖, 𝑗 = 𝑒 2𝜎 2
2𝜋𝜎 2

195
Filtrage
D. Filtre gaussien:
Le degré de lissage est déterminé par l’écart-type associé au filtre gaussien mais alors
plus l’écart-type est élevé plus il faut prendre un filtre grand.

2 4 6 4 2
1 2 1
4 9 12 9 4
1ൗ ∗ 6 12 15 12 6 1ൗ ∗ 2 4 2
119 16
4 9 12 9 4 1 2 1
2 4 6 4 2
Fenêtre de taille 5 × 5 Fenêtre de taille 3 × 3

d’écart type égal à 𝝈 = 1.4 d’écart type égal à 𝝈 = 0.6 196


Filtrage
D. Filtre gaussien:

197
Le filtre gaussien donnera un
Filtrage meilleure lissage et une
meilleure réduction du bruit
D. Filtre gaussien: que le filtre moyenneur

198
Filtrage
le filtre gaussien est séparable:
▪ son noyau peut-être écrit comme un produit de deux noyaux plus simples.
𝑖2 +𝑗2 𝑖2 𝑗2
En effet, 𝑒 2𝜎2 =𝑒 2𝜎2 .𝑒 2𝜎2 , donc 𝐻 = 𝐻𝑥 . 𝐻𝑦

Avec 𝐻𝑥 (respectivement 𝐻𝑦 ) le vecteur colonne contenant les exponentielles en 𝑥


(respectivement en 𝑦).
▪ La convolution 2D peut alors être réalisée de façon plus efficace : on applique d'abord
une convolution gaussienne 1D sur les lignes de l'image, puis une autre sur les
colonnes.
199
Filtrage
le filtre gaussien est séparable:
▪ On peut filtrer les lignes avec un noyau 1 ligne x 5 colonnes de profil gaussien
▪ On filtre le résultat (les colonnes) avec un noyau de 5 lignes x 1 colonne de profil gaussien
▪ La propriété d’être séparable permet d’accélérer les calculs par rapport à la convolution
classique en 2D. Par exemple, pour un filtre 5 x 5:
➢ Une convolution 2D classique requiert 25 multiplications et 24 additions soit 49
opérations par pixel.
➢ En exploitant la séparabilité du filtre, on réduit la complexité algorithmique à 2 x 5
multiplications et 2 x 4 additions, soit 18 opérations par pixel
200
Filtrage
2. Filtrage non linéaire :
Le filtre non linéaire est un opérateur qui remplace la valeur de chaque pixel par une
combinaison non linéaire des valeurs de ses pixels voisins. l’objectif des filtres lisseur non
linéaires est d’apporter une solution aux limites suivantes :
- Le respect des frontières : Le filtrage non linéaire élimine le bruit sans rendre flous les
frontiéres des objets.
- Le bruit impulsionnel : Le filtrage non linéaire permet de réduire le bruit impulsionnel
(multiplicatif), ce que le filtre moyenneur (ou même gaussien) n’arrive pas à faire.

201
Filtrage
2. Filtrage non linéaire :
- Le bruit impulsionnel : Lorsque l’image fait apparaitre des valeur parasites aberrantes
qui ne dépendent pas des valeurs initiales de l’image, le filtrage linéaire diffuse ces
valeurs aberrantes sur les pixels voisins.

le bruit impulsionnel (par exemple, "poivre et sel")

202
Filtrage
2. Filtrage non linéaire :
A. Filtre Median
▪ Pour nettoyer le bruit dans une image, il existe mieux que le filtre moyenneur ou le
filtre gaussien
▪ II s'agit du filtre median
▪ C'est un filtre non-linéaire, qui ne peut pas s'implémenter comme un produit de
convolution
▪ Le filtre médian est bien adapté au filtrage du bruit impulsionnel

203
Filtrage
A. Filtre Median
▪ Le filtre médian utilise aussi un noyau sur lequel on effectue les opérations suivantes:
1. trier les valeurs d’illuminance des pixels couverts par le masque (luminances triées dans
l'ordre croissant).
2. extraire la médiane des données triées
3. remplacer la valeur du pixel central par la médiane

Median

204
bruit
Filtrage
2. Filtrage non linéaire :
A. Filtre Median

Tri des élément :


90 93 123 167 168 198 129 135 145
90 93 123 129 135 145 167 168 198
→ La valeur 168 ça sera remplacé par 135

205
Filtrage
2. Filtrage non linéaire :
A. Filtre Median

Image bruité Filtre moyenneur 3x3 Filtre median

206
Filtrage
A. Filtre Median:

Filtre Median
Image originale 3*3

7*7 5*5

207
Filtrage
2. Filtrage non linéaire :
B. Filtrage Min/Max
• On considère le niveau de gris du pixel à traiter, et d’autre part tous ses voisins (à
l’exception de lui même).
• Sur les voisins on calcule le niveau min et le niveau max,
• Si le niveau de gris du pixel à traiter est compris entre le min et le max. alors on le
laisse inchangé
• Sinon on le remplace par le max(resp min).

208
Filtrage
B. Filtrage Min/Max
➢ Principe:
Consiste à remplacer la valeur au pixel (x,y) par le minimum ou le maximum sur la
fenêtre centrée en ce point selon la proximité de ces deux valeurs à la valeur
centrale.

Min=90, Max=198
on a donc 208 >Max
d’où la valeur 208 ça sera remplacé par 198 dans le
cas du filtrage Max.
209
Filtrage
B. Filtrage Min/Max
▪ Ce filtre de lissage supprime bien le bruit de type “poivre et sel“ c’est à dire qu’il
“adoucit“ les pixels isolés ayant un niveau de gris très différent des niveaux de
gris de leur voisinage
▪ Il a la particularité de bien préserver les contours très marqués.
▪ Ce filtre s’assure en fait que tout pixel a son niveau de gris placé dans la gamme
de ses voisins.

210
Filtrage
B. Filtrage Min/Max

Image originale Filtrage Max

211
Détection de contours
1. Qu’est ce qu’un contour?
Un contour est une variation brusque d’intensité.
▪ Par définition, un contour est la frontière qui sépare deux objets dans une image.
➢ Une discontinuité de l’image

212
Toute discontinuité n’est
Détection de contours nécessairement située à la
1. Qu’est ce qu’un contour? frontière entre deux objets
▪ Les contours dans une image proviennent des :
➢ Discontinuités de la fonction de réflectance (texture, ombre).
➢ Discontinuités de profondeur (bords de l'objet).
Ils sont caractérisés par des discontinuités de la fonction d'intensité dans les images.
▪ Donc, pour détecter ses discontinuités, il faut détecter toutes les lignes qui marquent
les changements d'intensité.
➢ Pas seulement les bords !

213
Détection de contours
1. Qu’est ce qu’un contour?
Exemple de détection des discontinuités :

214
Détection de contours
1. Qu’est ce qu’un contour?
Différentes types de contours :

215
Détection de contours
2. Détection de contour
▪ La détection de contour (edge detection) est un outil fondamental en traitement
d’images.
▪ Elle sert entre autre en extraction et détection de caractéristiques dans l’images.
La mise en évidence des points représentant les contours d'objets dans une image peut
servir à:
➢ reconnaître des objets présents dans une scène
➢ différencier des zones de l'image
➢ faire de la segmentation d'images…
216
Détection de contours
2. Détection de contour
▪ La détection de contour (edge detection) est un outil fondamental en traitement
d’images.
▪ Elle sert entre autre en extraction et détection de caractéristiques dans l’images.
La mise en évidence des points représentant les contours d'objets dans une image peut
servir à:
➢ reconnaître des objets présents dans une scène
➢ différencier des zones de l'image
➢ faire de la segmentation d'images…
217
Détection de contours
2. Détection de contour
▪ Mathématiquement, pour détecter le
contour, on fait la dérivée de la valeur des
pixels pour détecter les pentes.

▪ La dérivée permet de mesurer le taux de


variation.

218
Détection de contours
2. Détection de contour
Dérivées de l’image:

219
Détection de contours
2. Détection de contour
Dérivées de l’image:
Les contours correspondent :
➢ Aux maxima de la première dérivée.
➢ Aux passages par zéros de la
deuxième dérivée

220
Détection de contours
2. Détection de contour

Il existe plusieurs méthodes de détection de contour, deux approche sont les plus
utilisées:
➢ Approximation du Gradient ( les extrema locaux de la dérivée première)
➢ Approximation du Laplacien (les passages par zéro de la dérivée second)

221
Détection de contours
3. Approximation du Gradient

▪ La première dérivée de l’image (Gradient) est l’opérateur de base pour mesures les
contours dans l’image.
1
2 2 2
𝜕𝑓 𝜕𝑓
𝛻𝑓 = +
𝜕𝑥 𝜕𝑦

222
Détection de contours
3. Approximation du Gradient

▪ Le principe de la détection de contours par l'utilisation du gradient consiste à


calculer :
𝜕𝐼(𝑥, 𝑦) 𝜕𝐼(𝑥, 𝑦)
➢ le gradient de l'image dans deux directions orthogonales 𝐺Ԧ = (𝐺𝑥 , 𝐺𝑦 ) =
𝜕𝑥
,
𝜕𝑦

➢ puis le module du gradient. 𝑚= 𝐺𝑥 2 + 𝐺𝑦 2

➢ Il s'agira ensuite d'effectuer une sélection des contours les plus marqués, c'est-
à-dire les points de plus fort contraste par un seuillage adéquat.

223
Détection de contours
3. Approximation du Gradient

224
Détection de contours
3. Approximation du Gradient

Une image est discrète par nature. On cherche donc à approximer les dérivées par
différences finies.

▪ Ces dérivées sont calculées par convolution de l’image avec un masque de


différences:
-1
Approximation simple de dérivée discrète: 0 -1 0 1
1

225
Détection de contours
3. Approximation du Gradient

❑ Opérateurs gradient :

▪ Ces opérateurs sont à considérer comme des filtres qui vont être corrélés à l'image.

▪ Le filtrage seras effectué suivant les lignes de l'image puis suivant les colonnes.

▪ Pour chaque opérateur, deux masques sont utilisés de façon à déterminer le


gradient de l'image dans deux directions orthogonales.

226
Détection de contours
3. Approximation du Gradient

A. filtre de Roberts :

• Roberts (1965) fournit une première approximation de la première dérivée d’une


image discrète.

• Le calcul se fait avec 2 masques de convolution pour les 2 directions de la dérivée.

227
Détection de contours
3. Approximation du Gradient

A. Filtre de Roberts :

228
Détection de contours
3. Approximation du Gradient

B. Filtre Prewitt:

La convolution de l'image par deux masques correspond au calculs des dérivées de


l'image pré-filtrée par un filtre h séparable :

229
Détection de contours
3. Approximation du Gradient

B. Filtre Prewitt:

Image de contours par opérateur Prewitt


230
Détection de contours
3. Approximation du Gradient

B. Filtre Sobel:

▪ L’Opérateur de Sobel est un opérateur utilisé en traitement d'image pour la


détection de contours.

▪ Il s'agit d'un des opérateurs les plus simples qui donne toutefois des résultats
corrects.

▪ Opérateurs de Sobel (1972) est un opérateur très populaire.

231
Détection de contours
3. Approximation du Gradient

B. Filtre Sobel:
Les filtres de Sobel sont les suivants :
Filtre horizontal :

h=

Filtre vertical :
v=
232
Détection de contours
3. Approximation du Gradient

B. Filtre Sobel:

233
Détection de contours
B. Filtre Sobel:

Détection avec Sobel


sans seuillage

Seuillage avec Seuillage avec


S=25 S=60

234

Vous aimerez peut-être aussi

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy