Géneralités Sur Le Traitement DimagesIntroduction

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 8

Chapitre I généralité sur le traitement d’images

I.0 Introduction
Le traitement d’images est un domaine très vaste qui a connu, et qui connaît encore, un
développement important depuis quelques dizaines d’années.
On désigne par traitement d'images numériques l'ensemble des techniques permettant de
modifier une image numérique afin d'améliorer ou d'en extraire des informations.
De ce fait, le traitement d’images est l’ensemble des méthodes et techniques opérant
sur celles-ci, dans le but de rendre cette opération possible, plus simple, plus efficace et plus
agréable, d’améliorer l’aspect visuel de l’image et d’en extraire des informations jugées
pertinentes.
Dans ce chapitre, nous présentons quelques notions de base du domaine de traitement d’image
numérique tels que : la définition d’mage, les types d’image, caractéristiques d’image,
système de traitement d’image, analyse élémentaire, filtrage, La convolution Ensuite, nous
allons donner un aperçu sur les différents techniques connues dans ce domaine.
I.1 Définition de l’image
Une image est plutôt difficile à décrire d'une façon générale. Une image est une
représentation du monde. En traitement d'image, la majorité du temps, on considère qu'il s'agit
d'une fonction mathématique de RxR dans R où le couplet d'entrée est considéré comme
une position spatiale, le singleton de sortie comme l'intensité (couleur ou niveaux de gris) du
phénomène physique. Il arrive cependant que l'image soit dite "3D" donc la fonction est de
RxRxR dans R. Les images couleurs peuvent être représentées soit par trois images
représentant les trois couleurs fondamentales, soit par une image de RxR dans RxRxR.
L’image numérique est l’image dont la surface est divisée en éléments de tailles fixes
appelés cellules ou pixels, ayant chacun comme caractéristique un niveau de gris ou de
couleurs prélevé à l’emplacement correspondant dans l’image réelle, ou calculé à partir d’une
description interne de la scène à représenter.
I.2 Acquisition d'une image
L’acquisition d’images constitue un des maillons essentiels de toute chaîne de
conception et de production d’images. Pour pouvoir manipuler une image sur un système
informatique, il est avant tout nécessaire de lui faire subir une transformation qui la rendra
lisible et manipulable par ce système. Le passage de cet objet externe (l’image d’origine) à sa
représentation interne (dans l’unité de traitement) se fait grâce à une procédure de
numérisation.
 les caméras numériques,
 les scanners.
A ce niveau, notons que le principe utilisé par le scanner est de plus en plus adapté aux domaines
professionnels utilisant le traitement de l’image comme la télédétection, les arts
graphiques, la médecine, etc. Le développement technologique a permis l’apparition de
nouveaux périphériques d’acquisition appelés cartes d’acquisition, qui fonctionnent à l’instar
des caméras vidéo, grâce à un capteur C.C.D. (Charge Coupled Device). La carte
d’acquisition reçoit les images de la camera, de la T.V. ou du scanner afin de les convertir en
informations binaires qui seront stockées dans un fichier. L'une des caractéristiques
Chapitre I généralité sur le traitement d’images

intéressantes de ces capteurs est la taille du plus petit élément (pixel), mais aussi l'inter
corrélation de deux éléments voisins : plus cette inter corrélation est faible, meilleure est
l'image.
I.3 Image numérique :(numérisée) :
L'image numérique est l'image dont la surface est divisée en éléments de taille fixe
appelés cellules ou pixels, ayant chacun comme caractéristique un niveau de gris ou de
couleurs.
La numérisation d'une image est la conversion de celle-ci de son état analogique en une
image numérique représentée par une matrice bidimensionnelle de valeurs numériques
f(x, y), comme la montre la figure où : x, y: coordonnées cartésiennes d'un point de l'image.
f(x, y) : niveau d’intensité.
La valeur en chaque point exprime la mesure d'intensité lumineuse perçue par le capteur.

I.4Caractéristiques d’une image numérique


L’image est un ensemble structuré d’informations caractérisé par les paramètres suivants:
I.4.1 Dimension
C’est la taille de l’image. Cette dernière se présente sous forme de matrice dont les
éléments sont des valeurs numériques représentatives des intensités lumineuses (pixels).
Le nombre de lignes de cette matrice multiplié par le nombre de colonnes nous donne le nombre
total de pixels dans une image.
I.4.2 Résolution
C’est la clarté ou la finesse de détails atteinte par un moniteur ou une imprimante dans la
production d’images. Sur les moniteurs d’ordinateurs, la résolution est exprimée en nombre de
pixels par unité de mesure (pouce ou centimètre). On utilise aussi le mot résolution pour
désigner le nombre total de pixels affichables horizontalement ou verticalement sur un
moniteur; plus grand est ce nombre, meilleure est la résolution.
Chapitre I généralité sur le traitement d’images

I.4.3 Bruit
Un bruit (parasite) dans une image est considéré comme un phénomène de brusque variation de
l’intensité d’un pixel par rapport à ses voisins, il provient de l’éclairage des dispositifs optiques
et électroniques du capteur.
I.4.4 Histogramme
L’histogramme des niveaux de gris ou des couleurs d’une image est une fonction qui donne
la fréquence d’apparition de chaque niveau de gris (couleur) dans l’image. Il permet de donner
un grand nombre d’information sur la distribution des niveaux de gris (couleur) et de voir entre
quelles bornes est repartie la majorité des niveaux de gris (couleur) dans le cas d’une
image trop claire ou d’une image trop foncée. Il peut être utilisé pour améliorer la qualité
d’une image (Rehaussement d’image) en introduisant quelques modifications, pour pouvoir
extraire les informations utiles de celle-ci. Pour diminuer l’erreur de quantification, pour
comparer deux images obtenues sous des éclairages différents, ou encore pour mesurer
certaines propriétés sur une image, on modifie souvent l’histogramme correspondant.

Figure I-3 : Image avec histogramme.


I.4.5 Luminance
C’est le degré de luminosité des points de l’image. Elle est définie aussi comme étant le quotient
de l’intensité lumineuse d’une surface par l’aire apparente de cette surface, pour un observateur
lointain, le mot luminance est substitué au mot brillance, qui correspond à l’éclat d’un objet.
Des images lumineuses (brillantes);
 Un bon contraste : il faut éviter les images où la gamme de contraste tend vers le blanc
ou le noir; ces images entraînent des pertes de détails dans les zones sombres ou
lumineuses.
 L’absence de parasites.
I.4.6 Contraste
C’est l’opposition marquée entre deux régions d’une image, plus précisément entre les régions
sombres et les régions claires de cette image. Le contraste est défini en fonction des luminances
de deux zones d’images. Si L1 et L2 sont les degrés de luminosité respectivement de deux
zones voisines A1 et A2 d’une image, le contraste C est défini par le rapport
Chapitre I généralité sur le traitement d’images

:
I.4.7 Images à niveaux de gris
Le niveau de gris est la valeur de l’intensité lumineuse en un point. La couleur du pixel peut
prendre des valeurs allant du noir au blanc en passant par un nombre fini de niveaux
intermédiaires. Donc pour représenter les images à niveaux de gris, on peut attribuer à chaque
pixel de l’image une valeur correspondant à la quantité de lumière renvoyée. Cette valeur peut
être comprise par exemple entre 0 et 255. Chaque pixel n’est donc plus représenté par un bit,
mais par un octet. Pour cela, il faut que le matériel utilisé pour afficher l’image soit capable de
produire les différents niveaux de gris correspondant.
Le nombre de niveaux de gris dépend du nombre de bits utilisés pour décrire la "
couleur " de chaque pixel de l’image. Plus ce nombre est important, plus les niveaux
possibles sont nombreux .
3.3.8 Images en couleurs
Même s’il est parfois utile de pouvoir représenter des images en noir et blanc, les
applications multimédias utilisent le plus souvent des images en couleurs. La représentation des
couleurs s’effectue de la même manière que les images monochromes avec cependant
quelques particularités. En effet, il faut tout d’abord choisir un modèle de représentation. On
peut représenter les couleurs à l’aide de leurs composantes primaires. Les systèmes émettant de
la lumière (écrans d’ordinateurs,...) sont basés sur le principe de la synthèse additive : les
couleurs sont composées d’un mélange de rouge, vert et bleu (modèle R.V.B.).
I.5 Types d’images
On distingue trois types d’images :
 Binaire : 2 couleurs (arrière-plan et avant-plan).
 Monochrome : variations d’une même teinte.
 Polychrome : ‘’ vraies‘’ couleurs.
I.5.1 Images binaires (en noir et blanc)
Les images binaires sont les plus simples. Bichromes (dont les pixels ne peuvent avoir que les
valeurs 0 et 1) .Le 0 correspond à un pixel noir et 1 à un pixel blanc. Le niveau de gris est donc
codé sur un seul bit.

Figure I-4 : Image binaire.


Chapitre I généralité sur le traitement d’images

I.5.2 Images à niveaux de gris (Monochromes)


Le niveau de gris est la valeur de l'intensité lumineuse en un point. La couleur du pixel peut
prendre des valeurs allant du noir au blanc en passant par un nombre fini de niveaux
intermédiaires. Donc pour représenter les images à niveaux de gris, on peut attribuer à chaque
pixel de l'image une valeur correspondant à la quantité de lumière renvoyée. Cette valeur peut
être comprise par exemple entre 0 et 255. Chaque pixel n'est donc plus représenté par 1 bit,
mais par 1 octet. Pour cela, il faut que le matériel utilisé pour afficher l'image, soit capable de
produire les différents niveaux de gris correspondant.
Le nombre de niveaux de gris dépend du nombre de bits utilisés pour décrire la " couleur " de
chaque pixel de l'image. Plus ce nombre est important, plus les niveaux possibles sont
nombreux.[5]
I.5.3 Images en couleurs (Polychromes)
Elle est obtenue par la combinaison de trois couleurs dites primaires : rouge, vert
et bleu(RVB) .chaque couleur est codée comme une image à niveaux de gris, avec des valeurs
allants de 0 à 255 .pour R=V=B=0 nous auront un noir pur, et pour R=V=B=255 nous auront
un blanc pur. La représentation des images couleurs se fait donc soit par une image dont la
valeur du pixel est une combinaison linéaire des valeurs des trois composantes couleurs, soit
par trois images distinctes représentant chacune une composante couleur, on distingue
généralement deux types d’images: [2]
 Images 24 bits ;
 Images à palettes ;

Figure I-5 : Image polychrome (65536 couleurs)


I.6 qualité de l’image numérique
Elle dépend, d’une part, de la qualité des images d’origine et, d’autre part, des
moyens mis en œuvre pour convertir un signal analogique en signal numérique. Elle
dépend aussi de :
 La qualité des périphériques de numérisation de l'image, du nombre de niveaux de
gris ou de couleurs enregistrées, etc.
 La qualité de l’affichage à l’écran : définition de l'écran, nombre de teintes
disponibles. [9]
Les critères d'appréciation de la qualité d'une image, tels que cités succinctement
ci-dessus, dépendent largement de la structure même de l'image réaliste ou
conceptuelle et de son mode de représentation (bitmap ou vectorielle).
I.7 Images bitmap et images vectorielles
Chapitre I généralité sur le traitement d’images

Les images appartiennent à deux grandes familles : bitmap (image-bit) et


vectorielle. Alors qu’une image vectorielle est décrite à l’aide de courbes et
d’équations mathématiques, une image bitmap est constituée de pixels et se réduit donc
à une matrice de points. Si les images vectorielles peuvent être manipulées avec
beaucoup de facilité, les modifications de taille, par exemple, apportées à une image
bitmap ne sont pas sans incidence.
I.8. Les domaines applicatifs

Les exemples et domaines d'applications du traitement d'image sont très nombreux. Les deux
principaux domaines, qui ont permis au Traitement d'Image de se développer sont :

 le domaine militaire :
o missiles en tous genres (autodirecteur (courte portée), de croisière (longue
portée), etc.),
o le renseignement (télédétection à partir d'images satellite dont la précision peut
aller aujourd'hui jusqu'à quelques centimètres, ou aériennes, la photo-
interprétation),
o les simulateurs « réels » (de vol avion, de char, etc.),
 le domaine médical :
o angiographie,
o radiographie,
o échographie,
o scanner,
o IRM, etc.

Mais, une multitude d'applications apparaissent dans des domaines divers allant :

 du domaine industriel :
o le contrôle de la qualité des produits en bout de chaîne (état de surface,
dimensionnement, forme, couleur, présence des comprimés par exemple dans
l'industrie pharmaceutique),
o le contrôle non destructif,
o les manipulations automatiques par des robots (« pick and place » : récupération
sur un tapis roulant pour mise en sachet ou dans un conteneur) y compris dans
l'industrie alimentaire en plus du contrôle de la composition, de la fraîcheur, etc.
 allant jusqu'au domaine du multimédia :
o la compression / décompression pour la transmission d'Images ou le stockage,
o l'amélioration de la qualité,
o la TV haute définition (Standard MPEG4),
o la TV en relief,
o le coloriage des dessins animés, des vieux films N&B,
o le remplacement des panneaux publicitaires dans des retransmissions sportives,
o le suivi optimal automatique du porteur de balle dans un jeu tel que le football
américain,
o le tatouage d'image (pour prouver l'authenticité des documents, ainsi que leur
appartenance),
o la recherche d'images par le contenu dans des banques d'images,
o la recherche de plan de rupture entre deux scènes dans une vidéo (pour le codage
MPEG 4 par exemple),
Chapitre I généralité sur le traitement d’images

o la vidéo-conférence : reconnaissance des éléments pertinents d'un visage pour la


modélisation adaptée à la transmission d'images (MPEG 4), en passant par de
nombreux domaines dont :

 l'imagerie civile satellitaire et aérienne :


o la météorologie : les prévisions à partir des images du satellite Météosat en
estimant les déplacements futurs des fronts nuageux,
o la cartographie,
o diverses études sur la répartition des sols : emprise des villes, désertification,
évolution des embouchures de fleuves (Mont-Saint-Michel, Venise),
déforestation, etc.
o l'aménagement du territoire : la reconstruction de modèles numériques de terrain
(altitude en fonction de la position) permet de générer des vues synthétiques d'un
paysage dans lequel on pourra inclure des éléments futurs tels que lignes à haute
tension, barrages, routes, autoroutes.
 la reconnaissance de caractères, de documents :
o le photocopieur intelligent, capable d'analyser le document et de séparer zones
de texte, de dessins et graphiques, d'images et de les traiter différemment, de
déterminer les directions principales et ainsi de pouvoir redresser la copie d'un
original posé de travers,
o l'archivage de documents renseignés tels que les documents à remplir de la
Sécurité Sociale ou des Caisses d'Allocations Familiales : comprend le contenu,
et met à jour le dossier dans la base de données,
o le tri automatique du courrier postal,
o la reconnaissance automatique des plaques d'immatriculation de véhicules :
fonction qui équipe les radars automatiques qui se généralisent aujourd'hui sur
nos routes et autoroutes,
 la robotique mobile et autonome militaire :
o le robot aidant le fantassin sur le champ de bataille, par exemple pour le transport
de charges lourdes (« robot mule ») et l'inspection du dessous des véhicules à la
recherche d'engins explosifs,
o mais également civile : robot (le même !) aidant le sauveteur dans des
décombres, ou l'ouvrier agricole dans les champs lors de la récolte(9),
o les robots sans pilote : « martien », avion (drone), sous-marin,
 la conduite assistée(10) par ordinateur, à la conduite automatique :
o suivi de routes,
o reconnaissance des panneaux (signalisation verticale),
o reconnaissance des voies de circulation (signalisation horizontale), le
positionnement latéral (la bonne file) et longitudinal (distance par rapport au
véhicule précédent) du véhicule sur la chaussée,
o la détection d'obstacles,
o détection de piétons, de cyclistes, de présence dans les angles morts,
o détection de l'endormissement du conducteur, l'assistance au parking, caméra de
recul,
 la régularisation de flux par le biais de comptage et suivi d'objets :
o automobiles : temps de parcours, indication de vitesse ou de proximité par
rapport au véhicule précédent,
o personnes : réduction des files d'attente,
 la surveillance de sites ou locaux stratégiques, protection de données :
Chapitre I généralité sur le traitement d’images

o éléments biométriques : empreintes, iris, visage pour la reconnaissance de


personnes autorisées, la validation d'identité et la détection d'intrus,
o la vidéo protection : détection automatique de situation à problèmes,
o la thermographie infrarouge (nécessite le recalage d'images des domaines du
visible et infrarouge thermique ainsi que du plan cadastral) pour évaluer
l'isolation des toitures des habitations individuelles, collectives, des bâtiments
publics, et de l'isolation des canalisations d'eau chaude, servant aux chauffages
collectifs par chaudière classique ou géothermie.
o l'Interaction Homme Robot : comment le robot peut-il comprendre l'homme
dans le cadre d'une interaction non verbale, dans le cadre de la robotique de
service, d'assistance ou de compagnie :

et enfin la reconnaissance d'objets pour de multiples applications :

o la recherche de mines et d'explosifs dans le cadre de la robotique militaire,


o la recherche d'un verre, d'une bouteille, d'une boîte de médicaments dans le cadre
de la robotique d'assistance à personne à mobilité réduite,
o la reconnaissance de panneaux routiers dans le cadre de la conduite assistée ou
automatique.

Vous aimerez peut-être aussi

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy