Amrouni S.
Amrouni S.
Amrouni S.
MEMOIRE DE MAGISTER
en Automatique
Option : Traitement d’Images et Reconnaissance de Formes
Présenté par
AMROUNI Samia
Ingénieur U.M.M.T.O.
Thème
remercie pour ses encouragements pour surmonter les moments difficiles tout le
long de ce travail.
Nous tenons aussi à exprimer notre gratitude à toutes les personnes qui
l’élaboration de ce travail.
Sommaire
Conclusion générale………………..………………………………………..74
Introduction générale
Introduction générale
1
Introduction générale
2
Chapitre I Généralités sur la recherche d’images par le contenu
Chapitre I
Généralités sur la recherche d’images par
le contenu
1.1 Introduction
3
Chapitre I Généralités sur la recherche d’images par le contenu
4
Chapitre I Généralités sur la recherche d’images par le contenu
5
Chapitre I Généralités sur la recherche d’images par le contenu
6
Chapitre I Généralités sur la recherche d’images par le contenu
7
Chapitre I Généralités sur la recherche d’images par le contenu
hors ligne
en ligne
8
Chapitre I Généralités sur la recherche d’images par le contenu
Les bases d’images: Une base d’images ou une banque d’images est
définie par la donnée principale dans un système de recherche d’images
par le contenu. Les bases d’images varient par leurs tailles qui peuvent
atteindre un milliard d’images. Cette taille impose des contraintes sur la
complexité des traitements effectués sur chaque image. Les bases
d’images sont regroupées en deux grandes catégories pour la recherche et
l’indexation. La première catégorie est dite spécialisée. Comme son nom
l’indique, cette base d’images spécialisée contient des images d’un
domaine particulier comme la base d’images médicales, tel que le
dépistage du cancer du sein dans les bases mammographiques [16], et
l’authentification des individus dans les bases d’images d’iris [17] etc. La
deuxième catégorie est dite généraliste ou hétérogène. Les bases d’images
généralistes contiennent des catégories d’images de sujet très différents
comme par exemple le soleil, la montagne, la mer, les animaux etc.
Lors de la manipulation, la différence principale qui réside entre ces deux
catégories de bases spécialisées ou généralistes est que les bases
spécialisées ont le plus souvent un contenu sémantique homogène et la
recherche d’images dans de telles bases est un problème spécifique à un
domaine bien particulier.
Dans la catégorie de bases généralistes où les images ont des contenus
assez différents, la recherche nécessite une classification en familles
d’images spécialisées afin de passer aux étapes de l’indexation et de la
recherche [11].
1.4.2 L’indexation
Dans les bases de données d'images, représentants des volumes
d'informations de plus en plus considérables, une indexation automatique
des images basée sur le contenu est devenue la méthode la plus adaptée
9
Chapitre I Généralités sur la recherche d’images par le contenu
pour gérer ces masses de données. L’image étant représentée sous forme
de matrice de pixels, son contenu brut ne peut être directement exploité
pour la représentation d’images car la manipulation de tous les pixels de
l’image est une opération pénible. Il est donc nécessaire de passer par une
étape d’extraction des caractéristiques visuelles de l’image. Ce qui permet
d’avoir une représentation plus facilement manipulable. Cette indexation
consiste en l’extraction, de chaque image, un descripteur qui va la
représenter fidèlement lors de la recherche et qui va être moins
encombrant, ce qui permet une meilleure organisation des données
images de la base, de limiter la quantité de données examinées durant
une recherche, d’y accéder rapidement et de confiner la recherche au
maximum. Cette étape est hors ligne car, durant cette phase l’utilisateur
n’est pas connecté à la base d’images.
1.4.3 La recherche
Une fois la base d’images indexée, le système passe à l’étape de la
recherche où l’utilisateur intervient avec sa requête. Cette dernière sera
indexée de la même manière que celles de la base et représentée par un
vecteur de caractéristiques. La recherche implique de fouiller dans la
base, trouver les plus proches voisins de la signature associée à l’image
requête. La performance d’un système RIC dépend essentiellement du
choix des descripteurs employés et des techniques associées à leur
extraction. La description des images peut être de bas niveau ou de haut
niveau.
La description bas niveau se focalise seulement sur le contenu de l’image
pour l’extraction des attributs visuels qui sont principalement la couleur,
la texture, la forme, les points d’intérêt etc. L’extraction se fait grâce à des
calculs mathématiques sur les pixels de l’image. C’est ce cas qui fera
l’objet de notre étude.
Par contre, la description de haut niveau s’intéresse non seulement à la
description visuelle du contenu de l’image mais aussi à l’interprétation du
contenu de l’image, d’où l’appellation de description sémantique.
10
Chapitre I Généralités sur la recherche d’images par le contenu
11
Chapitre I Généralités sur la recherche d’images par le contenu
1.5.1 La couleur
La couleur est un attribut largement utilisé dans les systèmes de
recherche d’image par le contenu. La couleur permet de faciliter
l’extraction et l’identification d’un objet dans une scène. Les travaux de
Swain et Ballard [4] relatifs à l’indexation de la couleur constituent la
référence et marquent les débuts de l’indexation de l’image. De nombreux
travaux et méthodes existent pour l’indexation de la couleur. Cela fera
l’objet d’une présentation détaillée dans le prochain chapitre.
1.5.2 La texture
La texture est une caractéristique facile à reconnaitre mais, en
même temps, très difficile à définir. Cependant, une texture est un
attribut représentant la distribution spatiale des niveaux de gris des
pixels d’une région. Elle se traduit aussi par un arrangement spatial des
pixels que la couleur, seule, ne suffit pas à décrire [21].
1.5.3 La forme
L'utilisation de descripteurs de forme n'a de sens que sur une image
segmentée. Pour extraire les descripteurs d'une forme, la première
opération consiste à définir sa fonction caractéristique. En général, elle est
représentée sous la forme d'un masque dans lequel chaque pixel est
représenté par le numéro de la région à laquelle il appartient [22]. C'est à
partir de cette fonction, que sont calculés la plupart des descripteurs de
forme, soit à partir de la région entière, soit à partir des contours
seulement.
12
Chapitre I Généralités sur la recherche d’images par le contenu
13
Chapitre I Généralités sur la recherche d’images par le contenu
Où ܫଵ(݅) , ܫଶ(݅) représentent les i±୫ ୣୱ éléments des vecteurs ܫଵ et ܫଶ
respectivement, p définie le facteur de Minkowski ሺ ͳሻ, n représente la
dimension de l’espace caractéristique.
Pour p=1, on aura la distance de Manhattan (appelée city block) :
14
Chapitre I Généralités sur la recherche d’images par le contenu
ୢౠ
a୧୨ = 1 − (8)
୫ ୟ୶ሺୢౠ)
d୧୨ est la distance dans l’espace considéré et max (d୧୨), le maximum global
de cette distance.
15
Chapitre I Généralités sur la recherche d’images par le contenu
où d୧୨ est la distance entre deux pixels d’indices݆݅, ݃ représente le flot
optimal entre deux distributions, dont le coût total est
16
Chapitre I Généralités sur la recherche d’images par le contenu
∑ୀଵ
మ
݃ ≤ ܫଵ(݅)݅ (16)
∑ୀଵ
భ
∑ୀଵ
మ
݃ ൌ ݉ ݅݊ሺ ܫଵ(݅)ǡܫଶሺ݅ሻሻ. (17)
ூభ()
ܦ(ܫଵǡܫଶ) = ∑ܫଵ(݅)݈݃ (20)
ூమ()
17
Chapitre I Généralités sur la recherche d’images par le contenu
ூభ() ூమ()
ܦ (ܫଵǡܫଶ) = ∑ሺܫଵ(݅)݈݃ ഢ
ܫଶ(݅)݈݃ ഢ
) (21)
ூ ூ
Virage [25] Développé par Virage Inc. Virage tel que QBIC est un
système de recherche d’images et propose des requêtes portant sur la
couleur, la localisation des couleurs, la texture et la structure de l’image.
18
Chapitre I Généralités sur la recherche d’images par le contenu
ondelettes des images, suivie par une segmentation des régions à l’aide
des nuées dynamiques et par l’extraction d’attributs colorimétriques et de
texture. La comparaison entre les régions de l’image requête et celles de la
base d’images est réalisée par la distance de Mahalanobis.
contenu qui repose sur les régions caractérisées par la couleur, la texture,
la forme et la localisation spatiale, en procédant à une recherche par
région exemple.
19
Chapitre I Généralités sur la recherche d’images par le contenu
20
Chapitre I Généralités sur la recherche d’images par le contenu
1.10 Conclusion
La recherche d’image est une branche en plein développement.
Dans ce chapitre, nous avons donné un état de l’art sur la recherche
d’images par le contenu et son importance dans le domaine de traitement
d’images. Ensuite, nous avons décrit le principe de fonctionnement des
systèmes de recherche d’images qui se compose essentiellement d’une
donnée principale qui est la base d’images dont l’utilisateur fouille pour
extraire une ou plusieurs images dépendamment de son choix, ainsi une
requête exposée par cet utilisateur qui soit sous forme d’une image,
esquisse ou une requête par caractéristiques. Nous avons présenté les
différentes distances employées pour la mesure de similarité entre images.
Et enfin, nous avons donné une liste de quelques systèmes existants.
21
Chapitre II Méthodes d’indexation d’images
Chapitre II
2.1 Introduction
Rappelons que la recherche d’images par le contenu (RIC ou CBIR)
est une technique de traitement d’images qui vise à rechercher des
images à l’aide d’une requête portant sur les caractéristiques visuelles
d’une image telle que la couleur, la texture et la forme. Le résultat de cette
recherche sera une image ou un ensemble d’images ordonnées dans
l'ordre croissant de la valeur de la distance. La construction d’une base
des index commence par l’extraction des caractéristiques appropriées des
images. La couleur, la forme et la texture sont des caractéristiques
importantes pour la description du contenu des images. Par conséquent,
beaucoup de recherches se font sur la couleur, la forme et la texture afin
de pouvoir les utiliser dans la reconnaissance et l'interprétation des
images.
22
Chapitre II Méthodes d’indexation d’images
23
Chapitre II Méthodes d’indexation d’images
cet espace permet de séparer les trois informations relatives à la teinte (H),
qui représente la couleur pure (rouge, jaune, vert, bleu…etc.), la
saturation (S) qui donne des informations sur la quantité de blanc dans la
couleur pure et la valeur (V) correspondant à l’intensité lumineuse qui
indique si la couleur est claire ou sombre[11].
On représente cet espace par un cône, dont la teinte est représentée par
les angles du cône, la saturation est donnée par les rayons du cône et la
valeur est définie par la hauteur du cône, illustré par la figure (2).
24
Chapitre II Méthodes d’indexation d’images
Espace CIE Lab : C’est un espace couleur qui possède la bonne propriété
de respecter les distances entre les couleurs visuellement proches. Donc il
est perceptuellement uniforme. De même que le système précédent, il est
25
Chapitre II Méthodes d’indexation d’images
défini à partir de l’espace XYZ par des relations non-linéaires. Il est très
utilisé dans le domaine de la recherche d’image par le contenu. Dans [11]
Landré a fait sa représentation de couleur dans deux espaces couleur
l’espace HSV et l’espace CIE Lab pour avoir une meilleure description de
la couleur.
Espaces YUV, YIQ et UCbCr : Ces espaces sont semblables. YUV est
utilisé pour le codage des couleurs dans le système de télévision PAL, YIQ
pour le système NTSC, dont Y représente l’intensité, UV et IQ sont les
deux composantes de chrominance. Pour Cr et Cb correspondent aux
complémentaires du rouge et du bleu.
26
Chapitre II Méthodes d’indexation d’images
ଵ
ߪ = ට ∑ேୀଵሺܲ െ ߤ)ଶ (2)
ே
ܪ௦ሺܿሻൌ ∑ெୀ
ିଵ ே ିଵ
∑ୀ δ( Iୱ(i, j), c) α(i, j) (4)
ܫ௦est une image segmentée de taille M*N, c est la couleur du pixel (i,j), δ
est le symbole de Kronecker et α(i, j) est définie par :
ଵୱ୧୩ǡ୩ᇲ∊(ି ǡ )୍౩(୧ା୩ǡ୨ା୩ᇲ)ୀ୍౩(୧ǡ୨).
α(i, j) = {ୱ୧୬୭୬ (5)
27
Chapitre II Méthodes d’indexation d’images
ுೞሺୡሻ
SCR(c) = ( ܪ: Histogramme des couleurs) (6)
ு ሺሻ
2.2.6 Le corrélogramme
L’idée principale de cette méthode est inspirée des matrices de
cooccurrence, développés au départ pour les images en niveaux de gris
[38]. Le Corrélogramme a pour rôle de représenter les corrélations
spatiales entre les niveaux de gris en fonction de la distance inter pixels
utilisant la norme L∞ .(voir la formule (9)). Les corrélogrammes ont été
utilisées dans [39] pour l'indexation et la recherche d’image par le
contenu.
|ܲଵ െ ܲଶ| ൌ ݉ ܽݔ
ሼ|ݔଵ െ ݔଶ|, |ݕଵ െ ݕଶ|} (9)
|ܲଵ െ ܲଶ| :La distance entre ܲଵ݁ܲݐଶ de coordonnées (ݔଵǡݕଵ)݁ݔ(ݐଶǡݕଶ).
Pour une distance ݇ ͳ{ אǡʹǡǥ ݀} fixée à priori, le corrélogramme de la
couleur ܿ par rapport à la couleur ܿ est défini par :
28
Chapitre II Méthodes d’indexation d’images
29
Chapitre II Méthodes d’indexation d’images
30
Chapitre II Méthodes d’indexation d’images
ଵ
݄݅ = )݅(ݐݏே ∑ேୀଵ )(݃ܫൌൌ ݅ (i ∊ {1,2,..,ng}) (11)
La moyenne :
ଵ
ݕ ܯൌ ∑
ୀଵ ݅ݐݏ݄݅כሺ݅ሻ (12)
Ecart type:
ଵ
ܧ௧௬ = ට ∑
ୀଵ
(݅െ ݉ )ݕଶ ݄݅)݅(ݐݏ (13)
La variance :
ଵ
ܸܽ ݎൌ ∑ேୀଵ(݃ܫሺሻെ ݉ )ݕଶ (14)
ே
31
Chapitre II Méthodes d’indexation d’images
ܲǡሺ݀ǡߠሻൌ ݅ܩܰא ܾݎሾ2 ݆ܩܰ אห1 െ 2หൌ ݀ǡ ᩕ൫1 ǡ2 ൯ ൌ ߠሿ. (15)
1
32
Chapitre II Méthodes d’indexation d’images
Contraste
ݐ݊ܥൌ ∑∑ ቀ(݅െ ݆)ଶܲ(݀ǡߠ)ቁ (18)
33
Chapitre II Méthodes d’indexation d’images
34
Chapitre II Méthodes d’indexation d’images
0 ≤ u ≤N−1
Ͳ ܯെ ͳ.
35
Chapitre II Méthodes d’indexation d’images
Pour le cas d’une texture fine, le spectre sera maximum dans les hautes
fréquences, et inversement, si elle est plutôt grossière, le maximum sera
proche des basses fréquences. En effet, le spectre de Fourier rend compte
de la rugosité d’une texture.
మ మ
୶ᇲ ୷ᇲ
݃(x ᇱ, y ᇱ) = exp(− ଶమ − ଶమ) (29)
౮ ౯
36
Chapitre II Méthodes d’indexation d’images
ఓ
ߠ ൌ ܽ ݃ݐܿݎజబ (30)
బ
ଶ గఙ ி ାఈ
ܨ = ට ߤଶ ߭ , ܤൌ ଶ గఙഋ ிబିఈ (31)
ഋ బ
భ
ఈ ୪୭
ሺ)
ȳ ൌ ʹ ݃ݐܿݎܣగఙ ǡܽ ߙܿ݁ݒൌ ට ଶ ೞ : désigne un seuil de troncature.
ഔிబ
37
Chapitre II Méthodes d’indexation d’images
Les ondelettes ont été introduites pour la première fois par Grossman et
Morlet [49] comme un outil mathématique d’analyse des signaux
sismiques, et depuis, elle a été largement utilisée dans des applications
diverses en traitement d’images tels que le débruitage et la restauration
[50] et la compression d’images.
Cette méthode fera l’objet de notre étude et sera détaillée au chapitre
suivant.
ୡୟ୰ୢሺୖౡ)
S୩ = (32)
כ
38
Chapitre II Méthodes d’indexation d’images
39
Chapitre II Méthodes d’indexation d’images
Les moments de Hu
Hu [54] a permit de décrire une forme à l’intérieur d’une image à
l’aide de propriétés statistiques. Les moments de Hu sont simples à
manipuler, robustes aux changements d’échelle, la translation et la
rotation, mais leur temps de calcul est très long et sont sensibles aux
bruits. Cette méthode a été le sujet de plusieurs recherches. Dans sa
thèse, Landré [11] a caractérisé les formes des images de la base
paléontologique par les moments de Hu pour des imagettes approximation
résultantes d’une décomposition en ondelettes.
Ce descripteur fera l’objet de notre caractérisation de forme et il sera
détaillé au chapitre suivant.
40
Chapitre II Méthodes d’indexation d’images
ଵ ௗ ሺ௫మିଵሻ
[ א ݔ−1, 1]ǡ א ݊Գǡ ܲ (= )ݔ (39)
ଶ Ǩ ௗ௫
41
Chapitre II Méthodes d’indexation d’images
ାଵ
ܣ = ∑ே௫ୀ
ିଵ ∑ெ ିଵ
௬ୀ ݂(ݔǡ)ݕሾܸǡ ሺݔǡݕሻሿ
∗
(42)
గ
ሺି||ሻ ଶ ⁄ (ିଵ)ೞሺି௦ሻǨ
ܴǡሺݎሻൌ ∑௦ୀ శ|| ష|| ݎିଶ௦ (44)
௦Ǩቀ ି௦ቁǨሺ ି௦ሻǨ
మ మ
42
Chapitre II Méthodes d’indexation d’images
2.5 Conclusion
Dans ce présent chapitre nous avons dressé un état de l’art sur les
méthodes existantes pour l’indexation d’images. Au départ, nous avons
tenté de définir les différents attributs les plus pertinents pour la
caractérisation d’une image qui sont la couleur, la texture et la forme.
Nous avons défini la caractéristique couleur qui est généralement
représentée par trois composantes qui définissent un espace couleur. On
a aussi vu que parmi les méthodes de caractérisation de la couleur celles
qui ne tiennent pas compte de l’information sur la localisation spatiale des
couleurs dans l’image et celles qui tiennent compte de cette information.
On a ensuite passé à définir la texture qui peut être caractérisée par des
calculs statistiques sur les pixels de l’image (matrice de cooccurrence…)
ou par une analyse fréquentielle (ondelette et filtre de Gabor…). La
troisième caractéristique est la forme qui est aussi un attribut essentiel
pour représenter une image, ce qui a conduit au développement d’une
multitude de méthodes, celles basées sur la caractérisation contours [57],
et celles basées sur les régions [58].
Dans ce chapitre nous avons choisi les histogrammes couleurs HSV
pour la caractérisation de la couleur, les ondelettes pour la texture et
enfin nous avons préféré les moments de Hu pour la caractérisation de la
forme.
43
Chapitre III Tests et résultats
Chapitre III
Tests et résultats
3.1 Introduction
Une image numérique est représentée par une matrice de valeurs
codées sur un certain nombre de bits dont le traitement ne permet pas
souvent d’obtenir des temps de réponse escomptés. Dans certains cas, il est
nécessaire d’utiliser une représentation de dimension réduite pour mieux la
caractériser. Ainsi, des attributs caractéristiques de l’image sont extraits à
l’aide de fonctions mathématiques arrangés sous la forme d’un vecteur dit
descripteur de l’image.
L’objectif de ce chapitre est de tester les méthodes choisies pour la
caractérisation globale d’une image dans le but de rechercher des images par
leur contenu visuel en se basant sur les trois attributs, de couleur, de
texture et de forme.
La caractérisation de la couleur est réalisée par la méthode des
histogrammes. La base Coil 100 [59] représentant des images couleur est
utilisée pour nos tests et ce, en utilisant l’histogramme de l’image HSV où H
est la teinte (Hue), S, la saturation et V, la luminosité, la valeur ou la
brillance. Les autres bases d’images sont en niveaux de gris. La couleur est
donc indexée par les histogrammes niveaux de gris. Pour la texture, la
44
Chapitre III Tests et résultats
ଵ
݄ሺܿሻൌ ∑ேୀ0
ି1 ெ ି1
∑ୀ0 δ(couleur(i , j), c) ∀c ∊ C (1)
ெ כே
où δ est le symbole de Kronecker tel que δ(x, y)= 1 si x=y et δ(x, y)=0, sinon.
45
Chapitre III Tests et résultats
(a) (b)
Fig.1 (a) Image de Lena. (b) son histogramme des niveaux de gris.
46
Chapitre III Tests et résultats
d'une fonction mère ѱ(t) donnée par des opérateurs de dilatation ‘a’ et de
translation ’b’.
ା∞
ܥሺܽǡܾሻൌ ∫ି∞ x(t) ψ∗ a,b (t)dt (3)
1 tିb
Avec ψa,b (t) = ѱቀ ቁ , (4)
√a a
Fig.2 Quelques ondelettes les plus usuelles : (a) ondelette de Haar, (b)ondelette de
Daubechies db2, (c)ondelette de Morlet.
47
Chapitre III Tests et résultats
uns dans les autres. Le passage de l’un à l’autre est le résultat d’un
changement d’échelle. Ces sous-espaces sont appelés des espaces
d’approximation à l’échelle vérifiant les propriétés suivantes :
א݆ תԺǡܸ = 0 (6)
א݆Ժǡ ݂(ܸ א )ݔ ֞ ݂ሺʹିଵݔሻܸ אାଵ
א ݇Ժǡ ݂(ܸ א )ݔ ֞ ݂ሺ ݔെ ݇ሻܸ א
48
Chapitre III Tests et résultats
Les fonctions de base dilatées sont données par les relations suivantes :
షೕ
߶ǡ ( = )ݐ2 మ ߶൫ʹି௧ െ ݊൯݊ אԺ (8)
షೕ
߰ǡ ( = )ݐ2 మ ߰൫ʹି௧ െ ݊൯݊ אԺ (9)
L’approximation est caractérisée par la relation suivante :
ܣ݂ ൌ ∑ ൏ ݂ǡ߶ǡ > ߶ǡ (10)
ାஶ
൏ ݂ǡ߶ǡ > = ∫ିஶ ݂( ∗ ߶)ݐǡ ሺݐሻ݀ݐ: Le produit scalaire de f par ߶.
49
Chapitre III Tests et résultats
50
Chapitre III Tests et résultats
51
Chapitre III Tests et résultats
Soient :
݄ܧଵǡ݄ܧଶǡ ݄ܧଷǡ ݄ ܯଵǡ ݄ ܯଶǡ ݄ ܯଷǡ ݄ݐܧଵǡ ݄ݐܧଶ et ݄ݐܧଷ les énergies, les
moyennes et les écarts type des images de détails horizontaux suivant
les trois décompositions de niveau 1, 2 et 3 respectivement.
ݒܧଵǡݒܧଶǡ ݒܧଷǡ ݒ ܯଵǡ ݒ ܯଶǡ ݒ ܯଷǡ ݒݐܧଵǡ ݒݐܧଶ et ݒݐܧଷ les énergies, les
moyennes et les écarts type des images de détails verticaux suivant les
trois décompositions de niveaux 1, 2 et 3 respectivement.
݀ܧଵǡ݀ܧଶǡ ݀ܧଷǡ ݀ ܯଵǡ ݀ ܯଶǡ ݀ ܯଷ݀ݐܧଵǡ ݀ݐܧଶ et ݀ݐܧଷ les énergies, les
moyennes et les écarts type des images de détails diagonaux suivant les
trois décompositions de niveaux 1, 2 et 3 respectivement.
ଶ
ݐݏ݅ܦ൫ܸ௧௫௧௨ǡܸ௧௫௧௨௨൯= ට ∑ேୀଵหܸ௧௫௧௨(݊) െ ܸ௧௫௧௨௨(݊)ห (15)
52
Chapitre III Tests et résultats
calcul est très long et sont sensible aux bruits. Leur calcul se base sur les
moments géométriques, ce qui est montré dans le chapitre précédent. Les
moments centrés sont définis comme suit :
ߤ = ∑ୀ ∑ୀሺ ݔെ ݔ)ሺ ݕെ ݕ) ݂ሺݔǡݕሻ (16)
53
Chapitre III Tests et résultats
ଶ
ݐݏ݅ܦ൫ܸ௨ǡܸ௨௨൯ൌ ට ∑ୀଵหܸ௨(݇) െ ܸ௨௨(݇)ห (26)
3.5.1 Le rappel
Le rappel est défini par le nombre d’images retrouvées au regard du
nombre d’images pertinentes que possède la base de données. Cela signifie
que lorsque l’utilisateur interroge la base il souhaite voir apparaître toutes
les images qui pourraient répondre à son besoin d'informations. Le rappel est
donc un rapport défini par le nombre d’images pertinentes retrouvées sur le
nombre d’images pertinentes dans la base d’image. Il est définit comme suit :
|ת|
ܴ݈ܽ݁ൌ ||
∈ [0,1] (27)
54
Chapitre III Tests et résultats
3.5.2 La précision
La précision est le nombre d’images pertinentes retrouvées rapporté au
nombre d’images total proposé par le moteur de recherche pour une requête
donnée. Donnée comme suit :
|ת|
ܲ ݊݅ݏ݅ܿ݁ݎൌ ||
∈ [0,1] (28)
55
Chapitre III Tests et résultats
Une courbe rappel-précision est dite idéale si la précision est égale à un pour
toutes les valeurs du rappel.
56
Chapitre III Tests et résultats
57
Chapitre III Tests et résultats
58
Chapitre III Tests et résultats
59
Chapitre III Tests et résultats
60
Chapitre III Tests et résultats
61
Chapitre III Tests et résultats
Après les tests effectués sur l’ensemble des bases d’images, cette
méthode à donné de bon résultats pour retrouver les images similaires à une
image requête ce qui prouve sa capacité dans le domaine de la recherche
d’images par le contenu texture.
62
Chapitre III Tests et résultats
63
Chapitre III Tests et résultats
64
Chapitre III Tests et résultats
ܲ௧ 1 1 1 1 1 1 1 1 0.727 0 0
ݎ௧ 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
65
Chapitre III Tests et résultats
1,2
0,8
0,6
histoNG
0,4
0,2
0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
(a)
1,2
1
0,8
0,6
ondelettedb2
0,4
0,2
0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
(b)
66
Chapitre III Tests et résultats
1,2
1
0,8
0,6
momentHu
0,4
0,2
0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
(c)
Fig.23. Les courbes rappel-précision pour une image requête dans base ORL.
(a) : par la méthode de l’histogramme niveau de gris. (b) : par la méthode des
ondelettes db2. (c) par la méthode des moments de Hu.
De la même procédure, on trace les courbes pour toutes les bases d’images.
1,2
0,8
histoNG
0,6
ondelettedb2
0,4 momentHu
0,2
0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
1,2
0,8
histoHSV
0,6
ondelettedb2
0,4 momentHu
0,2
0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
67
Chapitre III Tests et résultats
1,2
0,8
0,6 histoNG
ondelettedb2
0,4
momentHu
0,2
0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
1,2
0,8
histoNG
0,6
ondelettedb2
0,4 momentHu
0,2
0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
68
Chapitre III Tests et résultats
69
Chapitre III Tests et résultats
L’image résultante sera une image moins bruitée mais qui présente un flou
de lissage. L’objectif de cette étape est de tester la sensibilité au bruit des
méthodes étudiées.
Nous testons nos méthodes sur une image requête dégradée, dont
l’image originale est présente parmi les images de la base. Le résultat affiche
douze images résultantes, organisées de la distance la plus petite à la
distance la plus grande, de haut en bas et de gauche à droite. L’image
requête est affichée en haut et à gauche des images et son image originale
est affichée en bas de la requête.
Les figures suivantes donnent quelques résultats.
Fig. 28. Résultat de la recherche d’images dans la base ORL pour une image
requête dégradée en utilisant la méthode d’histogramme NG.
Fig. 29. Résultat de la recherche pour une image requête dégradée utilisant
l’histogramme HSV.
70
Chapitre III Tests et résultats
Fig.31. Résultat de la recherche dans la base ORL pour une image requête
dégradée en utilisant la méthode des ondelettes.
71
Chapitre III Tests et résultats
3.10 Conclusion
Dans ce présent chapitre, nous avons commencé notre travail par la
présentation des différentes méthodes que nous avons choisis pour la
recherche d’images par le contenu. Les histogrammes niveau de gris ont été
utilisés pour la recherche d’images dans les bases en niveau de gris. Les
histogrammes HSV sont préférables pour les images en couleur. Nous avons
aussi caractérisé la texture par la méthode des ondelettes db2. Ainsi, nous
avons choisi les moments de Hu pour la recherche d’images par la forme.
Dans la plupart des résultats, les méthodes de la recherche par la
couleur et la texture ont donné de bons résultats que les moments de Hu.
On peut conclure que les histogrammes présentent de bonnes méthodes
pour la recherche d’images par le contenu. Ainsi que les ondelettes sont elles
aussi une méthode très efficace dans la recherche d’images par la
caractéristique texture, ce qui revient aux résultats offerts par cette
méthode.
Nous avons aussi étudié l’influence du bruit sur la sensibilité des
méthodes étudiées. L’image requête a été dégradée par un bruit gaussien.
Nous avons ensuite tenté de récupérer les images avec débruitage par un
filtre gaussien. Le résultat est une image requête floue avec moins de bruit.
72
Chapitre III Tests et résultats
73
Conclusion Générale
Conclusion Générale
74
Conclusion Générale
75
Bibliographie
[1] J. Jeon, V. Lavrenco, R. Manmatha. Automatic image annotation and retrieval using
crossmedia relevance models. In Preceedings of the 26th annual international ACM
SIGIR conference on Research and development in information retrieval SIGIR’03.
2003.
[2] A.W.M. Smeulders, M. Worring, S. Santini, A. Gupta, R. Jain. Content-based image
retrieval at the end of the early years, IEEE Transactions on Pattern Analysis and
Machine Intelligence 22 (12) (2000) 1349–1380.
[3] T. Kato, K. Hirata. Query by visual exemple in content-based image retrieval,
Proc.EDB192. Lecture Notes in computer Science, 1992, p. 56-71.
[4] M. J. Swain et D. H. Ballard. Color indexing. International journal of computer
vision, 7(1):11–32, 1991.
[5] S. A. Berrani. Recherche approximative de plus proches voisins avec contrôle
probabiliste de la précision : application à la recherche d’images par le contenu.
PhD thesis,Université de Rennes 1, février 2004.
[6 ] S. Cohen. Finding colors and shape patterns in images. PhD thesis, Stanford
University, 1999.
[7] E. Loupias. Indexation d’images : aide au télé-enseignement et similarités
préattentives. PhD thesis, Institut National des Sciences Appliquées de Lyon, 2000
[8] P. Lambert and H. Grecu. Indexation par descripteurs flous : Application à la
recherche d’images. 18ème colloque sur le traitement du signal et des images
(GRETSI01), II :372–379, 2001.
[9] J. Fauqueur. Contributions pour la recherche d’images par composantes visuelles.
PhD thesis, Université de Versailles - Saint-Quentin, 2003.
[10] L. Amsaleg, P. Gros, R. Mezhoud. Mise en base d’images indexées par des
descripteurs locaux : problèmes et perspectives. Institut National de Recherche en
Informatique et en Autoatique. INRIA 2000.
[11] J. Landré. Analyse multi-résolution pour la recherche et l’indexation d’images par le
contenu dans les bases de données application à la base d’image paléontologique
Trans’Tyfipal. Université de Bourgogne. Thèse de Doctorat, décembre 2005.
[12] H. ABED, L. ZAOUI, Z. GUEZZEN. Fusion Couleur Texture dans l’Indexation et la
Recherche des Images. JIG’2007 - 3èmes Journées Internationales sur
l’Informatique Graphique.
[13] R. KACHOURI. Classification multi-modèles des images dans les bases hétérogènes.
Université d’Evry-Val d’Essonne. Thèse de doctorat, 2010.
[14] Ela Yildizer, Ali Metin Balci, Mohammad Hassan, Reda Alhajj, Efficient content-based
image retrieval using Multiple Support Vector Machines Ensemble, Expert Systems
with Applications, Volume 39, Issue 3, 15 February 2012, Pages 2385-2396.
[15] WangXing-yuan, ChenZhi-feng, YunJiao-jiao, An effective method for color image
retrieval based on texture, Computer Standards & Interfaces Volume 34 (2012)
Pages 31–35.
[16] Cheikhrouhou, I., Djemal, K., Masmoudi, D., Maaref,H., and Derbel, N. 2009.
Empirical descriptors evaluation for mass malignity recognition. In the First
International Workshop on Medical Image Analysis and Description for Diagnosis
Systems MIAD’09.
[17] H. Jlassi, and K. Hamrouni. Detection of blood vessels in retinal images.
International Journal on Image Graphics, 10(1) : 57-72. 2010
[18] S. Bedouhene. Recherche d’images par le contenu. Mémoire de magister. Université
Tizi Ouzou. 2011.
[19] [WAN 01] WANG J. Z., LI J., WIEDERHOLD G., « SIMPLIcity : Semantics-sensitive
Integrated Matching for Picture Libraries », IEEE Transactions on Pattern Analysis
and Machine Intelligence (PAMI), 2001.
[20] Mikolajczyk, K., Tuytelaars, T., Schmid, C., Zisserman, A., Matas, J., Schaffalitzky,
F., Kadir, T., and Gool,L. A comparaison of affinene region detectors. International
Journal of Computer Vision 2(65). 43-72. 2005
[21] J. Zhang, T.Tan Brief review of invariant texture analysis methods. Pattern
Recognition 35 (2002) 735–747.elsvier
[22] C. L. Jordan, T. Ebrahimi, m. Kunt, Progressive content- basedshape compression
for retrieval of of binary images, Computer vision and Image Understanding 71 (2)
(1998), 198-212.
[23] J. Hafner et al, "Efficient color histogram indexing for quadratic form distance
functions", IEEE trans. Pattern Analysis and Machine Intelligence, Vol. 17, pp 729-
736, 1995.
[24] M. Flickner, H. Sawhney, W. Niblack, J. Ashley, Q.Huang,B. Dom, M. Gorkani, J.
Hafner, D. Lee, D. Petkovic, D, Steele, and P. Yanker. Query by image and video
content: The qbic system. IEEE Computer, 28(9) :23 32,1995.
[25] GUPTA A. et al., « The Virage image search engine : an open framework for image
management », SPIE Storage and Retrieval for Image and Video Databases, vol.
2670, 1996.
[26] W. Ma and B. S. Manjunath. Netra : A toolbox for navigating large image databases.
Multimedia Syst, 7(3) :184 198, 1999
[27] S. Ardizzoni, I. Bartolini, and M. Patella. Windsurf : Region-based image retreival
using wavelets. DEXA Workshop, pages 167-173, 1999.
[28] A. Pentland, R. W. Picard, and S, Sclaroff. Photobook : content- based manipulation
of image databases. Int, J, Comput, Vision,18(3) :233 254, 1996
[29] T. Quach, U. Monich, B.S. Manjunath. A system of large scale, content based web
image retrieval. Universite California Santa Barbara 2004.
[30] C. Carson, M. thomas, S. Belongie, J. M. Hellerstein, and J, Malik. Blobworld : A
system for region-based image indexing and retrieval. In Visual ’99 : Proceedings of
the Third International Conference on Visual Information and Information Systems,
Pages 509 516, London, UK,1999. Springer-Verlag.
[31] J. R. Smith and S. F. Chang. Visualseek : A fully automated contentbased image
query system. In ACM Multimedia Conference, Page 87 98, 1996.
[32] BOUJEMAA N., FAUQUEUR J., FERECATU M., FLEURET F., GOUET V., SAUX B. L.,
SAHBI H., « IKONA : Interactive Generic and Speci_c Image Retrieval », International
workshop on Multimedia Content-Based Indexing and Retrieval (MMCBIR'2001),
Rocquencourt, France, 2001.
[33] Stehling, R. O., Nascimento, M. A., and A. X . Falcao . On Shapes of Colors` for
Content-based Image Retrieval. In ACM International Workshop on Multimedia
Information Retrieval, 2000, 171-1
[34] M. A. Stricker and M. Orengo. Similarity of color images . In SPIE, Storage and
Retrieval for image Video Databases, pages 381-392, 1995.
[35] S. Deb, Y. Jhang, An Overview of Content-based Image Retrieval Techniques,
Proceedings of the 18t International Conference on Advanced Information Networking
and Application (AINA’04), 2004 IEEE.
[36] K Houari. Recherche d’images par le contenu. Université MENTOURI. Constantine.
Thèse de Doctorat science en informatique. 2010
[37] H. S. Sawhney and J. L. Hafner. EFFICIENT COLOR HISTOGRAM INDEXING.
Machine Vision Group.IBM Almaden Research Center. 1994 IEEE.
[38] R.M. Haralick. Statistical and structural approachs to texture. Proceedings of the
IEEE In Proceedings of the IEEE, Vol. 67, No. 5, pages 786–804, may 1979.
[39] J. Huang, R. Kumar, M. Mitra, W. Zhu, W. Zahib, Image indexing using color
correlogram, in: IEEE Conference on Computer Vision and Pattern Recognition,
San Juan, Puerto Rico, June (1997) 762–768.
[40] M. Ortega, Y. Rui, K. Chakrabarti, S. Mehrotra, and T. S. Huang. Supporting
similarity queries in MARS. In Proceedings of the 5th ACM International Multimedia
Conference, Seattle, Washington, 8-14 Nov. '97, pages 403-413, 1997.
[41] G.Pass, R. Zabih and J. Miller, "Comparing images using color coherence
vectors", MULTIMEDIA '96: Proceedings of the fourth ACM international
conference on Multimedia, p. 65--73, 1996
[42] Y. Rubner. Perceptual metrics for image database navigation. Rapport Technique
CS-TR- 99-1621, Stanford University, 1999
[43] W.Press, B. Flanney,S. Teukolsky,and W. Vetterling(1987). Numerical Recipes. The
Art of Scientific Computing.
[44] R.M.Haralick,K. Shanmugam and Its’hak Dinstein. Textural features for image
classification. Reprinted by permission from IEEE, Vol. SMC-3,No.6,.pages 610-
621, november 1973.
[45] N. Jhanwar, S. Chaudhuri, G. Seetharaman, B. Zavidovique .Content based image
retrieval using motif cooccurrence matrix Image and Vision Computing 22 (2004)
1211–1220.Elsevier.
[46] G. Quellec, M. Lamard, G. Cazuguel, B. Cochener, C. Roux Wavelet optimization for
content-based image retrieval in medical databases, Medical Image Analysis. 227–
241. 2009 Elsevier.
[47] M. Jian, L. Liu, F, Guo. Texture Image Classification Using Perceptual Texture
Features and Gabor Wavelet Features. Asia-Pacific Conference on Information
Processing. 2009 IEEE.
[48] L. L. Huang , A. Shimizu, H. Kobatake. Robust face detection using Gabor filter
features. Pattern Recognition Letters 26 (2005) . 1641-1649.Elsevier.
[49] A. Grossmann and J. Morlet. Decomposition of Hardy functions into square
integrable wavelets of constant shape. SIAM J. Math. Anal., 15(4) :723–736, 1984.
[50] A. Khare and U. S. Tiwary . A New Method for Deblurring and Denoising of
Medical Images using Complex Wavelet Transform. Proceedings of the 2005 IEEE.
Engineering in Medicine and Biology 27th Annual Conference Shanghai, China,
September 1-4, 2005.
[51] S.X. Liao et M. Pawlak. On image-analysis by moments. IEEE Transactions on
Pattern Analysis and Machine Intelligence, 18(3) :254–266, March 1996.
[52] S. Lafon, R. R. Coifman, A. B. Lee, M. Maggioni, B. Nadler, F. Warner, and S., W.
Zucker. Geometric diffusions as a tool for harmonic analysis and structure
definition of data: Diffusion maps. 7426–7431,PNAS,May 24,. Vol. 102, no. 21,
2005.
[53] M. Sonka, V. Hlavac, and R. Boyle. Image Processing, Analysis and Machine Vision.
PWS Publishing, seconde edition edition, 1999.
[54] M.K. Hu. Visual pattern recognition by moments invariants, computer methods in
image analysis. Transactions on Information Theory, 8, 1962.
[55] M.R. Teague. Image analysis via the general theory of moments. J. Optical Soc. Am.,
70(8) :920–930, August 1980.
[56] H. Delingette, J. Montagnat, Shape and topologiy constraints on parametric active
contours. Computer Vision and Image Underst-anding, 83(2) : 140-171. 2001.
[57] H. Delingette, J. Montagnat, Shape and topologiy constraints on parametricactive
contours. Computer Vision and Image Understanding, 83(2) : 140-171. 2001.
[58] Z. Huang, J. Leng. Analysis of Hu's Moment Invariants on Imag Scaling and Rotation.
Proceedings 2nd International Conference on Computer Engineering and
Technology (ICCET). (pp. 476-480). Chengdu, China. IEEE 2010.
[59] Base Columbia. http://www.cs.columbia.edu/CAVE/research/softlib/coil-
100.html
[60] S. Mallat. A theory for multi-resolution signal decomposition : The wavelet
representation. IEEE Transactions on Pattern Analysis and Machine Intelligence,
vol. 11, p. 674-693. 1989.
[61] C. Vonesch, T. Blu, M. Unser. Generalized Daubechies Wavelet Families. IEEE
Transaction on Signal Processing, Vol.55, No. 9, p. 4415-4429. September 2007.
[62] http:/ /www.cl.cam.ac.uk/Research/DTG/attarchive :/data/att_faces.tar.Z
[63] N. OTSU, « A Threshold Selection Method from Gray-Level Histograms », IEEE
transactions on Systems, Man and Cybernetics, 9(1), p. 62-66, 1979.
[64] C. D. Manning, P. Raghavan, H. Schütze. An Introduction to Information Retrieval.
Cambridge University Press. Cambridge, England. 151-177. 2009.