Thesecarron
Thesecarron
Thesecarron
présentée à
L’UNIVERSITE DE SAVOIE
pour obtenir
le titre de DOCTEUR
par
Thierry Carron
I. Magnin Présidente
J. Brémont Rapporteur
L. Foulloy Examinateur
P. Lambert Examinateur
T. Pun Rapporteur
T. Redarce Examinateur
Je dédie cette thèse
Salut Joss.
REMERCIEMENTS
Je tiens aussi à exprimer ma profonde gratitude et mes remerciements les plus sincères à
Monsieur P. LAMBERT, Maître de Conférences à l’Université de Savoie, pour m’avoir
encadré et pour la confiance qu’il m’a toujours témoignée. Son expérience de la recherche, ses
conseils, ses encouragements, et son amitié m’ont été très précieux et m’ont permis de mener à
bien mon travail.
Et puis, il y a tous les membres de la petite famille du LAMII, qui resteront anonymes dans
cette page, mais qui m’ont permis de mener à terme ce travail dans une ambiance très amicale.
A tous ceux là, je leur rends tout simplement hommage.
TABLE DES MATIERES
INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1 . INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
4 . CONCLUSION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1 . INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.1 . Approche contours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.1.1 . Méthodes du gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.1.2 . Méthodes basées sur la dérivée seconde directionnelle . . . . . . . . . . . . . . 43
1.1.3 . Méthode proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.2 . Approche régions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.2.1 . Méthodes globales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
1.2.2 . Méthodes locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1.2.3 . Méthode proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
Page i
2 . DÉTECTION DE CONTOURS COULEUR PAR UN GRADIENT MARGINAL 47
2.1 . Principe de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2 . Définition d’une différence signée pertinente entre deux Teintes . . . . . . . . . . 49
2.2.1 . Mesure de l’écart entre deux valeurs de Teinte . . . . . . . . . . . . . . . . . . . . 49
2.2.2 . Prise en compte de la pertinence de la Teinte . . . . . . . . . . . . . . . . . . . . . . 51
2.3 . Définition d’un opérateur gradient sur la composante Teinte . . . . . . . . . . . . . 52
2.4 . Détecteurs de contours couleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.4.1 . Détecteur utilisant la Teinte comme complément d’information . . . . . . . 53
2.4.2 . Détecteur privilégiant l’information de Teinte . . . . . . . . . . . . . . . . . . . . . 54
2.4.3 . Estimation de la direction du gradient couleur . . . . . . . . . . . . . . . . . . . . . 55
2.5 . Influence des paramètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.5.1 . Influence et choix de S0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.5.2 . Influence et choix de β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.6 . Evaluation comparative des performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.6.1 . Les images synthétiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.6.2 . Evaluation de la robustesse des contours détectés . . . . . . . . . . . . . . . . . . 59
2.6.3 . Evaluation de l’estimation de la direction du gradient . . . . . . . . . . . . . . . 61
2.7 . Applications sur des images réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.8 . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4 . CONCLUSION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
Page ii
CHAPITRE III . SEGMENTATION COULEUR PAR FUSION SYMBOLIQUE . 99
1 . INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
1.1 . Méthodes travaillant avec l’algorithme du Fuzzy C-Means . . . . . . . . . . . . . . . 102
1.1.1 . Présentation de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
1.1.2 . Quelques applications aux images couleur . . . . . . . . . . . . . . . . . . . . . . . . 103
1.2 . Intégration des connaissances dans l’étape de segmentation . . . . . . . . . . . . . . 103
4 . CONCLUSION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
CONCLUSION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
Page iii
ANNEXES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
BIBLIOGRAPHIE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
Page iv
INTRODUCTION
Page 1
Introduction
Le traitement de l’image par ordinateur a débuté dans les années 60, aux Etats-Unis, par le
filtrage, l’amélioration et la restauration de données visuelles qui provenaient, entre autres
sources, de sondes spatiales. On peut signaler par exemple les travaux du Jet Propulsion
Laboratory de Passadena en Californie, qui traitait, au profit de la NASA, les images de
l’espace fournies par les sondes lunaires RANGER, les missions SURVEYOR, ou APOLLO.
La vision par ordinateur est ainsi une discipline récente qui a vu son développement s’accélérer
avec l’apparition des micro-ordinateurs dans les années 80 et l’augmentation phénoménale de
leur puissance de calcul durant ces quinze dernières années. L’entité image qui est alors
manipulée n’est plus seulement une grandeur analogique comme au premier temps de la
télévision, mais une collection d’informations numériques. L’information élémentaire
associée à chaque point de l’image, traditionnellement appelé “pixel” pour picture element, est
transcrite en niveau de gris ou en couleur.
A partir de ces nombreuses données, il convient d’extraire les informations pertinentes pour
l’application concernée. L’ensemble des traitements nécessaires à la réalisation de cet objectif
est regroupé sous le terme générique d’analyse d’image. Suivant le contenu sémantique des
entités traitées et extraites, on distingue les traitements dits de bas-niveau (rehaussement de
contraste, filtrage, segmentation,...) qui opèrent sur les grandeurs calculées directement à partir
des valeurs numériques des pixels et les traitements dits de haut-niveau (reconstruction 3D,
reconnaissance des formes, interprétation,...) qui opèrent sur des entités de nature symbolique
associées à une représentation de la réalité à extraire de l’image.
Quel peut être alors, dans ce contexte d’analyse d’image, l’intérêt de la couleur qui est une
information psychologique liée au système de vision humain? Dans les traitements de
haut-niveau l’apport de la couleur est évident notamment dans des phases de localisation ou de
reconnaissance d’objets colorés. C’est un attribut supplémentaire, relativement stable, qui va
permettre de différencier rapidement les différents objets de la scène observée sans avoir
recours à leurs descriptions géométriques qui nécessitent l’emploi de modèles mathématiques,
mais en utilisant une représentation symbolique (Rouge, Bleu,...) facilement interprétable par
l’homme pour peu que la base de représentation choisie soit proche du système de perception
humain. Dans les traitements de bas-niveau, grâce à l’apport complémentaire d’information
apporté par la couleur, on peut s’attendre également à obtenir, notamment dans les étapes de
segmentation (régions ou contours), de meilleurs résultats qu’en utilisant une représentation
monochrome. Cependant, la connaissance de la couleur se traduit par un accroissement notable
de la quantité d’information représentant une image (trois fois plus pour la plupart des
systèmes d’acquisition de la couleur). Ainsi, l’un des soucis de la mise au point des méthodes
de traitement couleur sera de ne pas payer le gain de performance par un accroissement
important des temps de traitement.
Page 3
Introduction
L’information de couleur étant liée à la perception humaine, il peut être utile d’utiliser, dans
les traitements, une base de représentation qui soit très expressive pour l’opérateur humain. De
nombreuses expériences neurophysiologiques ont montré que la représentation suivant une
composante achromatique d’intensité (Luminance) et deux composantes chromatiques reflète
le fonctionnement de cellules du corps genouillé latéral qui précédent le cortex visuel.
L’interprétation des composantes de chrominance en termes de Teinte et de Saturation permet
de rendre ce système de représentation très proche de la perception consciente humaine des
couleurs.
Si une telle base de représentation n’a pas réduit le volume de données à traiter, elle possède
une interprétation aisée qui peut faciliter l’intégration des caractéristiques spécifiques des
images couleur dans le processus de segmentation en vue de simplifier les traitements. En
particulier, cette représentation assure une certaine indépendance entre les informations
contenues dans chaque composante. Une stratégie peut alors consister à chercher à fusionner
les informations apportées par les trois composantes. On peut pour cela envisager une
approche classique, en effectuant une somme pondérée des informations, ou bien employer des
techniques de fusion de données plus élaborées reposant sur des représentations symboliques.
Le mémoire est organisé en trois chapitres. Dans le chapitre 1, après avoir introduit
quelques notions générales sur la couleur et la méthode d’acquisition, nous présenterons
diverses transformations susceptibles de conduire à une représentation dans un espace
Intensité / Chrominance. Dans le but de dégager la transformation la plus adaptée pour la
segmentation des images, nous étudierons ensuite le comportement de quelques unes des
transformations les plus courantes. Les caractéristiques spécifiques de la transformation
choisie seront alors examinées en observant sa robustesse vis-à-vis d’un bruit synthétique.
Cette étude se révélera primordiale pour déterminer différents concepts sur l’utilisation des
composantes permettant d’envisager un processus de segmentation coopératif.
Pour effectuer cette coopération entre composantes, nous proposerons, dans le chapitre 2,
une approche numérique pour la fusion des informations de chrominance et d’intensité. Nous
l’appliquerons alors à la segmentation des images couleur en définissant deux opérateurs de
détection de contours ainsi qu’une méthode de segmentation par croissance de région. Les
performances de ces nouveaux opérateurs seront évaluées, à l’aide de critères quantitatifs, sur
des images synthétiques bruitées. Puis, quelques applications à des images réelles seront
envisagées.
Dans le chapitre 3, nous ferons appel à une représentation symbolique et à la logique floue
pour réaliser la fusion des informations. L’intégration des connaissances spécifiques à la base
de représentation choisie, ainsi que la prise en considération des différents modes de
coopération entre les composantes s’effectuent alors à l’aide de règles linguistiques élaborées
par expertise. De nouvelles méthodes de segmentation, contours ou régions, seront ainsi
proposées. Leur performances seront analysées et comparées quantitativement par rapport aux
opérateurs définis dans le chapitre 2. Enfin, pour compléter l’étude, nous examinerons les
résultats sur quelques images réelles.
Page 4
CHAPITRE I
Représentation
Teinte - Luminance - Saturation
Page 5
Représentation Teinte - Luminance - Saturation
1 - Introduction
Des études sur la perception psychophysique de la couleur [GER 84] ont montré que cette
information, qui est de dimension infinie puisque étant une fonction continue de la longueur
d’onde [LUO 91], peut se représenter dans un espace de dimension 3. C’est-à-dire que la
plupart des couleurs peuvent être obtenues par combinaison de trois couleurs de base. En effet,
la perception colorée étant liée à la répartition spectrale du stimulus, on conçoit que
l’utilisation d’une gamme de sources lumineuses couvrant chacune un intervalle spectral
permet de synthétiser n’importe quelle courbe spectrale d’émission et donc n’importe quelle
couleur. Lorsque le nombre de sources lumineuses est réduit en supprimant progressivement
certaines bandes spectrales, il reste possible de recréer un stimulus visuel équivalent à celui
produit par le spectre continu en utilisant trois sources convenablement choisies. Chacune des
sources apporte une énergie supplémentaire. On parle dans ce cas de trichromie additive. Ce
principe de synthèse additive est utilisé pour la reconstitution des images couleur en télévision.
Les trois sources recommandées par la Commission Internationale de l’éclairage (C.I.E.) sont
respectivement de 435,8 nm pour le Bleu, 546,1 nm pour le Vert et 700,0 nm pour le Rouge,
ainsi qu’une lumière de référence (lumière à spectre d’énergie constante appelée E).
Page 7
Représentation Teinte - Luminance - Saturation
Cet aspect tridimensionnel de la couleur se retrouve dans le système visuel humain qui
utilise trois types de cônes pour la vision diurne. Chaque cône est sensible à une longueur
d’onde spécifique: courte (bleue), moyenne (verte), et longue (rouge). Cela constitue une
décomposition naturelle du spectre assurant ainsi simplement l’unicité de la décomposition des
couleurs pures. De manière similaire en vision par ordinateur, on fait appel généralement à un
jeu de 3 filtres colorés (rouge, vert, bleu), choisis pour décomposer au mieux les longueurs
d’ondes visibles. L’acquisition d’une image couleur consiste donc à obtenir trois images
représentant les composantes Rouge, Verte, Bleue (RVB) de la scène observée. La
superposition des trois composantes redonne l’image colorée initiale.
Parmi tous les systèmes de représentation élaborés à partir du système RVB, ceux utilisant
le modèle introduit par Faugeras [FAU 79] dans le domaine du traitement d’images, sont très
proches de la perception consciente humaine des couleurs. Ils sont basés sur la définition d’un
nouvel espace, de dimension toujours égale à 3, dont les composantes sont l’intensité et deux
composantes de chrominance. Dans le § 2.2 nous donnerons une présentation générale de cet
espace. Dans le § 2.3 nous examinerons les différentes transformations amenant à un tel
espace. Mais auparavant, nous allons donner quelques précisions sur le système RVB.
Les composantes RVB sont obtenues par acquisition de la scène à travers trois filtres: rouge,
vert et bleu. Les mesures des capteurs sont liées au signal couleur par les formules suivantes:
∞ ∞ ∞
R = ∫ C(λ)Tr ( λ )S(λ) dλ V = ∫ C(λ)Tv(λ)S(λ) dλ B = ∫ C(λ)T b(λ)S(λ) dλ
–∞ –∞ –∞
avec C(λ) la distribution spectrale du signal de couleur émis par la source lumineuse, Tr(λ),
Tv(λ) et Tb(λ) les transmittances respectives des filtres rouge, vert, bleu et S(λ) la sensibilité de
la caméra. On constate que la caméra intervient également, en plus des filtres, dans la qualité
de l’acquisition des images couleur. L’idéal est, bien sûr, que S(λ) soit le plus constant possible
Page 8
Représentation Teinte - Luminance - Saturation
sur la plage des couleurs visibles. La figure I.1 montre un exemple de la réponse spectrale
d’une caméra noir et blanc haute définition (Adimec MX12). On remarque alors que la
sensibilité de cette caméra n’est pas très homogène sur tout le spectre visible et qu’elle
présente un pic pour les longueurs d’ondes proches du Rouge.
35
30
25
Efficacité théorique (%)
20
15
10
5
0
350 400 450 500 550 600 650 700 750 800 850 λ ( nm )
Les transmittances des 3 filtres Tr(λ), Tv(λ) et Tb(λ) doivent se chevaucher afin d’obtenir la
variété de couleur la plus grande possible [FAE 84]. La figure I.2 donne un exemple des
transmittances de trois filtres Kodak Wratten (N˚ 25 pour le rouge, N˚ 58 pour le vert et N˚47B
pour le bleu) fréquemment utilisés. Les courbes des transmittances de ces trois filtres sont
superposées sur un même graphique de façon à mettre en évidence leurs caractéristiques de
transmissions et à faciliter la comparaison de leurs absorptions dans le spectre visible.
10
λ ( nm )
1
350 400 440 500 530550 600 650 700 750
Le filtre bleu correspond à un bleu profond. Les filtres vert et rouge permettent des effets de
contraste en photographie industrielle et en micrographie. Le filtre rouge est également utilisé
pour la correction du voile atmosphérique en photographie aérienne et pour la suppression du
bleu en photographie infrarouge.
Page 9
Représentation Teinte - Luminance - Saturation
A partir des trois images acquises à travers ces filtres, le système RVB permet d’obtenir la
majeure partie des couleurs. Seules certaines ne sont pas reconstituables, comme les rouges
pourpres, car cela demanderait des intensités négatives pour certaines composantes ce qui ne
peut être obtenu par des capteurs physiques.
L’espace couleur décrit forme un “solide des couleurs” de forme cubique (figure I.3). Les
sommets du cube obtenu portent les trois primaires de pigments (jaune, magenta et cyan) et les
trois primaires de lumière (rouge, vert, et bleu). Ces dernières forment un triangle (triangle de
Maxwell, R+V+B=1) portant les couleurs ayant la même intensité. Les deux derniers
sommets, correspondant au noir et au blanc, sont portés par la trissectrice R=V=B qui n’est
autre que l’axe achromatique. Les couleurs portées par cette axe vont ainsi du noir (R=V=B=0)
au blanc pur (R=V=B=1) en passant par les différentes nuances de gris.
B Triangle de Maxwell (R+V+B=1)
Axe achromatique
perpendiculaire à l’axe achromatique
1 Bleu
Cyan
Magenta
Blanc
Noir
Vert
1 V
Rouge
1
R
Jaune
Hormis pour les 8 sommets du cube, il est difficile d’associer la notion de couleur, telle
qu’elle est perçue par l’homme, à un point du repère RVB. Dans la réalité, il y a en général une
forte corrélation entre les informations contenues dans chacune de ces composantes. Cette
constatation et le soucis d’avoir un système de perception plus proche de celui de la vision
humaine ont conduit à la définition d’espaces Intensité/Chrominance que nous présentons dans
les paragraphes suivants.
Cet espace (figure I.4) est issu de la théorie des couleurs antagonistes [LUO 91] dans
laquelle on tente de dissocier l’information d’intensité, ou Luminance, portée par l’axe
vertical correspondant à l’axe achromatique, de celle de chrominance qui est une information
bidimensionnelle [OHT 80] située dans un plan orthogonal à cet axe.
Page 10
Représentation Teinte - Luminance - Saturation
L
Pixel
Plan de
Chrominance C1
C ou S T
C2
Le triplet de variables TLC ou TLS est proche de la perception consciente humaine des
couleurs. Il peut s’interpréter de la manière suivante:
Luminance:
Teinte:
Chroma ou Saturation:
Page 11
Représentation Teinte - Luminance - Saturation
On peut tenter d’interpréter cette représentation en terme photométrique [LUO 91] à partir
de la distribution spectrale d’un signal couleur non monochromatique (figure I.5)
C(λ)
e2
e1
λ nm
400 500 λmax 600 700 800
Figure I.5: Exemple de distribution spectrale d’énergie d’un signal non monochromatique
L’intensité (ou Luminance) du signal est caractérisée par l’intégrale de la courbe C(λ)
780
1
Luminance ↔ ------------------------
780 – 380 ∫ C ( λ ) dλ
380
La longueur d’onde dominante λmax correspond à la couleur “pure” observée dans le signal.
380 – λ max
Teinte ↔ 2π --------------------------
780 – 380
Le rapport entre l’énergie (e1) de la lumière blanche (ensemble de l’énergie émise) présente
dans le signal et l’énergie (e2) de la longueur d’onde dominante (λmax) correspond à la pureté
du signal. La Saturation peut alors s’exprimer de la manière suivante:
e
Saturation ↔ 1 – ----1-
e2
L’espace Intensité/Chrominance peut être obtenu à partir des composantes RVB initiales en
deux temps:
Y R
C1 = M V [M] est une matrice 3x3 (I.1)
C2 B
Une transformation non linéaire définissant respectivement la Saturation ou la
Chroma et la Teinte à partir des composantes C1 et C2.
Page 12
Représentation Teinte - Luminance - Saturation
Il est à noter que l’information de Teinte est circulaire, et il faudra en tenir compte dans son
utilisation ultérieure.
Nous nous limiterons à une présentation des principales transformations en mettant l’accent
sur trois d’entre elles, présentées aux trois premiers paragraphes (§ 2.3.1 à § 2.3.3).
Par définition la Luminance est portée par l’axe achromatique; son expression est donnée à
partir des composantes RVB par:
L = (R+V+B) / 3 (I.2)
2R – V – B
θ = acos -------------------------------------------------------------------------------------
2 2 2
2 (R – V) + (B – R) + (B – V)
3 ⋅ (V – B)
ou θ = asin -------------------------------------------------------------------------------------
2 2 2
2 (R – V) + (B – R) + (V – B)
3 ⋅ (V – B)
ou θ = atan -------------------------------- (I.3)
2R – V – B
si R = V = B = 0 alors
S = 0 (point achromatique)
sinon
3̇ Min ( R, V, B )
S = 1 – --------------------------------------- (I.4)
R+V+B
Page 13
Représentation Teinte - Luminance - Saturation
Ainsi, si on prend un point “A” appartenant au plan défini par le triangle de Maxwell, la
Saturation est calculée à l’aide de la distance minimale entre ce point et un côté du triangle
comme le montre figure I.6. Le point achromatique dans ce plan est situé à une distance de 1/3
de chaque côté, et la valeur de Saturation est alors nulle.
B=1
Triangles d’iso-saturation A
1/3 S = 1- 3*dmin
1/3
S=1
1/3 V=1
R=1
Figure I.6: Calcul de la Saturation dans le plan de Maxwell pour le système triangulaire
Dans le cas ou R+V+B <1 la même situation se reproduit sur un triangle homothétique et
parallèle au triangle de Maxwell. Les lignes d’iso-saturation sont ainsi des triangles.
Par une démarche inverse à celle proposée au § 2.2.3 il est possible de trouver une matrice
[M] permettant de déterminer, pour cette transformation, la composante d’intensité (Y) et le
plan de chrominance (C1, C2):
Les composantes TLS sont obtenues alors par les équations non linéaires suivantes:
L TLS = Y (I.6)
si R = V = B alors
T TLS = 0 et S TLS = 0 (I.7)
sinon
3̇Min ( R, V, B )
S TLS = 1 – ------------------------------------- (I.8)
R+V+B
C1
si C 1 > 0 alors T TLS = acos ------------------------------
-
2 2
C1 + C2
C1
sinon T TLS = 2π – acos ------------------------------
- (I.9)
2 2
C1 + C2
Page 14
Représentation Teinte - Luminance - Saturation
Cette transformation souffre de défauts examinés en détail par Kender [KEN 77] dus à
l’emploi de transformations non linéaires et en particulier de la fonction “Min”. Il y a des
singularités de la Teinte pour les points achromatiques (R=V=B), dans le voisinage desquelles
une petite modification sur R,V ou B peut conduire à des variations importantes de la Teinte ou
de la Saturation. Ces variations sont redoutables pour les processus de segmentation d’image.
De plus, la distribution des valeurs transformées n’est pas uniforme et la discrétisation des
valeurs R,V et B conduit à des pics et trous artefactuels dans la répartition, discrètes aussi, des
valeurs T, L et S.
Bien que la matrice [M] (Eq. I.5) soit inversible, l’utilisation de la fonction “Min” pour le
calcul de la Saturation ne permet pas de définir une transformation inverse TLS vers RVB.
Ce modèle a été défini par Garbay [GAR 79] pour correspondre à un système visuel
hypothétique, dont la sensibilité est indépendante de la longueur d’onde, du facteur de pureté
(distance relative entre la couleur et le point d’égal énergie dans le diagramme de chromaticité)
et de l’intensité de la couleur observée. A partir de la modélisation des cellules du corps
genouillé latéral effectuée par Faugeras [FAU 76], elle ajuste les coefficients de façon à ce que
des couleurs de Saturations identiques soient à égale distance de l’axe achromatique obtenant
ainsi le modèle suivant:
1
Y = --- ( R + V + B )
3
C = 3
------- ( R – V ) (I.10)
1 2
1
C 2 = B – --- ( R + V )
2
Dans le cadre des hypothèses effectuées par Garbay, une métrique euclidienne est définie
sur cet espace. L’expression de l’information de Chrominance en coordonnée polaire fournit
alors les deux composantes de Chrominance. L’angle correspondant à la Teinte et le module,
appelé ici Chroma, fournit la seconde composante.
Il est intéressant de constater que ce système est très proche du système précédent. En effet,
en écrivant ce système sous forme matricielle on obtient la matrice [M] suivante:
Y 1⁄3 1⁄3
1⁄3 R
C1 = 3⁄2 – 3⁄2 0 V , (I.11)
C2 –1 ⁄ 2 –1 ⁄ 2 1 B
Page 15
Représentation Teinte - Luminance - Saturation
C2
B=1
C2
Plan chromatique
C1
R=1
V=1 30˚
Cette représentation met en évidence le fait que pour le système TLS l’axe de référence de
la Teinte coïncide avec l’axe portant la composante Rouge dans la base RVB initiale, alors que
pour le système visuel hypothétique il correspond à un axe d’opposition Rouge-Vert.
Dans cette base de représentation la Chroma apparaît alors comme la distance euclidienne
entre le point de chrominance et le point achromatique (figure I.8). Ceci a pour conséquence
que le niveau de Chroma maximal s’obtient uniquement sur les sommets du triangle, et que
les lignes d’iso-chroma correspondent à des cercles.
B=1
C=1
V=1
R=1
Page 16
Représentation Teinte - Luminance - Saturation
Nous proposons d’utiliser un système combinant les deux systèmes précédents pour profiter
des avantages de chacun, obtenant globalement une transformation que nous appellerons TLC.
Dans le système visuel hypothétique, l’expression de la Chroma est plus intéressante que le
mode de calcul de la Saturation dans TLS car on amoindrit les effets des singularités
inhérentes à cette dernière qui utilise la fonction “Min” [LAM 91][ROT 90].
Dans le système TLS, l’axe de référence C1 permettant de calculer la Teinte coïncide avec
un axe initial de la base RVB (l’axe Rouge). Ainsi, la couleur Rouge sera codée en Teinte par
0˚, le Vert par 120˚ et le Bleu par 240˚. Le système visuel hypothétique est défini dans un
repère orthonormé. Le passage au système TLS se fait par une simple rotation de 30˚. On
conserve donc un repère orthonormé et de ce fait il est possible d’utiliser dans cette base la
métrique euclidienne permettant de calculer la Chroma.
La matrice [M] de la transformation permettant de passer de la base RVB à cette base TLC
est alors la suivante:
Les composantes Teinte, Luminance et Chroma sont obtenues par les équations suivantes:
L TLC = Y (I.13)
2 2
S TLC = C1 + C2 (I.14)
si S TLC = 0 alors
T TLC = 0
sinon
si C 1 > 0 alors
C1
T TLC = acos ------------
-
S TLC
sinon
C1
T TLC = 2π – acos -------------
- (I.15)
S TLC
Page 17
Représentation Teinte - Luminance - Saturation
Cette nouvelle transformation admet une transformation inverse TLC vers RVB qui sera
très utile dans la phase de caractérisation de la robustesse de cette base vis-à-vis du bruit. On
pourra ainsi fixer un point dans l’espace TLC qui est plus facilement interprétable
psychologiquement, et en déduire les composantes R,V et B correspondantes.
On a ainsi:
Y = L
C 1 = S TLC ⋅ cos ( T TLC ) (I.16)
C 2 = S TLC ⋅ sin ( T TLC )
R 1 2⁄3 0 Y
V = 1 –1 ⁄ 3 3 ⁄ 3 ⋅ C1 (I.17)
B 1 –1 ⁄ 3 – 3 ⁄ 3 C2
C’est le standart défini pour la télévision américaine par le “National Television Standard
Comittee” (NTSC) pour transmettre le signal couleur. Il a été conçu pour minimiser la largeur
de bande du signal tout en permettant de conserver une perception fidèle des couleurs.
Les téléviseurs couleur des Etats Unis utilisent un tube cathodique dont les phosphores
émettent dans des longueurs d’ondes différentes de celles définies pour les filtres d’acquisition
R, V et B par la C.I.E. en 1931 (R:700 nm., V:546,1 nm. et B:435,8 nm).
Les composantes (RN, VN, BN) du tristimulus décrivant une couleur sont liées aux
composantes R, V et B par les relations linéaires suivantes:
L’illuminant phosphore correspond à la norme CCIR 601-1 définie par la C.I.E. [CIE 86] et
les équations matricielles suivantes donnent le système YIQ:
Page 18
Représentation Teinte - Luminance - Saturation
Les coordonnées Teinte, Luminance et Chroma sont alors données par les équations
suivantes (Eq. I.20 à I.22):
L YIQ = Y (I.20)
2 2
C YIQ = I +Q (I.21)
si C YIQ = 0
T YIQ = 0
sinon
Q
si Q ≥ 0 T YIQ = acos ------------------------
2 2
I +Q
Q
sinon T YIQ = 2π – acos ------------------------ (I.22)
2 2
I +Q
La matrice [M] de cette transformation (cf. Eq. I.19) étant inversible, il est possible de
définir une transformation inverse YIQ vers RVB. On a ainsi:
Y = L YIQ
I = C YIQ cos T YIQ (I.23)
Q = C YIQ sin T YIQ
La base Luv est conçue pour obtenir un espace couleur dans lequel chaque changement
élémentaire en luminance et en chrominance est uniformément perceptible pour l’oeil humain.
Cet espace possède des propriétés très appréciables pour la mesure des mélanges additifs de
lumières colorées, notamment pour le système RVB en télévision.
La base de représentation Lab résulte des travaux d’Adams-Nickerson. Elle est conçue pour
répondre au modèle colorimétrique, établi par Munsel, permettant de classer
photométriquement les couleurs en utilisant un atlas. Comme la base Luv, elle est
approximativement uniforme. Ce système est en général préféré pour les utilisations de
pigments, car il est plus simple d’emploi et permet de bonnes estimations des couleurs
résultant de pigments en mélange.
Page 19
Représentation Teinte - Luminance - Saturation
Ces deux systèmes ont été définis en 1976 par la C.I.E. Ils sont calculés à partir du système
de 3 primaires imaginaires de référence, dit XYZ, établies par cet organisme en 1931. Ce
système de référence permet l’échange et la communication d’informations chromatiques de
manière très satisfaisante. Les coordonnées XYZ sont reliées aux composantes RVB initiales
par la transformation linéaire suivante utilisée par Celenk[CEL 86a] ou Liang [LIA 87]:
Les coordonnées (X0,Y0,Z0) du point blanc de référence dans ce système XYZ sont
obtenues à partir du blanc de référence dans RVB par:
La transformation suivante, que l’on retrouve dans Pratt [PRA 78], correspond à la
conversion du système (RN, VN, BN) du référentiel NTSC dans le système XYZ:
Ohta, dans [OHT 80], normalise l’espace XYZ à 1 obtenant ainsi des valeurs transformées
ayant la même échelle que les valeurs originales et les coordonnées du blanc de référence étant
alors: X0 =Y0 = Z0 = 1. La matrice de la transformation normalisée est la suivante:
Le passage du système XYZ aux systèmes Luv et Lab s’effectue au moyen de relations non
linéaires.
La coordonnée L correspond dans les deux bases à la clarté psychométrique et présente une
échelle homogène avec la sensibilité de l’oeil:
Page 20
Représentation Teinte - Luminance - Saturation
4⋅X 4 ⋅ X0
u = 13 ⋅ L ⋅ ---------------------------------- – -----------------------------------------
- (I.29)
X + 15Y + 3Z X 0 + 15Y 0 + 3Z 0
9⋅Y 9 ⋅ Y0
v = 13 ⋅ L ⋅ ---------------------------------- – -----------------------------------------
- (I.30)
X + 15Y + 3Z X 0 + 15Y 0 + 3Z 0
Dans la base Lab, les composantes de chrominance (a et b) définies par les deux formules
suivantes permettent de disposer d’un système de coordonnée rectangulaire à partir de XYZ
défini par:
a = 500 ⋅ ( 3 X ⁄ X 0 – 3 Y ⁄ Y 0 ) (I.31)
b = 200 ⋅ ( 3 Y ⁄ Y 0 – 3 Z ⁄ Z 0 ) (I.32)
La définition d’une couleur peut être faite par la spécification de ses coordonnées Lab ou
Luv ou bien en utilisant les informations polaires représentant alors la Luminance, la Teinte
et la Chroma. Le passage à ce système de coordonnées polaires se fait par les équations
suivantes:
L Luv = L (I.33)
2 2
C Luv = u +v (I.34)
si u = 0 alors
T Luv = 0
sinon
π
T Luv = ------ ⋅ atan --- + k ⋅ ---
1 v
(I.35)
2π u 2
avec
k = 0 si u≥0 et v ≥ 0 k = 2 si u<0 et v < 0
k = 1 si u>0 et v < 0 k = 3 si u<0 et v > 0
Page 21
Représentation Teinte - Luminance - Saturation
Dans ces deux systèmes la métrique euclidienne est significative des différences de couleur
perçues. Ainsi, la différence de deux couleurs ∆C est calculée par:
2 2 2 2
∆C = ∆L + ∆u + ∆v pour le système Luv et (I.36)
2 2 2 2
∆C = ∆L + ∆a + ∆b pour le système Lab (I.37)
Contrairement au système Luv, le système Lab peut être facilement inversé pour redonner
les valeurs de X,Y,Z par les expressions suivantes:
a 3
X = X 0 ⋅ ---------------- + ---------
L + 16
(I.38)
116 500
L + 16 3
Y = Y 0 ⋅ ---------------- (I.39)
116
b 3
Z = Z 0 ⋅ ---------------- + ---------
L + 16
(I.40)
116 200
Les relations entre le système Lab et le système Luv sont relativement complexes. Ces
deux systèmes sont intéressants dans les cas où la mesure de différence entre des couleurs doit
être reliée à la perception visuelle humaine. Leur utilisation pour les tâches de vision
artificielle, où l’on s’intéresse aux différences quantifiables et non à celles uniquement
significatives perceptuellement, semble de ce fait moins intéressante. Pour ces raisons, ces
deux systèmes ne seront pas étudiés dans ce qui suit.
Dans un premier temps, nous allons comparer l’évolution du volume du cube initial des
couleurs (cf. figure I.3) pour les transformations YIQ, TLS et TLC. Les graphiques de la
figure I.9 représentent la transformation que subit l’enveloppe du “solide des couleurs” pour
obtenir la séparation achromatique/chromatique. Ils sont exprimés dans les coordonnés
cartésiennes dans le but de ne pas les surcharger.
Page 22
Représentation Teinte - Luminance - Saturation
transformation TLC et à l’inverse de TLS, la forme générale du cube est conservée. Ceci
provient de la linéarité des fonctions utilisées.
Dans la représentation TLC les coefficients correspondent à une rotation du repère (cf. Eq.
I.12). Le cube n’est donc pas déformé. Nous remarquons tout de même, que pour les six
couleurs précédemment citées, la Luminance n’est pas comme pour le blanc, maximale. Par
contre, nous pouvons observer que la distribution des couleurs, ainsi que celle de la Chroma,
est parfaitement homogène.
C1 C2 C2 C1 C2
C1
Cette étude a été réalisée par H. Rotival en 1990 [ROT 90]. Il a montré que l’évolution de la
composante Teinte, pour les deux transformations TLS et TLC (composantes Teintes
algébriquement identiques), est linéaire lorsque l’on parcourt les arêtes du cube des couleurs
dans RVB. Pour ce qui est de la transformation YIQ, la différence est très marquée.
L’utilisation de coefficients non uniformes crée des compressions dans certaines Teintes et des
dilatations dans d’autres. L’évolution de la composante Teinte est alors linéaire par morceaux.
Pour comparer la Saturation ou la Chroma obtenue par chaque transformation, il étudie leur
évolution en faisant varier les composantes R,V et B de leur valeur minimum (0) à leur valeur
maximum (255 du fait d’un codage sur 8 bits). Pour permettre une visualisation en 3
dimensions, il se limite à la situation où V=B. La figure I.10 montre le résultat de cette étude
pour les transformations envisagées.
Page 23
Représentation Teinte - Luminance - Saturation
0 0
V= B V= B
V= B
R R R
0
Les courbes de Saturation pour les transformations YIQ et TLC sont relativement
similaires, ce qui est cohérent vis-à-vis du mode de calcul de cette composante pour ces
transformations. On constate que la Saturation augmente linéairement à partir de l’origine pour
atteindre sa valeur maximale. Ceci est dû à la forme cubique du volume transformé.
V
V V
R
R R
On constate ainsi que pour la transformation TLS, lorsque une des composantes est nulle, la
Saturation prend directement la valeur maximale, sauf dans le cas ou les trois composantes
sont nulles, la Saturation étant alors également nulle. Cette singularité correspond au
traitement exceptionnel de la couleur noir dans le changement de base. Cette transformation va
Page 24
Représentation Teinte - Luminance - Saturation
donc manquer de finesse dans la représentation de cette composante quand une des valeurs de
RVB va être proche de l’origine. Cela va engendrer une forte sensibilité au bruit pour les zones
de faible intensité. Par exemple pour le triplet RVB (2,2,0), on aura un niveau de saturation de
255 alors qu’avec le triplet (2,2,2), elle sera nulle. Ce problème ne se rencontre pas avec les
deux autres transformations en raison de leur croissance linéaire à partir de l’origine.
Si, comme précédemment, l’évolution globale des courbes est identique pour YIQ et TLC,
on constate malgré tout certaines incohérences dans YIQ. Ainsi un rouge pur aura une
Saturation maximale à 162 alors qu’un vert pur aura une Saturation à 150 et un bleu pur à 115.
Cette dissymétrie provient du fait que les couleurs primaires ne sont pas toutes à la même
distance de l’axe de Luminance dans le volume transformé. Pour la transformation TLC, ces
trois points auront tous un niveau de Saturation égal au maximum.
2.5 - Conclusions
L’étude, suivant la transformation utilisée, de l’évolution du cube des couleurs montre que
celui-ci subit une déformation lors des transformations YIQ et TLS, tandis que lors de la
transformation TLC il n’effectue qu’une simple rotation amenant l’axe achromatique sur l’axe
de Luminance en faisant coïncider l’axe de référence du plan de chrominance (composante C1)
avec l’axe portant la composante Rouge.
L’étude comparative des Teintes calculées en parcourant les arêtes du cube RVB met en
évidence la distorsion de l’espace des couleurs lors de la transformation YIQ. Une meilleure
discrimination de certaines couleurs est réalisée; cela bien sûr au détriment d’autres. Pour les
deux autres transformations étudiées, il n’y a pas de distorsion et de ce fait aucune couleur
n’est privilégiée.
La transformation TLC semble alors, vis-à-vis de ces trois études, la plus appropriée à la
segmentation d’image couleur dans une base Teinte-Luminance-Chroma. Il est à noter
également que cette transformation est inversible. Ceci va faciliter les phases d’élaboration des
algorithmes de segmentation en permettant la synthèse d’image dans la base Teinte-
Page 25
Représentation Teinte - Luminance - Saturation
Par la suite, toute référence à une base Teinte-Luminance-Chroma sera faite suivant la
transformation TLC, et par abus de langage et pour utiliser le vocabulaire communément
admis, la Chroma sera abusivement appelée Saturation et on parlera de base TLS.
Le passage de l’espace de représentation RVB vers l’espace TLS étant maintenant choisi,
nous allons étudier le comportement de la Luminance et des composantes de chrominance vis-
à-vis du bruit engendré dans l’espace RVB. Mais auparavant, nous allons brièvement décrire,
les modèles de bruit que nous allons envisager dans nos études. La construction de ces bruits
est détaillée en annexe A.
Nous avons donc considéré comme bruit toute fluctuation perturbant l’homogénéité des
régions d’une image. L’amplitude de ces fluctuations sera faible devant les variations de niveau
entre les régions et, du point de vue spatial, ces fluctuations pourront être considérées comme
“haute fréquence” vis-à-vis des variations “basse fréquence” dues aux objets. De ce fait les
textures seront considérées comme du bruit.
D’une manière schématique, on peut considérer que ce bruit, supposé de nature additive et
non biaisée, peut avoir deux origines:
Le modèle de bruit envisagé devra ainsi être paramétrable (paramètre appelé “c” dans
l’annexe A) pour permettre d’étudier des niveaux différents de corrélation du bruit entre les
composantes R,V et B. Par souci de simplification, les bruits que nous envisagerons seront
supposés spatialement non corrélés.
Nous établirons aussi une classification des bruits selon leur densité de probabilité (d.d.p). On
se limitera à des bruits exponentiels, gaussiens et uniformes, caractérisés par des densités de
probabilité plus ou moins concentrées, comme le montre la figure I.12
Page 26
Représentation Teinte - Luminance - Saturation
0.7
0.6
bruit exponentiel
0.5
0.4 bruit gaussien
0.3
0.2
0.1 bruit uniforme
0
-0.5 0 0.5
Figure I.12: Modèles de d.d.p envisagés.
Il faut être conscient que ces modèles de bruit ne reflètent la réalité que d’une manière très
imparfaite. Dans la pratique, le bruit est souvent non stationnaire et peut avoir une composante
multiplicative. Et même si le bruit correspond à un des modèles envisagés, il n’est pas simple
d’identifier la nature réelle du bruit ou d’avoir une connaissance de la corrélation des bruits
affectant les différentes composantes.
Ces modèles de bruits, qui peuvent être générés artificiellement vont avoir deux rôles.
D’une part, ils vont permettre l’étude de l’influence du bruit sur les composantes de la base
TLS choisie et d’autre part la réalisation d’analyses statistiques comparatives des différentes
méthodes de segmentation en utilisant des images synthétiques.
La Luminance étant obtenue par la moyenne des trois composantes, il y aura un effet de
lissage du bruit présent dans l’espace RVB. Cet effet de lissage va dépendre plus
particulièrement de l’importance de la corrélation du bruit entre les composantes.
2
Sous certaines hypothèses, la variance du bruit sur la composante Luminance σ Lb peut être
2
reliée à la variance du bruit vectoriel σ couleur présent dans RVB en fonction du coefficient de
corrélation du bruit ρ (cf. annexe A § 2.1):
2
2 1 ( 2ρ – ( 4ρ + 2 ) ρ – ρ + 1 ) 2
σ Lb = --- ⋅ -------------------------------------------------------------------- σ couleur (I.41)
3
2
(1 – 2 ρ – ρ )
Page 27
Représentation Teinte - Luminance - Saturation
La figure I.13 montre l’évolution théorique du rapport entre la variance sur la Luminance et
la variance du bruit couleur dans RVB, en fonction du coefficient de corrélation ρ.
1
0.8
2 2 0.6
σ Lb ⁄σ couleur
0.4
0.2
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
coefficient de corrélation ρ
2 2
Figure I.13: Evolution théorique de σ Lb ⁄σ couleur en fonction de ρ
2 2
La figure I.14 présente l’évolution du rapport σ Lb ⁄σ couleur pour les différents types de
bruit envisagés (gaussien, uniforme et exponentiel), en fonction du coefficient de corrélation.
L’étude a été réalisée sur une image uniforme de taille 100x100 ayant un niveau de Luminance
non bruité de 128.
1
2 2
σ Lb ⁄σ couleur
0.66
0.5 Bruit Gaussien
Bruit Exponentiel
0.33 Bruit Uniforme
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
coefficient de corrélation ρ
2 2
Figure I.14: Evolution de σ Lb ⁄σ couleur en fonction de ρ pour différentes d.d.p. du bruit
Page 28
Représentation Teinte - Luminance - Saturation
Comme on pouvait s’y attendre en examinant l’équation I.41, la nature des densités de
probabilité du bruit n’a pas d’influence sur le rapport entre la variance du bruit sur la
Luminance et la variance du bruit vectoriel sur RVB.
d’amplification
1.6
du bruit
Saturation initiale forte
Zone
1.4
1.2
2 2 1
σ Sb ⁄σ couleur Bruit Gaussien
0.8 Bruit Exponentiel d’atténuation
0.6 Bruit Uniforme
du bruit
Zone
0.4
0.2
Saturation initiale nulle
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
coefficient de corrélation
2 2
Figure I.15: Evolution de σ Sb ⁄ σ couleur suivant le coefficient de corrélation
pour différents bruits et différents niveaux de Saturation initiale
On constate ainsi que la sensibilité au bruit, qui est ici évaluée par la mesure de la variance,
se caractérise pour la composante Saturation par:
❏ une dépendance suivant le niveau de corrélation du bruit,
❏ une dépendance suivant les valeurs initiales dans l’espace RVB,
❏ une indépendance vis-à-vis de la densité de probabilité du bruit lorsque la
Saturation initiale n’est pas nulle.
Page 29
Représentation Teinte - Luminance - Saturation
Vis-à-vis de l’influence de la corrélation il est à noter une inversion du sens de variation par
rapport à l’étude sur la Luminance. En effet, plus la corrélation entre les bruits dans l’espace
RVB est importante, plus la sensibilité au bruit est faible. A faible corrélation, le bruit sur la
composante Saturation se trouve amplifié (facteur maximal de 1,5 pour le cas d’un bruit
totalement décorrélé). Le rapport entre la variance calculée sur la Saturation et la variance
initiale du bruit dans RVB diminue ensuite lorsque la corrélation du bruit augmente. La
Saturation va alors être moins sensible au bruit que les composantes R, V, et B. Dans le cas
d’un bruit totalement corrélé, celui-ci est totalement rejeté. Le rejet total de la perturbation
dans le cas d’un bruit totalement corrélé est lié au modèle de bruit envisagé (additif) et au fait
que la Saturation opère des différences entre les composantes (le bruit additif corrélé est ainsi
éliminé, cf. annexe A § 2.2).
En ce qui concerne la dépendance suivant les valeurs initiales dans l’espace RVB et vis-à-
vis de la nature du bruit, nous allons comparer l’évolution des densités de probabilité de la
composante Saturation, pour des valeurs de R,V et B proches de l’axe achromatique ( S ∼ 0 ) et
des valeurs éloignées (Saturation forte). La figure I.16 montre cette évolution pour les
différents types de densité de probabilité envisagée, et pour différentes variances du bruit
initial.
Pour ne pas compliquer l’étude, celle-ci a été réalisée dans le cas d’un bruit indépendant
entre les composantes R,V et B. Dans le cas d’un bruit composite l’évolution serait similaire
mais avec des variances sur la Saturation bruitée plus faible comme nous l’avons vu
précédemment.
d.d.p. d.d.p. d.d.p.
0.2 0.2 0.25
Saturation initiale de 0 Saturation initiale de 0 Saturation initiale de 0
0.2
0.15 0.15
Saturation initiale de 128 Saturation initiale de 128 Saturation initiale de 128
0.15
0.1 0.1
0.1
0.05 0.05
0.05
Figure I.16: Evolution des d.d.p. de la Saturation pour différentes valeurs de R,V, et B
suivant la d.d.p.du bruit.
Page 30
Représentation Teinte - Luminance - Saturation
Ces courbes confirment que le comportement de la Saturation dépend bien des valeurs des
composantes R, V, et B. Lorsque ces trois composantes sont voisines (proximité de l'axe
achromatique), on observe, surtout lorsque le bruit est fort, un biais important et une perte de
symétrie. Ce comportement peut être attribué aux effets de discrétisation dans les
transformations non linéaires semblables à ceux mis en évidence par Kender [KEN 77]. Pour
des régions à forte Saturation, ces déformations n’apparaissent plus. Cette étude de l’évolution
des densités de probabilité permet également de comprendre la dépendance vis-à-vis de la
nature du bruit dans le cas de Saturation faible. Du fait du biais qui est introduit par la
discrétisation, la perte de symétrie est moins importante lors d’un bruit de type exponentiel que
lors d’un bruit de type uniforme.
Pour étudier l’influence du bruit sur la Teinte il nous a fallu préalablement définir, du fait de
sa représentation circulaire, des opérateurs permettant de calculer la moyenne et la variance de
cette composante (cf. annexe B). Une fois ces opérateurs définis, nous pouvons effectuer
2
l’étude de l’évolution de la variance de la Teinte σ Tb en fonction du coefficient de corrélation
du bruit; ceci pour les différentes densités de probabilité envisagées.
Rappelons que la Teinte, qui est l’information angulaire du plan de chrominance, n’est pas
définie sur l’axe achromatique (en fait arbitrairement mise à zéro dans le calcul de la
transformation, c.f. § 2.3.2). L’étude a donc été réalisée d’une part pour des valeurs de R,V et B
proches de l’axe achromatique, correspondant à un niveau de Saturation faible, et d’autre part
pour des valeurs de R,V et B éloignées de cet axe, correspondant alors à des Teintes fortement
saturées. Les figures I.17 et I.18 montrent les résultats obtenus.
On constate ainsi que la sensibilité aux bruits, se caractérise pour la composante Teinte par:
❏ une dépendance suivant le niveau de corrélation du bruit avec un rejet total
des perturbations dans le cas d’un bruit totalement corrélé dans l’espace
RVB,
❏ une forte dépendance suivant les valeurs initiales de R,V et B qui se traduit
par une très forte amplification du bruit lorsque la Saturation est faible, et
une réduction importante dans le cas de Saturation élevée,
❏ une indépendance vis-à-vis de la densité de probabilité du bruit.
Page 31
Représentation Teinte - Luminance - Saturation
35
d’amplification
25 Bruit Gaussien
du bruit
2 2 Bruit Exponentiel
σ ⁄σ
Zone
Tb couleur
Bruit Uniforme
15
5
1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
coefficient de corrélation
2 2
Figure I.17: Evolution de σ Tb ⁄ σ couleur suivant ρ pour différents bruits
dans le cas d’une Saturation faible
0.2
d’atténuation
2 2
σ ⁄σ Bruit Exponentiel
du bruit
Tb couleur
Zone
Bruit Uniforme
0.1
0.05
2 2
Figure I.18: Evolution de σ Tb ⁄ σ couleur suivant ρ pour différents bruits
dans le cas d’une Saturation forte
Vis-à-vis de l’influence de la corrélation (du bruit), il est à noter, comme pour la Saturation,
une inversion du sens de variation par rapport à l’étude faite sur la Luminance. En effet, plus la
corrélation entre les bruits dans l’espace RVB est importante, plus la sensibilité aux bruits est
faible. Le rejet total de la perturbation dans le cas d’un bruit totalement corrélé est lié au
modèle de bruit envisagé (additif) et au fait que la Teinte opère des différences entre les
composantes (on élimine le bruit additif corrélé, cf. annexe A § 2.3).
Page 32
Représentation Teinte - Luminance - Saturation
Bα
Sk B Bb
L TLC->RVB V Vb RVB->TLC
Tb(Sk)
T R Rb
Nous avons vu sur les figures I.17 et I.18, que la densité de probabilité du bruit a peu
d’influence sur l’évolution générale de la sensibilité au bruit de la Teinte. L’étude présentée par
la figure I.20 est ainsi réalisée uniquement pour un bruit de densité de probabilité de type
gaussien. Pour ne pas compliquer l’étude, celle-ci a été réalisée dans le cas d’un bruit
indépendant entre les composantes R,V et B. Dans le cas d’un bruit corrélé l’évolution serait
similaire mais avec des variances sur la composante Teinte bruitée plus faible comme nous
l’avons vu précédemment.
0.1
0.05
Niveau de Teinte
150 250
125 200
100
Niveau de Saturation 75 150
50 100 Niveau initial de Teinte
25 50
0 0
Figure I.20: Evolution de la d.d.p. de la Teinte bruitée par un bruit gaussien additif non corrélé
en fonction du niveau de Saturation
La sensibilité aux bruits de la composante Teinte est fortement liée au niveau de Saturation.
A faible niveau de Saturation (proche de l’axe achromatique), le bruit sur la Teinte se trouve
fortement amplifié alors que pour une Saturation élevée il est atténué.
Si l’on trace dans le cas le plus défavorable, c’est-à-dire avec un bruit totalement décorrélé,
2 2
l’évolution de σ Tb ⁄σ couleur en fonction du niveau de Saturation, on constate (figure I.21)
que pour de très fortes Saturations (niveau supérieur à 90), l’atténuation du bruit est plus
importante sur la composante Teinte que celle observée sur la Luminance. Par contre, au
Page 33
Représentation Teinte - Luminance - Saturation
dessous d’un niveau de Saturation égal à 50, le bruit sur la Teinte est supérieur à celui généré
dans l’espace RVB. Ces valeurs de Saturation (50 et 90) seront plus faibles dans le cas d’un
bruit corrélé.
7
2 2
6 σ Tb ⁄σ couleur
5
Zone
4 d’amplification
du bruit
3 2 2
σ Lb ⁄σ couleur
2
1
0.33
Zone
0 25 50 75 90 100 125 150 175 200 d’atténuation
Saturation du bruit
2 2
Figure I.21: Evolution de σ Tb ⁄σ couleur en fonction du niveau de Saturation
Il existe donc une zone autour de l’axe achromatique où la Teinte, même si elle est définie,
présente une très mauvaise fiabilité du fait de son extrême sensibilité au bruit.
Pour expliquer ce phénomène, il nous faut revenir à la définition des composantes Teinte et
Saturation. Dans le plan de chrominance (C1C2), la Teinte est l’angle du vecteur de
chrominance par rapport à l’axe C1 tandis que la Saturation est le module de ce vecteur.
Prenons l’exemple de deux zones homogènes (notées P1 et P2) de Teintes identiques telles que
la zone P1 ait des caractéristiques proches de l’axe achromatique alors que la zone P2
correspond à une Teinte très pure (fortement saturée). Comme le montre la figure I.22, le bruit
altérant les composantes C1 et C2 a sensiblement la même distribution sur les deux zones. De
part sa nature angulaire, la dispersion de la Teinte va donc être plus forte lorsque l’on est
proche de l’origine alors que pour la Saturation, la dispersion va rester sensiblement identique
dans les deux zones.
C2
∆T(P2) maximal
150
P2
100
50 P1 ∆T(P1) maximal
0
0 50 100 150
C1
Page 34
Représentation Teinte - Luminance - Saturation
0.2 A B C D E
0
0 10 20 30 40 50 60 70 80 90 100 120 140 160 180 200
Saturation
Zone où la Teinte est plus Zone où la Teinte est moins Zone où la Teinte est moins
sensible au bruit que sensible au bruit que sensible au bruit que
les composantes RVB les composantes RVB la Luminance
2 2
Figure I.23: Lignes de niveau σ Tb ⁄ σ couleur de l’évolution du coefficient de corrélation
en fonction niveau de Saturation pour un bruit additif gaussien
❏ une zone notée A dans laquelle le bruit sur la Teinte est fortement amplifié
par rapport au bruit imposé dans RVB,
❏ une zone notée B où le bruit sur la Teinte est amplifié,
❏ une zone notée C avec un bruit sur la Teinte proche de celui affectant les
composantes RVB,
❏ une zone notée D dans laquelle le bruit sur la Teinte est atténué,
❏ une zone notée E dans laquelle le bruit sur la Teinte est plus fortement
atténué que sur la composante Luminance.
L’information apportée par la Teinte est ainsi plus ou moins fiable selon la corrélation du
bruit entre les composantes de la base RVB (comme pour la composante Saturation), mais
également selon le niveau de Saturation correspondant.
Page 35
Représentation Teinte - Luminance - Saturation
Si pour la Luminance, le bruit n’est jamais amplifié, il n’en est pas de même pour les
composantes de chrominance. De manière générale, la sensibilité au bruit des composantes de
chrominance diminue lorsque la corrélation du bruit augmente, alors que le phénomène est
inverse pour la Luminance.
Le cas le plus défavorable dans cette base est celui d’un bruit totalement décorrélé dans
l’espace RVB. En effet, si pour la Luminance il y a un effet de lissage qui se traduit par une
division par 3 de la variance du bruit résultant, il y a en revanche pour la Saturation une
amplification du bruit qui se traduit par une multiplication par 1,5 de sa variance. Pour la
Teinte, le phénomène est plus complexe puisqu’il dépend, en plus du niveau de corrélation du
bruit, du niveau de Saturation du pixel traité. Néanmoins, c’est là encore, dans le cas d’un bruit
totalement décorrélé, que la sensibilité au bruit de cette composante est la plus forte, et cela
quel que soit le niveau de Saturation.
La sensibilité au bruit de la Teinte étant liée à la Saturation, celle-ci peut ainsi être utilisée
comme une mesure de la fiabilité que l’on peut attacher à la Teinte. Ce résultat entraîne des
conséquences très importantes pour les méthodes de segmentation dans les espaces TLS.
Ainsi, ces méthodes de segmentation devront avoir un comportement différencié, vis-à-vis de
l’utilisation de l’information de Teinte, en fonction du niveau de Saturation. L’utilisation de
l’information de Teinte devra donc être liée au niveau de Saturation correspondant:
4 - Conclusion
Nous nous sommes intéressés dans ce chapitre à la base de représentation des images
couleur. Nous avons vu que si la base d’acquisition est généralement la base RVB, le passage à
une autre base de représentation peut apporter certains avantages pour le traitement.
Notamment, l’utilisation d’une base de type Teinte - Luminance - Saturation (ou Chroma)
proche de la perception humaine des couleurs va faciliter les phases de mise au point des
algorithmes de segmentation.
Page 36
Représentation Teinte - Luminance - Saturation
A l’aide de différents modèles de bruit nous avons ensuite simulé le comportement des
composantes Teinte, Luminance et Saturation en fonction du niveau de corrélation du bruit
généré dans l’espace RVB. Nous avons constaté que, d’une manière générale, un bruit corrélé
dans l’espace RVB était atténué par le changement de base.
Cette étude de l’influence du bruit sur les composantes de la base TLS a permis de
déterminer un résultat essentiel pour les méthodes de segmentation dans cette base de
représentation:
Page 37
Représentation Teinte - Luminance - Saturation
Page 38
CHAPITRE II
Page 39
Segmentation couleur par fusion numérique
1 - Introduction
La segmentation des images couleur s’appuie souvent sur les diverses techniques et
méthodes développées en traitement d’images en niveaux de gris. Elle peut également tirer
parti des concepts de l’analyse de données multi-dimensionnelles. Dans les deux cas, on
retrouve les approches duales contours et régions. Dans ce qui suit, diverses méthodes de
segmentation en couleur sont brièvement évoquées. Cette présentation ne se prétend pas
exhaustive, dans la mesure où la plupart des méthodes développées pour la segmentation en
niveaux de gris peuvent être plus ou moins transposées pour une application couleur.
La détection de contours dans une image couleur peut être définie, de la même manière que
dans le cas des images en niveaux de gris, en excluant le cas des images texturées, comme la
recherche de discontinuités locales. La différence réside alors dans le fait que les discontinuités
doivent être recherchées dans les trois composantes de l’image couleur et non sur une seule
comme dans le cas d’image monochromatique On retrouve alors les deux approches suivantes:
❏ les approches basées sur le calcul des dérivées premières, appelées méthodes
du gradient
❏ les approches basées sur le calcul de la dérivée seconde directionnelle.
L’espace de travail des différentes méthodes est, dans la plus part des cas, l’espace RVB. La
différence provient alors essentiellement de l’approche adoptée pour calculer les dérivées de
l’image couleur. On peut ainsi classer les méthodes en deux groupes:
❏ Les premières [NEV 77] [PIE 86], dites du gradient marginal, calculent dans
un premier temps un gradient pour chaque composante de manière indépendante en utilisant
des techniques issues de l’imagerie en niveaux de gris. Il faut ensuite fusionner pour chaque
pixel ces différents gradients pour obtenir l’image gradient couleur. Une solution envisageable
Page 41
Segmentation couleur par fusion numérique
afin d’obtenir le gradient couleur marginal G Coul consiste à prendre la somme vectorielle des
vecteurs gradients obtenus sur chaque composante R, V et B:
G Coul = G R + G V + G B (II.1)
x y
avec GR = G Rx + G Ry , etc...
Cette solution triviale donne de bons résultats dans la situation où tous les vecteurs gradient
ont le même sens. Mais, lorsque les vecteurs sont de même direction mais de sens opposés il y
a un effet de compensation atténuant alors fortement le gradient marginal. Une solution plus
intéressante peut être envisagée par la combinaison des modules des composantes des
gradients. Par exemple:
x x x x y
G Coul = G R + G V + G B , de même pour G Coul . (II.2)
Moyennant certaines corrections prenant en compte les signes des différentes composantes
x y
gradients, la direction peut être obtenue à partir des deux composantes G Coul et G Coul .
❏ Les secondes [ZEN 86] [NOV 87] [LEE 91] [CHA 91], dites du gradient multi-
composante ou gradient vectoriel, sont plus récentes. Elles prennent en compte la nature
vectorielle des images dans l’espace RVB, c’est-à-dire que le gradient est calculé globalement
sur l’ensemble des composantes. Leur caractéristique commune est une maximisation d’un
critère de distance, mesuré selon la norme L2, caractérisant la différence vectorielle dans
l’espace RVB. Les différentes méthodes proposées diffèrent selon la manière d’estimer cette
distance, mais fournissent des résultats identiques. on a ainsi:
1 2 2
G Coul = --- p + q + ( p + q ) – 4 ( pq – t ) (II.3)
2
∂R 2 ∂V 2 ∂B 2 ∂R 2 ∂V 2 ∂B 2
avec p = + + , q = + + et (II.5)
∂ x ∂ x ∂ x ∂ y ∂ y ∂ y
∂R ∂R ∂V ∂V ∂B ∂B
t = ⋅ + ⋅ + ⋅
∂x ∂y ∂x ∂y ∂x ∂y
Les performances de ces méthodes sont sensiblement supérieures aux méthodes marginales
surtout en présence de bruit non-corrélé altérant les composantes [ALS 94].
Dans les deux approches, la définition de la direction du gradient pour des images couleur
est plus délicate que dans le cas d’images en niveaux de gris. En effet, si dans une image à
Page 42
Segmentation couleur par fusion numérique
Une fois l’image gradient calculée les contours sont obtenus en utilisant deux étapes
classiques en niveaux de gris détaillées dans [COC 95]:
❏ Une étape de suppression des non-maxima locaux de l’image gradient permet
d’affiner les résultats obtenus par le gradient en réduisant les contours à une
épaisseur de un pixel.
❏ Une seconde étape de seuillage par hystérésis, introduit par Canny, permet de
fournir des contours mieux fermés que ceux obtenus en utilisant un seuil
unique.
Comme pour les images monochromes, on peut obtenir directement les contours d’une
image couleur en utilisant une approche basée sur le calcul de la dérivée seconde
directionnelle. Proposée par Cumani en 1991 [CUM 91] et optimisée dans [ALS 93a]
[ALS 93b], cette approche consiste à estimer dans un premier temps la dérivée première du
module carré du gradient dans la direction du maximum de ce gradient obtenant ainsi la
dérivée seconde directionnelle. Puis, les contours sont définis par le passage par zéro de cette
dérivée seconde directionnelle. L’application de ces méthodes de détection de contours
impliquant des dérivées du premier et second ordre, il est nécessaire de procéder à une étape
préalable de filtrage afin de diminuer l’effet d’amplification du bruit inhérent à tout processus
de dérivation et susceptible d’engendrer des contours parasites. Dans [CUM 91] l’obtention de
la dérivée seconde directionnelle est réalisée en prenant l’estimation de la direction du gradient
donnée par la méthode de Di Zenzo [ZEN 86] associée à l’opérateur gradient Sobel, alors que
dans [ALS 93a] et [ALS 93b], la dérivée seconde directionnelle est calculée en se basant sur
l’intégration des opérateurs optimaux de Deriche [DER 87] [DER 90], permettant une
optimalité entre une bonne détection des contours et une bonne réduction du bruit. L’avantage
de ces techniques, par rapport aux techniques basées sur le gradient est l’obtention de contours
plus fins et mieux localisés, mais avec une sensibilité plus importante au bruit.
La méthode de détection de contours couleur proposée dans [CAR 94] et décrite dans le
paragraphe 2, correspond à une approche du type gradient marginal. L’originalité de cette
méthode réside dans le fait que l’information de couleur est prise explicitement en considération
dans l’évaluation du gradient grâce à l’utilisation de la base TLS, alors que les méthodes
précédentes, par ailleurs généralisables à toute image multi-spectrale, ne prennent pas en
considération cette caractéristique fondamentale des images couleur.
Page 43
Segmentation couleur par fusion numérique
La segmentation en régions est définie comme une partition de l’image, ceci au sens
topologique, pour laquelle chaque région, c’est-à-dire chaque ensemble de pixels, vérifie une
ou des propriétés ou prédicats d’homogénéité [BON 91]. La segmentation en régions est ainsi
un regroupement de pixels connexes ayant des attributs similaires (niveaux de gris, texture...),
dans le but de former des régions homogènes et cohérentes.
Dans le cas d’image couleur, l’attribut utilisé en l’occurrence est l’information chromatique.
A l’inverse de l’approche contours, où la recherche des discontinuités s’effectue dans la
majorité des méthodes employées dans l’espace RVB, la recherche de régions homogènes dans
une image couleur passe généralement par la recherche d’une métrique adéquate et donc
l’utilisation d’une autre base de représentation que la base RVB. Le travail effectué par Ohta
[OHT 80] est sans nul doute celui qui symbolise le mieux cette recherche. A partir des
composantes RVB, il obtient le système de coordonnées le plus discriminant pour l’image
traitée en effectuant une analyse en composantes principales par une transformation de
Karhunen-Loeve dynamique. Puis, à l’aide d’une analyse statistique sur plusieurs images, il en
déduit un système noté I1I2I3 qui est statistiquement le plus adapté pour rendre compte des
différences de couleur dans les images naturelles.
❏ Dans le premier cas, les méthodes peuvent être qualifiées de globales car les
pixels sont regroupés en régions en fonction de leurs propriétés, et de celles d’un très grand
nombre de pixels de l’image. On trouvera en grande majorité dans cette classe des techniques
de seuillage ou de multi-seuillage. On perd, provisoirement, avec ces méthodes la notion de
répartition spatiale.
❏ Dans le second cas, les méthodes peuvent être qualifiées de locales, car les pixels
sont regroupés en région en fonction de leurs propriétés, et de celles des pixels voisins. Même
si la notion de voisinage peut devenir très étendue lorsqu’une région prend de l’importance
dans l’image, la notion de répartition spatiale demeure conservée, alors que dans les méthodes
précédentes les pixels de l’images sont considérés dans leur globalité.
Une autre famille de méthodes utilisant le formalisme des champs markoviens est plus
récente. Dans ce cas l’image couleur est considérée comme un ensemble de trois images
monochromes couplées par l’intermédiaire de champs markoviens [DAI 89] [CHA 93]. Ces
approches donnent de bons résultats, mais nécessitent des techniques d’optimisation globale
(recuit simulé, technique de Monte-Carlo) qui sont très coûteuses en temps de calcul. Pour
cette raison nous ne nous intéresserons pas à cette approche.
Page 44
Segmentation couleur par fusion numérique
On peut distinguer dans ces méthodes celles travaillant sur les histogrammes
mono-dimensionnels qui sont généralement des techniques de seuillage ou de multi-seuillage
telles celles de Ohlander [OHL 78] de Tominoga [TOM 86] ou de Miyawaki [MIY 90], de
celles travaillant sur des projections des histogrammes multi-dimensionnels qui sont
généralement des méthodes de détection de groupement (“clustering”) telles celles de Sarabi et
Aggarwal [SAR 81] ou de Celenk [CEL 86b] [CEL 88].
Comme nous l’avons déjà signalé, le défaut général de ces méthodes est qu’elles ignorent
dans un premier temps les propriétés spatiales des zones ainsi créées. Pour atténuer ce
problème, J. R. Beveridge [BEV 89] ou R. Schettini [SCH 93] proposent de faire suivre la
méthode de classification par une méthode de fusion des régions permettant de réintroduire
une information de localisation spatiale dans le processus de segmentation. Schettini utilise
comme base colorimétrique la représentation CIE-LUV. Il débute son processus de
segmentation par une classification basée sur une analyse récursive des histogrammes de
Page 45
Segmentation couleur par fusion numérique
chaque composante avec des paramètres choisis pour créer une sur-segmentation de l’image.
Dans une seconde phase, les régions obtenues par “clustering” sont fusionnées en utilisant un
graphe d’adjacence. Le critère d’agrégation retenu pour la fusion de deux régions voisines tient
compte des informations colorimétriques ainsi que de la longueur relative de leur frontière
commune par rapport à leur périmètre total.
Ces méthodes utilisent aussi bien les caractéristiques spectrales que les relations spatiales
entre les points de l’image. On procède soit par divisions successives de l’image jusqu’à
l’obtention de régions homogènes (méthodes dites de division “Split”), soit par agrégation de
pixels connexes vérifiant un prédicat d’homogénéité (méthodes dites de fusion “Merge”).
S1 + S2 2
D (P 1,P 2) = ( L 1 – L 2 ) + ( S 1 – S 2 ) + ------------------ ⋅ ( T 1 – T 2 )
2 2 2 2
(II.6)
2
❏ Une autre méthode courante de segmentation par croissance de région est
l’algorithme “Split-and-Merge” proposé par Horowitz et Pavlidis [HON 74] qui utilise une
structure pyramidale de tétra-arbre. L’algorithme se décompose en deux étapes successives.
Dans un premier temps, deux procédures duales de division et de fusion de régions sont mises
en jeu. Ces deux opérations agissent, de manière complémentaire, sur des zones dont la forme
est fixée a priori par la structure pyramidale du tétra-arbre. Quand aucune division ou fusion
n’est possible, l’algorithme passe à la seconde phase qui est une procédure de fusion plus
classique, permettant de remédier aux limitations des possibilités de fusion engendrés par le
découpage arbitraire de la structure du tétra-arbre. Elle permet ainsi de fusionner deux zones
voisines quelles que soient leurs tailles. Le critère d’homogénéité recherché pour une région
est généralement basé sur une mesure de variance inférieure à un seuil donné. On peut
retrouver une explication approfondie de cette technique dans le rapport d’Henri Maitre sur la
segmentation des images [MAI 90]. L’extension de ces algorithmes dans le cas de la couleur,
entraîne une généralisation des caractéristiques des régions et des prédicats homogénéité
utilisés au cas tri-dimensionnel. Une multitude de prédicat est envisageable. De plus ils
peuvent être différents entre les deux phases de l’algorithmes, conduisant ainsi à des
algorithmes différents:
Page 46
Segmentation couleur par fusion numérique
❏ Gershon [GER 87] construit un critère d’homogénéité basé sur la détection d’un
minimum séparant deux pics de l’histogramme d’une zone de l’image. Les histogrammes
n’étant utilisés que pour valider l’homogénéité d’une zone, on ne peut classer cette méthode
dans les approches globales. Si le rapport entre deux pics significatifs et la valeur minimum
entre ces deux pics dépasse un seuil fixé, alors le critère d’homogénéité est satisfait et une
phase de division ou de fusion est effectuée. Comme la segmentation s’effectue sur des images
couleur, le critère d’homogénéité est recherché dans un premier temps sur l’histogramme
d’une des composantes. Si il échoue, l’histogramme de la seconde composante est utilisé, et de
même avec la troisième composante. Ainsi, le critère d’homogénéité est mis en défaut
uniquement s’il ne répond pas aux trois composantes. Une décomposition en composantes
principales est utilisée (méthode de Karhunen-Loeve) pour déterminer l’espace de couleur le
plus approprié pour l’image considérée.
❏ Vinet [VIN 91] utilise uniquement un critère uniforme: une région est homogène
si la différence maximale entre les pixels qui la composent est inférieure à un seuil. Il compare
alors les résultats obtenus en travaillant dans la base RVB et dans l’espace YIQ. Il en conclut
que l’utilisation d’une représentation adéquate des images couleur, permet d’améliorer
sensiblement les résultats de la segmentation.
La méthode de segmentation en régions proposée dans [LAM 91] [CAR 93a] et décrite
dans le paragraphe 3, correspond à une approche du type croissance de régions. L’originalité
de cette méthode réside dans le fait qu’elle combine les informations de Teinte et de
Luminance suivant la Saturation pour former un critère composite d’homogénéité permettant
ainsi l’utilisation de techniques de segmentation élaborées pour les images en niveaux de gris.
Nous allons dans ce paragraphe étendre la définition des opérateurs contours basés sur le
gradient marginal aux images couleur représentées dans la base TLS qui est plus proche de la
perception humaine que la base RVB généralement utilisée.
Le paragraphe suivant décrit le principe de base de la fusion des informations provenant des
différentes composantes TLS. Avant de l’appliquer pour définir deux nouveaux détecteurs de
contours couleur au § 2.4, nous verrons aux § 2.2 et 2.3 les problèmes particuliers liés à
l’utilisation de la Teinte. Nous examinerons alors l’influence des paramètres de la méthode sur
le comportement des opérateurs. Nous évaluerons ensuite leurs performances en les comparant
à l’approche vectorielle dans RVB avant de présenter quelques applications à des images
réelles.
Page 47
Segmentation couleur par fusion numérique
Le principe de base de la méthode proposée repose sur une fusion numérique des
informations de Luminance (notée IL) de Saturation (notée IS) et de Teinte (notée IT) en une
seule grandeur (notée M). Ce “mélange” des informations doit bien sûr être effectué d’une
manière cohérente avec la pertinence de la Teinte que nous avons caractérisée au chapitre
précédent. Ainsi, à faible niveau de Saturation, l’information apportée par la composante
Teinte ne doit pas influencer la grandeur M. A l’inverse lorsque la Saturation est forte,
l’information de Teinte est pertinente et elle doit être prise en considération dans la fusion des
différentes composantes. Deux approches peuvent alors être envisagées dans ce cas:
D’un point de vue physique, cette dernière approche se justifie par le fait que la couleur est
souvent moins sensible aux variations d’éclairage que l’intensité. Le cas des ombres est
l’illustration de ce phénomène. De plus, on a constaté dans le chapitre précédent qu’à partir
d’un certain niveau de Saturation, l’information de Teinte est moins sensible aux bruits que les
autres composantes.
On peut alors exprimer le mélange M, suivant l’importance relative accordée à la Teinte par:
M = α ⋅ IT + IL + IS (II.7)
❏ Teinte privilégiée
M = α ⋅ IT + (1 – α) ⋅ I L + (1 – α) ⋅ IS (II.8)
α ( S ) = 1 ⁄ π ⋅ [ π ⁄ 2 + arctg ( β ( S – S 0 ) ) ] (II.9)
Page 48
Segmentation couleur par fusion numérique
0,5
0
S0 255 Saturation
❏ S0: valeur de Saturation tel que α(S0) = 0,5; ceci permet de définir un niveau
de pertinence moyen de la Teinte lié à un niveau de Saturation.
❏ β: règle la pente de la fonction autour du niveau S0; Il permet le choix depuis
la transition brutale en échelon jusqu’à l’évolution en rampe, en passant par
toutes les transitions souples comme celles de la figure ci-dessus. C’est ce
paramètre qui permet de doser le mélange dans les situations où la pertinence
accordée à l’information de Teinte est moyenne.
Nous reviendrons plus loin sur l’incidence de ces paramètres de réglage.
Voici posées les bases de cette segmentation en contours par fusion numérique des
composantes de la base TLS. Il faut maintenant préciser la manière dont vont être construites
les informations liées à chaque composante. Ces informations, dans le cas de contours sont
basées sur des mesures de différences. Pour la Luminance et la Saturation, on peut utiliser une
simple différence signée. Pour la Teinte, le calcul demande certaines précautions.
Il se pose deux problèmes distincts pour définir une telle différence: la mesure de l’écart
entre deux valeurs de Teinte et la prise en considération de la pertinence ou non de cette écart.
Comme nous l’avons déjà évoqué, la définition d’une mesure d’écart entre les informations
de Teinte de deux pixels doit prendre en compte la nature circulaire de cette composante. On
Page 49
Segmentation couleur par fusion numérique
doit prendre également en considération le fait que les relations entre les couleurs (rouge,
jaune,...) et leurs valeurs numériques sont arbitraires. Par exemple il n’y a pas de raison
d’obtenir une différence plus importante entre le rouge et le cyan qu’entre le rouge et le vert.
Ceci implique que la valeur numérique du gradient rouge/cyan doit être identique à celle du
gradient rouge/vert.
Une solution au second problème consiste à écrêter la différence au delà d’un certain seuil.
Le seuil noté ∆Tmax est défini en calculant la différence de Teinte entre deux sommets
consécutifs du cube des couleurs dans la base initiale RVB. Avec la représentation choisie, la
valeur numérique de ce seuil est alors de 42 (cf. § 1.1 de l’ANNEXE B). La figure II.2 montre
l’évolution de cet écart signé noté δ(T1,T2) entre deux Teintes T1 et T2.
δ (T1,T2)
∆Tmax
T1 – T2 255
- ∆Tmax
Si T1 – T2 255
≤ ∆T max Alors
δ (T 1,T 2) = T1 – T2 255
Sinon
Si T1 – T2 255
≥0 Alors
δ (T 1,T 2) = + ∆T max
Sinon
δ (T 1,T 2) = – ∆T max
Page 50
Segmentation couleur par fusion numérique
p (S 1,S 2) = α ( S1 ) ⋅ α ( S2 ) (II.10)
p(S1,S2)
1 1
0.5 0.5
0 0
S2 S1
250 250
S0 S0
0
Le rôle de ce coefficient est de pondérer l’écart entre deux Teintes afin d’obtenir une
différence pertinente. Comme le montre la figure II.3, la différence est pertinente uniquement
dans le cas où les niveaux Saturations des deux pixels sont élevés. C’est le seul cas où la
mesure d’un écart de Teinte est significatif, et où son utilisation dans le calcul d’un gradient
couleur est fiable.
Ainsi, la différence signée pertinente entre deux grandeurs de Teinte notée ∆T(T1,T2) est
définie par la formule suivante:
Page 51
Segmentation couleur par fusion numérique
Les opérateurs gradients utilisant des différences entre les niveaux effectuent généralement
un lissage local afin de réduire les effets du bruit. Par exemple l’opérateur de Sobel pour les
images à niveaux de gris effectue un filtrage séparable en utilisant deux masques de
convolution de taille 3x3 (notée Gx et Gy sur la figure II.4).
-1 xc 1 xc -1 xc 1
-1 1 0 -1 yc -1 1 2 1
yc 2 0 -2 Pixel traité yc 0 0 0
1 1 0 -1 x 1 -1 -2 -1
Gx x: coefficient du pixel Gy
Gy
G x + G y , θ = arctg ------
2 2
G =
Gx
T
G x (y c ,x c) = ∆T ( T –1 , –1 , T –1, 1 ) + 2 ⋅ ∆T ( T 0 , –1 , T 0 ,1 ) + ∆T ( T 1, –1 , T 1 , 1 ) (II.12)
et
T
G y (y c ,x c) = ∆T ( T –1 , –1 , T 1, –1 ) + 2 ⋅ ∆T ( T –1, 0 , T 1, 0 ) + ∆T ( T –1, 1 , T 1 , 1 ) (II.13)
Dans le cas où les différences de Teinte ne sont pas ou peu pertinentes, leurs valeurs
numériques sont faibles, et de ce fait les valeurs des deux composantes du gradient sont
également faibles. En fait, une valeur forte de gradient de Teinte (indiquant la présence d’un
contour) n’est possible que si une différence de Teinte est pertinente, c’est-à-dire que les deux
pixels qui la composent ont un niveau de pertinence élevé. Ainsi, dans le cas d’une transition
entre une zone achromatique et une zone chromatique, le gradient de Teinte sera nul. Ceci est
cohérent puisqu’il n’est pas possible de quantifier une mesure de variation de Teinte entre un
pixel possédant une caractéristique de couleur et un autre pixel n’en possédant pas.
Page 52
Segmentation couleur par fusion numérique
On remarquera dans les Eq. II.12 et II.13, du fait des non-linéarités (écrêtage, pondération)
intervenant dans le calcul des différences de teinte, les sommations, qui assurent l’effet de
lissage ne peuvent être effectuées avant le calcul de la différence comme on le fait
communément en niveaux de gris.
A partir de cette définition d’un gradient de Teinte il est maintenant possible de construire
un détecteur de contours couleur en utilisant une méthode par fusion marginale des gradients
des différentes composantes.
Comme cela a été évoqué dans le paragraphe 2.1 à propos du principe de base de la
segmentation, l’importance accordée à la composante Teinte par rapport à la Luminance et à la
Saturation va nous permettre de définir deux types de détecteur de contours couleur. Le
premier n’accorde pas plus d’importance à la Teinte. Le second, au contraire, privilégie les
Teintes pertinentes. Le choix de l’utilisation de l’un ou l’autre des opérateurs dépend alors du
contexte de l’acquisition et des résultats attendus.
T T
Les deux composantes du gradient de Teinte, G x et G y , étant définies comme
L L
précédemment, les composantes du gradient Luminance (notées G x et G y ) et les
S S
composantes du gradient de Saturation (notées G x et G y ) sont calculées classiquement par
l’opérateur de Sobel.
TLS TLS
Les composantes horizontales et verticales du gradient couleur (notées G x et G y )
sur la base TLS et utilisant la Teinte comme complément d’information sont définies comme
suit:
TLS T L S
Gx = Gx + Gx + Gx (II.14)
et
TLS T L S
Gy = Gy + Gy + Gy (II.15)
Le sens de variation pouvant être différent d’une composante à l’autre, la valeur absolue est
alors utilisée pour éviter d’éventuelles compensations entre les différents gradients.
Page 53
Segmentation couleur par fusion numérique
Il est à noter que l’information de Teinte vient bien en complément des informations de
Luminance et de Saturation uniquement lorsqu’elle est pertinente. Ainsi la valeur du gradient
sera augmentée uniquement dans le cas d’une transition entre deux zones colorées assurant
alors une meilleure extraction du contour.
p (S 1,S 2)
1 1
0.5 0.5
0 0
S2 S1
250 250
100 100
L L
Les composantes G x et G y du gradient de Luminance sont alors obtenues à l’aide des
S S
équations II.18 et II.19. Il en est de même pour les composantes G x et G y du gradient de
Saturation.
Page 54
Segmentation couleur par fusion numérique
L
G x (y c ,x c) = p ( S –1, –1 , S –1, 1 ) ⋅ L –1, –1 – L –1, 1
+ 2 ⋅ p ( S 0, –1 , S 0, 1 ) ⋅ L 0, –1 – L 0, 1
+ p ( S 1, –1 , S 1, 1 ) ⋅ L 1, –1 – L 1, 1
(II.18)
L
G y (y c ,x c) = p ( S –1, –1 , S 1, –1 ) ⋅ L –1, –1 – L 1, –1
+ 2 ⋅ p ( S –1, 0 , S 1, 0 ) ⋅ L –1, 0 – L 1, 0
+ p ( S –1, 1 , S 1, 1 ) ⋅ L –1, 1 – L 1, 1
(II.19)
C C
Les composantes horizontale et verticale du gradient couleur (notées G x et G y )
privilégiant l’information de Teinte sont alors définies de la même manière que pour le
détecteur de contours utilisant la Teinte comme complément d’information (c.f. Eq. II.14 et
II.15). Il en est de même pour la définition du module GC du gradient couleur (c.f. Eq. II.16).
Dans des zones de l’image possédant une forte chrominance, la détection des éventuels
contours ne s’effectuera que sur la composante Teinte qui est, dans ce cas, un attribut plus
stable que la Luminance ou la Saturation, les éventuels contours détectés sur ces deux
composantes ayant alors une contribution faible.
Il est à noter que comme la composante Saturation n’intervient plus dans ce cas, il n’y aura
pas de contour entre deux zones ayant des teintes identiques, pertinentes et de Saturation
différentes (exemple une zone rouge et une zone rose).
La direction du gradient est une notion essentielle pour certaines étapes de traitement
ultérieures telles que la détection des maxima locaux ou le suivi de contours. Dans le cas des
images à niveaux de gris, la direction du gradient est définie sur l’intervalle 0 à 2π, avec une
indétermination lorsque le module du gradient est nul. Cette indétermination n’est pas critique
pour la suite du traitement de l’image puisque le gradient étant nul, le pixel considéré n’est
donc pas un point de contour.
Dans le cas des images multi-spectrales, la détermination de la direction du gradient est plus
délicate. Avec les approches vectorielles suivant les méthodes de Di Zenzo, de Novak et Shafer
ou encore de Lee et Cok, il y a une ambiguïté et des indéterminations de la direction du
gradient. L’ambiguïté de π sur la définition de cette direction est inhérente à la situation multi-
spectrale. Cette ambiguïté dans le sens du gradient ne pose pas nécessairement de problème en
particulier pour l’extraction des points de contour à partir de l’image gradient. Le cas des
indéterminations est, quant à lui, plus problématique puisque ces dernières interviennent dans
des situations où la valeur du module du gradient n’est pas forcément nulle. Alshatti dans
[ALS 94] propose deux méthodes pour résoudre ce problème. L’une, très radicale, consiste à
Page 55
Segmentation couleur par fusion numérique
ne pas tenir compte des pixels dont la direction du gradient est indéterminée pour le processus
d’extraction des points de contours. La seconde, permet de lever l’indétermination en utilisant
une autre formulation pour l’estimation de la direction du gradient.
Dans le cas des approches gradients marginals, l’estimation de la direction du gradient peut
être réalisée en prenant par exemple la direction correspondant à la composante de gradient
maximum ou bien une somme pondérée des directions obtenues sur chaque composante. Il ne
persiste alors que l’indétermination dans le sens du gradient. En effet, même si, dans une
situation idéale, les changements sur les différentes composantes se font tous selon une même
direction, les sens bien sûr ne sont pas forcément les mêmes et il n’est pas simple de décider
entre l’un ou l’autre des deux sens possibles.
Nous avons choisi dans notre cas de prendre comme direction du gradient couleur, la
direction donnée par la composante de gradient maximum. Cette méthode est plus simple à
mettre en oeuvre et ne demande pas la définition de nouveaux coefficients. Bien évidemment,
la direction du gradient ne peut être définie qu’à π près.
En dessous de S0, la Teinte sera moins ou peu fiable. Son influence dans le processus de
segmentation sera donc moins importante. C’est le second paramètre β qui permet de doser
cette influence.
Page 56
Segmentation couleur par fusion numérique
Ce paramètre β, évoluant entre 0 et 1, règle la forme de la courbe α(S). Les figures ci-
dessous résument brièvement la manière dont agit β.
S S S
0 S0 255 0 S0 255 0 S0 255
L’étude de l’influence de β et surtout le choix d’une valeur numérique sont plus délicates et
doivent être reliés à la forme de l’histogramme de la Saturation autour de la valeur S0.
❏ La situation A, assimilable à un seuillage, est brutale. Elle peut être envisageable dans le
cas où l’histogramme de la Saturation autour de S0 présente un minimum autour de S0,
permettant de délimiter nettement des zones non saturées. En dehors de cette situation
particulière, une telle évolution de α(S) rend trop critique le choix de S0 et accentue l’influence
du bruit pour les saturations voisines de S0.
❏ La situation C est intéressante, puisque l’on est proche d’une relation linéaire entre la
pertinence de la Teinte et la Saturation. Mais on risque d’accorder trop d’importance aux
Teintes faiblement saturées donc très bruitées et peu fiables comme nous l’a montrée l’étude
précédente sur l’influence du bruit sur les composantes TLS.
0.8
0.6
S0 = 50
0.4 β = 0,07
0.2
0
0 10 20 30 40 50 60 70 80 90 100 120 140 160 180 200 220 240 S
Page 57
Segmentation couleur par fusion numérique
Afin de juger des performances de notre détecteur de contour nous allons utiliser des
critères quantitatifs appliqués aux images synthétiques bruitées, présentés dans le § 2.6.1. Les
critères sont:
Pour situer les performances des détecteurs proposés, nous les comparerons à celles d’un
opérateur gradient vectoriel travaillant dans l’espace RVB (voir § 1.1.1 de ce chapitre) et
utilisant les masques de Sobel. Cet opérateur avait été utilisé par Coutance [COU 89] pour
calculer un gradient couleur multi-image pour de la stéréovision.
Nous avons utilisé des images synthétiques tests constituées de rampes verticales d’une
largeur d’un pixel dont l’orientation est verticale. Les conditions expérimentales permettent de
contrôler:
Page 58
Segmentation couleur par fusion numérique
N1 N2
N1 + N2
2
On sait que le problème de la détection de contours en présence de bruit peut être considéré,
d’une manière générale, comme un problème de test d’hypothèse:
Pour les méthodes basées sur le gradient, la réponse est contrôlée par une étape de seuillage.
Le choix du seuil joue un rôle critique entre la non-détection de certains contours pour un seuil
trop fort, et la détection de faux contours causés par le bruit pour un seuil trop faible. Cette
sensibilité de l’opérateur gradient, en présence de bruit, vis-à-vis du choix de seuil peut être
caractérisée et étudiée par l’évolution de la probabilité de détection (PD) en fonction de la
probabilité de fausse alarme (PF). Si A désigne un pixel dont le module du gradient est G A ,
ces probabilités sont définies par:
P D = prob ( G A ≥ seuil ( A ∈ contour ) )
P F = prob ( G A ≥ seuil ( A ∉ contour ) )
Ceci signifie que les pixels du plan contour seront répartis en deux classes, et l’erreur de
mauvaise classification d’un pixel sera exprimée par:
P ( erreur ) = [ 1 – P D ]prob ( A ∈ contour ) + [ P F ]prob ( A ∉ contour )
On peut remarquer que pour minimiser la probabilité de l’erreur, il faut que PD ait une
valeur proche de 1. Le détecteur idéal possède une valeur de PD égale à 1 quelle que soit la
valeur de PF.
Page 59
Segmentation couleur par fusion numérique
Les courbes ci-dessous, figure II.9 à figure II.11, présentent les résultats obtenus, avec un
RSB de 2, sur les différentes images tests avec l’opérateur vectoriel (Sobel Vectoriel),
l’opérateur gradient couleur utilisant la Teinte comme complément d’information (Sobel TLS)
et enfin l’opérateur privilégiant l’information de Teinte (Sobel Couleur) lorsqu’elle est
pertinente. Les calculs de PD et PF se font pour un grand nombre de réalisations (10000), et un
seuil variant entre 0 et une valeur maximale pour laquelle on obtient PF=0.
PD PD PD
1 1 1
0 0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
PF PF PF
a: bruit non corrélé b: bruit moyennement corrélé c: bruit totalement corrélé
Sobel TLS Sobel Couleur Sobel Vectoriel
0 0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
PF PF PF
a: bruit non corrélé b: bruit moyennement corrélé c: bruit totalement corrélé
Sobel TLS Sobel Couleur Sobel Vectoriel
PD PD PD
1 1 1
0 0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
PFf PF PF
a: bruit non corrélé b: bruit moyennement corrélé c: bruit totalement corrélé
Sobel TLS Sobel Couleur Sobel Vectoriel
Page 60
Segmentation couleur par fusion numérique
Lorsque les bruits sont non corrélés, quelle que soit la Saturation, l’opérateur Sobel
Vectoriel est moins sensible au bruit que les opérateurs Sobel TLS et Sobel Couleur qui se
comportent sensiblement de la même manière. C’est en effet dans cette situation que la prise
en compte du contexte vectoriel permet au Sobel Vectoriel d’atteindre ses meilleures
performances.
A l’inverse, lorsque les bruits sont totalement corrélés, le Sobel Vectoriel a des
performances moyennes alors que les Sobel TLS et Sobel Couleur montrent de bonnes ou de
très bonnes performances. Pour le Sobel Couleur, les performances sont d’autant meilleures
que le niveau de Saturation est élevé. Ceci tient au fait que l’on utilise alors essentiellement la
Teinte qui est, dans cette situation, peu sensible au bruit. Pour le Sobel TLS, les résultats sont
sensiblement identiques quelle que soit la Saturation, car le bruit n’affecte alors que la
composante Luminance.
A corrélation moyenne, lorsque la Saturation est faible, les performances sont voisines. La
supériorité du Sobel Couleur est plus marquée au fur et à mesure que le niveau de Saturation
croît.
Le critère retenu pour évaluer quantitativement cette robustesse est l’Erreur Quadratique
Moyenne (EQM), définie par:
∑ ( θ̂k – θ )
2
1
EQM = ---- (II.20)
K k=1
Pour les deux méthodes que nous proposons, l’information de direction du gradient est
calculée sur la composante (Teinte, Luminance ou Saturation) ayant la contribution la plus
importante au module du gradient (voir § 2.4.3). Avec cette définition de la direction et pour
Page 61
Segmentation couleur par fusion numérique
que les comparaisons faites dans les tests soient aussi pertinentes que possibles, les amplitudes
des échelons sur chaque composante Teinte, Luminance et Saturation seront identiques
(amplitude de 20 pour tous les tests). On évite ainsi de privilégier une composante vis-à-vis des
autres.
Dans les tableaux qui suivent, en plus des résultats concernant les trois méthodes que nous
comparons, nous présentons les EQM mesurées sur chacune des composantes T, L et S.
Pour maintenir le RSB constant à travers les différentes expériences, il faut jouer sur les
variances des bruits altérant chaque composante (voir ANNEXE A). La comparaison des EQM
sur les différentes composantes n’est donc exploitable que sur une même ligne d’un même
tableau.
Corrélation EQM
EQM EQM EQM EQM EQM
inter- calculée
“Sobel “Sobel “Sobel calculée sur calculée sur
composantes sur
Vectoriel” TLS” Couleur” la Luminance la Saturation
du bruit la Teinte
SIGNIFICATIVE
nul 13,2 17,9 17,8 13,6 42,8
NON
Pour ces images test, l’information de Teinte n’est pas pertinente (Saturation faible), la
contribution de celle-ci au module du gradient sera faible (voir nulle); les valeurs de l’EQM
calculée sur la composante Teinte ne sont donc pas à prendre en considération. Les résultats
fournis par les deux opérateurs proposés sont ainsi identiques puisque la Teinte n’étant pas
pertinente, elle ne sera pas privilégiée.
Corrélation
EQM EQM EQM EQM EQM EQM
inter-
“Sobel “Sobel “Sobel calculée sur calculée sur calculée sur
composantes
Vectoriel” TLS” Couleur” la Teinte la Luminance la Saturation
du bruit
Page 62
Segmentation couleur par fusion numérique
Corrélation
EQM EQM EQM EQM EQM EQM
inter-
“Sobel “Sobel “Sobel calculée sur calculée sur calculée sur
composantes
Vectoriel” TLS” Couleur” la Teinte la Luminance la Saturation
du bruit
L’information de Teinte étant ici pertinente, on a de ce fait une différence assez importante
entre les EQM des deux opérateurs proposés. En privilégiant l’information de Teinte, le
module de son gradient est alors supérieur aux modules des gradients de Luminance et de
Saturation. Ainsi l’opérateur Sobel Couleur a une EQM beaucoup plus faible que l’opérateur
Sobel TLS puisqu’elle est calculée, dans la majorité des cas, sur la composante Teinte qui
possède alors une forte robustesse vis-à-vis du bruit.
2.6.3.3 - Commentaires
Tant que le bruit n’est pas totalement corrélé, la direction est mieux estimée par le Sobel
Vectoriel. Ceci tient au fait que cette direction est celle qui maximise le gradient mesuré sur
l’ensemble des composantes alors que dans les deux autres méthodes cette direction est celle
obtenue sur une seule des composantes. Dans ces mêmes conditions, le Sobel Couleur donne
une estimation de la direction d’autant plus fiable que le niveau de Saturation augmente (la
teinte est en effet d’autant moins bruitée). A l’inverse, les performances du Sobel TLS
diminuent lorsque la Saturation croît (la contribution de la Teinte croît en même temps, et ne
peut que dégrader l’estimation).
Lorsque le bruit est totalement corrélé, les performances sont sensiblement toutes
identiques tant que la Saturation reste faible ou moyenne. Par contre, à Saturation forte le
Sobel Couleur fournit une très bonne estimation de la direction car la Teinte, privilégiée alors,
est peu bruitée.
Avec cette stratégie il reste à définir, à l’aide de seuils, ce que l’on appelle un gradient fort.
Page 63
Segmentation couleur par fusion numérique
Nous présentons des applications sur la détection de contours dans des images couleur
réelles. Pour des raisons de reprographie, les images originales en couleur sont présentées dans
l’ANNEXE E.
Au trois approches déjà présentées (Sobel Vectoriel, Sobel TLS, Sobel Couleur), nous
ajouterons les résultats du gradient calculé à partir de l’image d’intensité à l’aide d’un
opérateur de type Sobel (Sobel Luminance). Les images contours sont obtenues par une
recherche des maxima locaux suivie d’un simple seuillage. Pour obtenir des résultats
indépendants du choix du seuil, celui-ci est déterminé, pour chaque image, d’une manière
automatique par le calcul du “Pseudo-Centroïd” [TAO 93] détaillé dans le § 2 l’ANNEXE B.
La figure II.12 montre les résultats obtenus sur une image présentant une ‘Carte de la
France’, digitalisée par un scanner couleur, où l’on retrouve la répartition des régions cultivées
(image “Agriculture”). Cette image comporte des transitions ayant des orientations assez
variées et des régions adjacentes ayant de faibles contrastes (voir flèches ❶ et ❷ sur image a).
Les résultats montrent que l’image des contours obtenue par le Sobel Luminance (image b) est
insatisfaisante car plusieurs régions sont fusionnées (voir flèches ❶ et ❷). Ceci est simplement
dû au fait que ces régions possèdent des niveaux d’intensité similaires et ne peuvent pas être
séparées uniquement grâce à la Luminance. Ces régions ne peuvent être reconnues qu’en
utilisant une représentation multi-spectrale. L’approche vectorielle dans la base RVB (image c)
permet de récupérer soit en totalité (flèche ❷), soit en partie (flèches ❶ et ❸) les informations
de contours. L’utilisation de la base TLS, par la méthode Sobel TLS (image d), permet
d’obtenir une qualité de contours voisine voire supérieure dans certaines situations (flèches ❶
et ❸). En revanche, la méthode privilégiant la Teinte (Sobel Couleur, image e) fournit ici de
très mauvais résultats. Ceci peut s’expliquer par la nature même de l’image et par la méthode
d’acquisition. Nous sommes en présence d’une image artificielle et de ce fait toutes les
nuances, en particulier de Saturation, ont leur importance. De plus, l’utilisation d’un scanner
évite tous les phénomènes de variation de la source d’éclairage qui peuvent se produire lors de
l’utilisation d’une caméra couleur, et l’utilisation prépondérante de la Teinte ne peut faire que
perdre des informations.
La figure II.13 montre l’application des différentes techniques de détection de contour sur
une image de scène extérieure représentant la façade d’une maison (image “Maison”). Elle est
caractérisée par des zones d’ombres plus ou moins marquées (flèche1 ❶ sur l’image a). La
méthode Sobel Luminance (image b) donne de bons résultats, sauf au niveau des contours de
la fenêtre (flèche ❷). Les méthodes Sobel Vectoriel et Sobel TLS (image c et image d)
fournissent des contours sensiblement identiques, avec cependant une meilleure définition de
la bordure de la fenêtre lors de l’utilisation de la base TLS (flèche ❷). La méthode
Sobel Couleur (image e) montre sur cette image tout son intérêt. En privilégiant l’information
de Teinte dans les zones où elle est pertinente, cette méthode permet une moindre sensibilité au
bruit dans ces régions (flèches ❸) et l’élimination des contours dus à des variations d’éclairage
(flèches ❶) si toutefois celles-ci ne sont pas trop importantes (flèche ➍).
Page 64
Segmentation couleur par fusion numérique
L’image appelée “Métal” (figure II.14) nous a été fournie par le Centre de Recherche de la
société Ugine Savoie. Elle représente des grains d’un alliage observé en lumière polarisée à
l’aide d’un microscope. L’image originale (image a) étant fortement bruitée (présence d’une
texture), on a effectué au préalable un filtrage non linéaire [ALS 94] avec une taille de fenêtre
de 7*7 et qui permet également un rehaussement des contrastes dans les zones de transitions.
Sur cette image, l’opérateur Sobel TLS détecte mieux les contours (flèche ❶) que l’opérateur
Sobel Vectoriel tout en étant globalement moins sensible aux bruits. Le résultat obtenu par la
méthode Sobel Couleur n’est pas présenté, car comme pour l’image “Agriculture” cette
opérateur n’est pas adapté à ce type d’image obtenue en maîtrisant l’éclairage.
2.8 - Conclusion
Quelle que soit la méthode proposée, il persiste une ambiguïté de π sur la détermination de
la direction du gradient. Cependant les approches vectorielles, du fait même de leur nature
vectorielle, fournissent une estimation de la direction du gradient beaucoup plus correcte que
l’approche par gradient marginal sur la base TLS.
Dans la plupart des cas, l’utilisation de la couleur pour la détection de contours n’apporte
que peu de nouveaux contours par rapport à ceux extraits en niveaux de gris. Par contre, ceux
obtenus sont plus significatifs et permettent ainsi une meilleure détection et localisation des
objets.
En fait les propriétés photométriques d’un objet, notamment sa couleur, sont plus liées à sa
surface qu’à ses contours. L’approche régions semble alors plus naturelle que l’approche
contours.
Page 65
Segmentation couleur par fusion numérique
a]: Originale
image couleur en annexe E
❸
b] ❶ c] ❶
❷ ❷
❸
d] ❶ e]
Page 66
Segmentation couleur par fusion numérique
a]: Originale
image couleur en annexe E ❶
b]: Sobel Luminance
b] c]
❷ ❷
❸
❶
d] e]
❷ ❸
Page 67
Segmentation couleur par fusion numérique
a]: Originale
image couleur en annexe E
b] c]
d] e]
❶ ❶
Page 68
Segmentation couleur par fusion numérique
La couleur étant une information que l’on attache naturellement aux régions, on a pensé à
l’utiliser pour segmenter des images, avec l’espoir que les régions ainsi formées soient plus
significatives que celles obtenues par une segmentation en niveau de gris.
❏ Soient Ri et Rj deux régions de l’image telles que Rj est incluse dans Ri alors:
Pu ( R i ) = vrai ⇒ Pu ( R j ) = vrai .
(b) Pu ( R i ) = vrai , ∀i ∈ { 1, …, n }
(c) Pu ( R i ∪ R j ) = faux , ∀R i, R j ∈ S , R i ≠ R j .
L’hypothèse de connexité des régions fait que les algorithmes prennent généralement en
compte le voisinage des points. La dernière condition traduit en fait la maximalité de chaque
région dans la segmentation. La vérification de ces conditions est une condition nécessaire et
suffisante pour qu’une partition d’une image I soit une segmentation. Rien, toutefois,
n’implique l’unicité de cette segmentation.
Le résultat de la segmentation est une image dans laquelle chaque pixel est affecté de
l’étiquette (ou label) correspondant au numéro de la région à laquelle appartient le pixel dans
l’image initiale. A partir de cette image “d’étiquettes” et de l’image originale il est possible de
déterminer les divers attributs photométriques (ie. niveau moyen, variance, indices
texturaux,...) et géométriques (ie. coordonnées du centre de gravité, axe d’inertie,...) de chaque
région.
Page 69
Segmentation couleur par fusion numérique
au cas des images couleur représentées dans la base TLS. Ainsi, nous ne cherchons pas à
définir de nouvelles méthodes de segmentation mais à valider l’idée d’une coopération
numérique entre la Teinte et la Luminance suivant le niveau de Saturation.
L’idée de base est de former un seul critère scalaire (notée C) d’homogénéité mixant de
manière pondérée les informations apportées par la Teinte et la Luminance et d’appliquer les
algorithmes de segmentation connus en niveau de gris à l’aide de ce critère.
Ce mélange doit tenir compte de la fiabilité de la Teinte que nous avons évoquée en
conclusion du premier chapitre.
Comme nous l’avons vue précédemment, la fiabilité de la Teinte est liée à l’information de
Saturation (noté IS). C’est tout naturellement cette grandeur qui va permettre par
l’intermédiaire d’un coefficient (noté α) de pondérer de manières antagonistes les informations
de Teinte et de Luminance (notées respectivement IT et IL) dans le critère d’homogénéité C.
Dans la suite ce coefficient sera appelé coefficient pondérateur.
Ce coefficient pondérateur α est construit de la même manière que le coefficient utilisé par
l’opérateur gradient couleur (figure II.1). Son rôle est toutefois légèrement différent, puisqu’il
va indiquer la (ou les) composante(s) qui vont être utilisées pour la segmentation en régions.
La figure II.15 résume la stratégie de choix de ces composantes suivant le coefficient α et donc
suivant la Saturation.
α(S)
1
β = β1
β = β2
0,5
0 S0 255 Saturation
Page 70
Segmentation couleur par fusion numérique
C = α ( IS ) ⋅ IT + ( 1 – α ( IS ) ) ⋅ IL (II.21)
Néanmoins, en fonction des objectifs de segmentation que l’on se donne, il est toujours
possible de redonner une importance constante aux informations de Luminance en remplaçant
le coefficient “(1 - α)”, par “1”.
La seconde remarque que l’on peut faire sur cette approche est la suivante:
Page 71
Segmentation couleur par fusion numérique
courant (noté K) et son voisin qui a déjà été traité (noté H pour le voisin du haut et G pour le
voisin de gauche).
xk - 1 xk xk + 1
yk - 1 H Courant
yk G K Passé
yk + 1 Futur
si C ( k, v ) ≤ Seuil alors
❏ P(k,v) est VRAI
sinon
❏ P(k,v) est FAUX
On a alors 4 possibilités suivant les deux prédicats associés aux critères d’homogénéité du
pixel courant pour décider de la fusion de ce pixel avec ses voisins ou la création d’une
nouvelle région. La figure II.17 montre le schéma de principe de l’agrégation d’un pixel.
P (k,v): C ( k, v ) ≤ Seuil ?
Propagation Etude du
VRAI de l’étiquette de G critère entre G et H
❏ P (G,H) = VRAI
➥ Equivalence entre les trois étiquettes
❏ P (G,H) = FAUX
➥ Propagation de l’étiquette du pixel
minimisant le critère d’homogénéité C
Page 72
Segmentation couleur par fusion numérique
Dans la pratique, une itération de ce principe avec un seuil initial délibérément bas (noté
seuil0) et une incrémentation de ce seuil (incrément ∆seuil) permet de compenser la simplicité
de la méthode et d’obtenir de bonnes performances. A la fin de l’itération “i” (calculée avec
seuili = seuil0 + i*∆seuil), on calcule la moyenne d’intensité de chaque région et on crée une
nouvelle image en affectant cette moyenne à chacun des pixels de la région. L’algorithme est
alors appliqué avec le seuil: seuil0 + (i+1)*∆seuil.
Le gros problème est alors de fixer le seuil initial, l’incrément du seuil et le nombre
d’itérations. Cela dépend du type d’images segmentées et des résultats escomptés pour le
traitement ultérieur. Notons cependant que si cet algorithme est simple au niveau de la décision
d’agrégation, la gestion des équivalences est délicate à traiter du point de vue algorithmique.
Enfin, notons également que cette méthode détermine des régions connexes selon la
4-connexité, mais on peut le généraliser à la 8-connexité en modifiant le masque. La gestion
des équivalences des étiquettes est alors encore plus délicate, et le temps de réalisation plus
élevé. De ce fait, pour la segmentation des images couleur, l’algorithme utilisé par la suite sera
celui définissant la segmentation selon la 4-connexité.
Le critère d’agrégation des pixels utilise une différence de niveaux entre les deux pixels
traités. Si pour la Luminance cela ne pose pas de problème, la notion de différence entre deux
Teintes est plus délicate à définir comme nous l’avons déjà vu pour les algorithmes de
détection de contours. En s’inspirant de ce qui a été dit pour la différence de Teinte (cf. § 2.2)
et pour l’opérateur Sobel Couleur (cf. § 2.4), on peut alors définir le critère d’agrégation CTL/S
de deux pixels couleur P1(T1, L1, S1) et P2(T2, L2, S2) en formant:
Page 73
Segmentation couleur par fusion numérique
Le coefficient p(S1,S2) est donc le même que celui présenté pour les opérateurs de gradient
couleur. Son action se traduit donc de la même manière:
❏ lorsque les deux pixels sont fortement saturés, ce coefficient est voisin de 1 et
l’écart de Luminance est négligé,
❏ lorsque les deux pixels sont faiblement saturés, ce coefficient est voisin de 0
et l’écart de Teinte est négligé,
❏ dans les autres situations, on a une combinaison pondérée des écarts de teinte
et de Luminance.
La figure II.18 rappelle un exemple de l’évolution de ce coefficient en utilisant la fonction
quantifiant la pertinence de la Teinte de la figure II.1.
p(S1,S2)
1 1
0.5 0.5
0 0
S2 S1
250 250
S0 S0
0
Illustrons ceci dans le cas où α(S1) est proche de 1 (la Teinte T1 est pure et fiable) et α(S2)
est proche de 0. La Teinte T2 est donc non significative, et la valeur qu’elle prend est
essentiellement fonction du bruit. Elle peut ainsi être proche de la valeur T1 qui elle, est
significative, rendant ainsi artificiellement la quantité T 1 – T 2 255
petite. Si les Luminances
des deux pixels sont proches, on peut associer dans une même région un pixel ayant une Teinte
bien définie et un pixel sans Teinte, ce qui est contraire à la définition d’une région qui est
construite avec des pixels ayant toutes leurs caractéristiques voisines.
Pour remédier à ce problème, il faut que le critère d’homogénéité prenne, dans ces
situations, une valeur supérieure au seuil d’agrégation, interdisant ainsi la fusion des deux
pixels en une même région. On peut alors jouer sur ces deux valeurs, c’est-à-dire d’une part
faire tendre vers zéro le seuil d’agrégation et d’autre part d’augmenter la valeur du critère
Page 74
Segmentation couleur par fusion numérique
d’homogénéité CTL/S, ceci évidemment uniquement dans les zones correspondant aux 2
situations critiques (ie. α(S1) ~ 1 et α(S2) ~ 0 ou α(S1) ~ 0 et α(S2) ~ 1).
Ainsi, pour augmenter artificiellement la valeur du critère d’homogénéité nous avons opéré
un rehaussement du coefficient pondérateur dans les deux situations critiques. Ce
rehaussement n’est appliqué que pour les informations provenant de la Teinte. Ce nouveau
coefficient (noté Γ), qui est toujours fonction des valeurs α(S1) et α(S2), est défini de la
manière suivante:
Γ (S 1,S 2) = α ( S 1 ) + α ( S 2 ) – α ( S1 ) ⋅ α ( S2 ) . (II.23)
Notons bien que le coefficient pondérant l’écart d’intensité quant à lui reste inchangé.
Comme précédemment, ce coefficient Γ va être nul lorsque les niveaux de Saturation des
deux pixels seront faibles et proche de 1 lorsqu’ils seront élevés. Pour la valeur S0 de
Saturation correspondant au concept de pertinence moyenne, la valeur de ce coefficient
pondérateur de l’information de Teinte demeure inchangé (Γ(S0,S0)=0,5). Mais, lorsqu’un
pixel aura un niveau de Saturation faible et que l’autre pixel aura un niveau fort, ce coefficient
tendra vers une valeur proche de 1 alors qu’il était nul auparavant. La valeur de l’écart de
Teinte, qui n’est pas pertinente puisqu’étant la différence entre un pixel coloré et un pixel
achromatique, vient ainsi augmenter artificiellement la valeur du critère d’homogénéité.
La figure II.19 donne un exemple de la nouvelle allure du coefficient agissant sur la quantité
T 1 – T 2 255 mesurant l’écart de Teinte.
Γ(S1,S2)
1 1
0.5 0.5
0 0
S2 S1
250 250
S0 S0
Le nouveau critère composite d’homogénéité entre deux pixels P1 et P2, tenant compte de la
situation pathologique évoquée précédemment est défini par la formule suivante:
Page 75
Segmentation couleur par fusion numérique
Il persiste malgré tout une anomalie lorsque T1 = T2 avec une Teinte fortement saturée et
l’autre très faiblement saturée. La pondération agissant de manière multiplicative, le
rehaussement du critère n’agira pas. Cette situation, peu fréquente, devra être prise en compte
de manière spécifique.
Le seuil d’agrégation doit être modifié pour prendre en compte le problème évoqué lors de
la construction du critère d’homogénéité lorsque α(S1) ~ 1 et α(S2) ~ 0 et réciproquement.
Dans ce cas, il doit alors tendre vers zéro. De plus, il serait intéressant de pouvoir disposer de
valeurs de seuil d’agrégation différentes suivant que la méthode de segmentation utilise
uniquement la Luminance ou uniquement la Teinte.
En analysant le cas critique déjà évoqué, on constate que l’évolution à laquelle doit
répondre le seuil composite d’agrégation est l’opposée de celle établie pour le critère
d’homogénéité dans l’équation II.24. Ainsi, le seuil d’agrégation des écarts de Teintes (noté
SeuilT) va être pondéré par la fonction p(S1,S2) tandis que celui des écarts de Luminance (noté
SeuilL) sera pondéré par la fonction Γ (S 1,S 2) . Le seuil composite d’agrégation (noté SeuilC)
pour deux pixels P1 et P2 est alors défini de la manière suivante:
Ce n’est donc plus un seuil figé, comme dans le cas de la technique initiale pour les images
mono-chromatiques mais un seuil qui s’adapte aux valeurs de Saturation des deux pixels. Pour
illustrer cette méthode nous allons observer, figure II.20, le comportement du seuil composite
d’agrégation en prenant SeuilT = 4 et SeuilL = 12.
12
8
Seuilc 4
12 12
8 8
4 4
0 0
S2 12
8 S1
250 250
4
S0 0 S0
Page 76
Segmentation couleur par fusion numérique
On constate ainsi que pour de faibles niveaux de Saturation, le critère d’homogénéité étant
alors essentiellement basé sur la Luminance, le seuil composite d’agrégation va prendre la
valeur seuilL. A l’inverse, pour de fortes Saturation, le critère d’homogénéité étant formé par la
composante Teinte, le niveau du seuil d’agrégation correspond alors à celui imposé sur cette
composante (c.à.d. seuilT). Dans le cas d’un pixel achromatique et d’un pixel coloré, le seuil
d’agrégation tend vers zéro, empêchant ainsi la fusion des deux pixels.
Pour construire le coefficient pondérateur α(S) on dispose de deux paramètres qui sont S0,
le niveau de Saturation entraînant le concept de pertinence moyenne de la Teinte, et β, réglant
la pente de la courbe au point S0.
Le choix de ces deux paramètres est plus stratégique que pour les opérateurs de détection de
contours présentés au paragraphe précédent. En effet, le coefficient α n’est plus un simple
poids affectant l’information de Teinte, mais c’est le paramètre qui décide du choix des
composantes (Teinte ou Luminance) qui vont servir à construire les régions.
Il faut cependant ne pas oublier qu’un bruit faible sur les composantes intermédiaires C1 et
C2 de la base TLS peut entraîner une forte dispersion sur la Teinte si la Saturation est faible.
D’après l’étude de l’influence du bruit sur la composante Teinte (cf § 3.3.2 du chapitre I) et
notamment à l’aide de la figure I.23, on peut estimer qu’une valeur de S0 comprise entre 30 et
70 donne une dispersion acceptable sur la Teinte dans le cas d’un bruit gaussien additif.
Page 77
Segmentation couleur par fusion numérique
L’étude consiste alors, à partir d’une image uniforme de taille 256x256 (1 seule région
initiale), à mesurer l’évolution de cette probabilité de bonne détection en fonction de l’écart
type du bruit généré sur les composantes R, V et B.
Nous prendrons également trois valeurs de β donnant des pentes autour de S0 de plus en
plus faibles comme le montre la figure II.21.
α(S)
1
0.8 A): β=1 B): β=0,1
0.6
C): β=0,01
0.4
0.2
0
0 10 40 70 100 130 160 190 220 250
Saturation
La technique de segmentation basée sur une différence entre deux pixels voisins nécessite
l’utilisation des fonctions p(S1,S2) et Γ(S1,S2). Les courbes suivantes montrent l’évolution de
ces deux fonctions suivant les valeurs de β que nous avons choisies.
Page 78
Segmentation couleur par fusion numérique
p(S1,S2) Γ(S1,S2)
1 1 1 1
0.5 0.5 0.5 0.5
0 0 0 0
p(S1,S2) Γ(S1,S2)
1 1 1 1
0.5 0.5 0.5 0.5
0 0 0 0
p(S1,S2) Γ(S1,S2)
1 1 1 1
0.5 0.5 0.5 0.5
0 0 0 0
La situation C est intéressante puisqu’on a une relation presque linéaire entre le niveau de
Saturation et le coefficient α. Cependant on risque de prendre en compte, dans l’élaboration du
critère composite d’agrégation, des informations de Teinte correspondant à des pixels
faiblement saturés et donc bruités et peu fiables.
La situation B semble, comme dans le cas des opérateurs de gradients TLS, être un bon
compromis, en permettant un mélange cohérent entre Teinte et Luminance dans les zones de
Saturation proches de S0.
Page 79
Segmentation couleur par fusion numérique
Probabilité de détection
1
0.8
0.6 β=0,1
β=0,01 20
0.4
0.2 β=1
Ecart-type du bruit
0
0 2 4 6 8 10 12 14 16 18 20
Figure II.25: Probabilité de détection sur l’image “faible”
Probabilité de détection
1
0.8
0.6
β=0,1 β=0,01 70
0.4
β=1
0.2
Ecart-type du bruit
0
0 2 4 6 8 10 12 14 16 18 20
Figure II.26: Probabilité de détection sur l’image “moyenne”
Probabilité de détection β=1
1
β=0,1
0.8
0.6 130
β=0,01
0.4
0.2
Ecart-type du bruit
0
0 2 4 6 8 10 12 14 16 18 20
Figure II.27: Probabilité de détection sur l’image “forte”
Ces courbes montrent que la probabilité de détection d’un point décroît faiblement jusqu’à
une valeur comprise entre 0,6 et 0,8. Lorsque la probabilité de détection continue à décroître au
delà de cette limite, la chute vers zéro est alors brutale. La valeur de σB définissant la limite
entre décroissance douce et décroissance brutale dépend de l’image (niveau de Saturation) et
du paramètre β. Ceci montre qu’il n’existe pas de niveau de détection moyen; la détection
d’une région ne peut être que bonne ou non réalisée.
Page 80
Segmentation couleur par fusion numérique
le critère d’homogénéité d’informations de Teinte fortement bruitées alors que pour l’image
“forte”, c’est la Luminance qui se trouve plus sensible aux bruits et qui va faire diminuer la
probabilité de détection. Dans le cas de l’image “moyenne”, la valeur β = 1 entraîne une
probabilité de détection inférieure à celles obtenues avec les deux autres valeurs qui sont par
ailleurs similaires. Ceci provient du fonctionnement en “soit l’un soit l’autre” déjà évoqué.
L’autre intérêt de cette étude est de nous confirmer que l’utilisation de la composante Teinte
pour la segmentation permet une plus grande robustesse vis-à-vis du bruit. Mais il faut
également constater que le comportement de notre méthode de segmentation dépend fortement
du niveau de saturation de l’image traitée. Le traitement sera d’autant meilleur que la
Saturation sera forte.
d.d.p. α(S)
1
0,5
0,5
Page 81
Segmentation couleur par fusion numérique
Seuil1 Seuil2
0 255
Critère de
segmentation Luminance RVB Teinte
suivant:
Page 82
Segmentation couleur par fusion numérique
Le choix des seuils délimitant les trois zones s’effectue à partir de l’histogramme de la
saturation. Le seuil de forte chrominance (seuil2) correspond au minimum local après le
premier pic. Le seuil de faible chrominance (seuil1) est beaucoup plus difficile à déterminer. Il
correspond en fait au seuil de signification de la Teinte dans la transformation utilisée.
Seuil2 choisi
Saturation
0 127 255
Seuil1 choisis
Cette méthode présente l’avantage de n’effectuer qu’une seule et unique segmentation, d’où
un gain de temps important dans la détermination des régions par rapport aux méthodes
segmentant indépendamment les diverses composantes et nécessitant une étape ultérieure de
fusion des résultats.
Par contre le choix des seuils pose un problème et nécessite d’analyser auparavant
l’information de Saturation. Pour la segmentation, notons que si deux régions ne sont pas
traitées suivant la même composante, elles sont alors considérées, à juste titre, comme
différentes et ne pourront de ce fait être agrégées. Ceci va introduire un excès de régions dans
certaines zones où il y a commutation entre les critères de segmentation.
Ce surcroît de régions va également être amplifié dans les parties de l’image ayant une
chrominance moyenne, et qui sont alors traitées suivant les plans R,V, et B très sensibles aux
bruits.
2 2 2
ou D 2 (P 1,P 2) = ( R1 – R2 ) + ( V1 – V2 ) + ( B1 – B2 ) (II.28)
La distance D1 étant plus sensible aux bruits du fait de l’utilisation de la fonction “Max”,
nous avons choisi la distance D2 pour évaluer le critère d’homogénéité entre deux pixels.
Page 83
Segmentation couleur par fusion numérique
I 1 = ( R + V + B ) ⁄ 3
I 2 = ( R – B ) ⁄ 2 (II.29)
I 3 = ( 2V – R – B ) ⁄ 4
I1 correspond à l’information d’intensité, I2 et I3 aux composantes de chrominance. Une
segmentation à partir de ces indices donne pratiquement les mêmes résultats que lors de
l’utilisation dynamique de la transformation de Karhunen-Loeve. Ces composantes,
dénommées attributs de Ohta, peuvent être considérés comme une estimation des composantes
optimales pour la segmentation d’une image naturelle. De plus, il s’avère selon Ohta que la
composante I3 n’apporte que peu d’information supplémentaire pour la segmentation de ces
scènes naturelles et de ce fait la seule utilisation de I1 et I2 permet une “bonne” segmentation
des images couleurs.
Notre méthode sur cette base consiste à segmenter indépendamment chaque plan à l’aide de
la technique mono-chromatique. Puis les différentes segmentations de l’image sont fusionnées
afin d’obtenir la segmentation finale de l’image couleur. La technique de fusion utilisée est
simple à mettre en oeuvre mais conduit à une sur-segmentation de l’image.
L’inconvénient de cette nouvelle mesure est qu’elle est coûteuse en temps de calcul. Ce
temps dépend du nombre de régions dans les segmentations. Son intégration dans un processus
itératif de segmentation semble alors peu intéressant car il alourdit considérablement le temps
de calcul du processus. En revanche, dans le cas de la caractérisation quantitative de la
performance d’un algorithme de segmentation, comme nous le faisons, le temps de calcul
importe peu, et cette mesure permet alors de prendre en compte les déformations géométriques
des régions des frontières des régions extraites.
Page 84
Segmentation couleur par fusion numérique
A partir de l’image Test de référence de la base de donnée du GDR 134, on a synthétisé une
image couleur dont les caractéristiques sont telles que les différentes régions qui la composent
sont à des niveaux de Saturation répondant aux différents concepts de pertinence la de Teinte.
La figure II.32 montre l’image segmentée de référence, composée de 6 régions, et l’image
couleur obtenue dans l’espace RVB avec les différentes couleurs décrites dans la base TLS.
T=0
❷ L=120
S=100 ❶
T=116 Image segmentée
L=80
T=21 S=15 de référence
❸ L=120
S=45
T=30 Image couleur
➎ L=85
S=45
T=90
❹ L=90
S=50
❻
T=120
L=90
S=41
La région ❶ correspond à un concept de Teinte non pertinente, elle sera traitée suivant la
composante Luminance pour les méthodes de segmentation de Miyawaki et celle que nous
proposons. A l’inverse, la région ❷ a un niveau de Saturation élevé, l’information de teinte est
alors pertinente et sera utilisée par ces deux méthodes. Dans les régions ❸,❹, ➎ et ❻ la
pertinence de la Teinte est moyenne. La méthode de Miyawaki utilisera les composantes R,V,
et B (technique identique à Segm_vect_RVB), alors que la méthode de Segm_TL/S utilisera
coopérativement la Luminance et la Teinte.
Les paramètres généraux des différentes méthodes sont fixés de telle sorte que les
conditions les plus défavorables (σB=10) conservent malgré tout les 6 régions principales de
l’image de référence. Pour toutes les méthodes le nombre d’itérations est de 5, le seuil initial
d’agrégation est de 2 avec un pas de 2 lors de chaque itération. Pour la méthode
Segm_Miyawaki les deux seuils sur la Saturation sont fixés respectivement à 30 et 70 pour que
les régions ❸,❹, ➎ et ❻ soient traitées selon les composantes R,V et B, la région ❶ selon la
Luminance et la région ❷ selon la Teinte. Pour la méthode proposée, le paramètre S0 est fixé à
50. Le paramètre β est ajusté à la valeur 0,07 pour que l’algorithme n’utilise que la Teinte dans
la région ❷. Pour la méthode Segm_Ohta, l’image de Test étant synthétique il est nécessaire
d’utiliser les trois composantes pour obtenir toutes les régions principales.
Page 85
Segmentation couleur par fusion numérique
80
Segm_Ohta
mesure de 60 Segm_vect_RVB
dissimilarité Segm_Miyawaki
40
Segm_TL/S
20
0
0 1 2 3 4 5 6 7 8 9 10
Ecart type du bruit sur RVB
Ces résultats montrent que vis-à-vis du test effectué, la méthode de segmentation proposée
est plus proche de la segmentation de référence et donc moins sensible à ce type de bruit
corrélé que les autres méthodes étudiées. La méthode de segmentation selon la base de Ohta
possède une mesure de dissimilarité élevée et même supérieure à la méthode de segmentation
vectorielle dans l’espace RVB. L’utilisation des trois attributs et la méthode de fusion des
segmentations intermédiaires vont pénaliser cette base en créant une sur-segmentation de
l’image, et donc une dissimilarité importante vis-à-vis de la segmentation de référence. Pour
affiner cette étude et déterminer si certaines zones sont plus sensibles que d’autres, nous allons
observer les résultats des segmentations lorsque l’écart type du bruit est maximal. La figure
II.34 montre les contours des régions pour les différentes méthodes.
a b
c d
a: Segm_Ohta
b: Segm_vect_RVB
c: Segm_Miyawaki
d: Segm_TL/S
Figure II.34: Résultats des segmentations de l’image Test pour un écart type du bruit de 10
Page 86
Segmentation couleur par fusion numérique
Nous constatons que le résultat de segmentation par la méthode Segm_vect_RVB est, bien
évidemment, indépendant du niveau de Saturation des régions. Pour la base de Ohta, on
remarque une sensibilité aux bruits plus importante dans les régions ❹ et ❻. En absence
d’étude sur la sensibilité au bruit des attributs d’Ohta, il est difficile d’analyser ce phénomène.
La région ❷ traitée en Teinte par les méthodes Segm_Miyawaki et Segm_TL/S est
parfaitement segmentée du fait de la moindre sensibilité aux bruits de cette composante
lorsque le niveau de Saturation est élevé. Par contre, les régions ❸,❹, ➎ et ❻ dans lesquelles la
Saturation est “moyenne” sont mieux extraites et moins perturbées en segmentant avec notre
approche, grâce à l’utilisation coopérative des composantes Teinte et Luminance, plutôt qu’en
ayant recours aux composantes R,V et B comme le fait la méthode de Miyawaki.
Les méthodes travaillant sur la base TLS nécessitent une étude préalable de l’histogramme
de la Saturation pour permettre de déterminer les valeurs de certains des paramètres. Quand
aux paramètres généraux de la technique de segmentation (nombre d’itérations, seuils
d’agrégation,...) ils seront réglés par essais successifs de telle sorte que le résultat de la
segmentation paraisse le meilleur possible, visuellement parlant.
La figure II.35 montre l’histogramme de la Saturation pour cette image, et les valeurs
choisies pour les paramètres des méthodes Segm_Miyawaki et Segm_TL/S.
6000 1
5000
Fonction de pondération
4000
Histogramme
3000 0,5
2000
1000
0 0
0 10 50 70 80 100 150 200 250
Seuil1 S0 Seuil2 Saturation
Page 87
Segmentation couleur par fusion numérique
On peut considérer que cet histogramme est bimodal, avec un premier mode dû au fond de
l’image, et un second correspondant au personnage. De ce fait, le choix des paramètres s’en
trouve facilité.
Pour la méthode Segm_TL/S, la valeur de S0 est choisie après le premier mode (S0=70) et la
pente de la fonction de pondération est choisie très forte du fait des deux modes bien marqués
(β=0.5). La segmentation s’effectuera principalement soit en Teinte, soit en Luminance.
Le tableau suivant donne les paramètres généraux utilisés par les différentes méthodes de
segmentation pour cette image.
méthode d’itérations seuil initial incrément seuil initial incrément seuil initial incrément
Segm_vect_RVB 7 - - - - 2 2
Segm_Ohta 3 3 3 3 3 - -
Segm_Miyawaki 3 3 3 2 2 3 3
Segm_TL/S 3 3 3 2 2 - -
La figure II.36 montre l’évolution de l’histogramme de la Saturation pour cette image et les
valeurs choisies pour les différents paramètres utilisés par les méthodes de segmentation dans
la base TLS.
Cet histogramme possède (en partant de 0) deux minima locaux pour les valeurs 14 et 46.
Ce sont ces valeurs qui vont être choisies comme seuil pour la méthode Segm_Miyawaki.
Page 88
Segmentation couleur par fusion numérique
3500 1
3000
Fonction de pondération
2500
Histogramme
2000
0,5
1500
1000
500
0 0
0 14 30 46 100 150 200 250
Seuil1 S0 Seuil2 Saturation
Figure II.36: Histogramme de la Saturation et valeurs des paramètres de segmentation
Comme précédemment, le tableau II.5 donne les paramètres généraux utilisés par les
différentes méthodes de segmentation pour cette image.
S’agissant d’une scène d’extérieur, nous avons constaté que la segmentation selon la base de
Ohta pouvait être réalisée uniquement à l’aide des composantes I1 et I2. D’autre part, pour
atténuer l’influence du bruit lors de l’utilisation des composantes R,V et B, les paramètres
d’agrégation seront plus élevés.
méthode d’itérations seuil initial incrément seuil initial incrément seuil initial incrément
Segm_vect_RVB 5 - - - - 4 4
Segm_Ohta 5 2 2 2 2 - -
Segm_Miyawaki 5 2 2 2 2 4 4
Segm_TL/S 5 2 2 2 2 - -
L’histogramme de la Saturation pour cette image filtrée (figure II.37) est faible et plat pour
une large plage de niveaux allant de 10 à 120. Le choix des paramètres est alors difficile, et est
en fait réalisé d’après l’étude de l’influence du bruit sur la composante Teinte plus que par
l’allure de l’histogramme de la Saturation.
S0 est alors fixé à 50 et β=0,05 pour permettre l’utilisation unique de la Teinte pour des
Saturations dépassant 90.
Page 89
Segmentation couleur par fusion numérique
Le premier pic correspond aux terres (Afrique Occidental et les diverses îles) qui sont de
couleur noire. Pour la méthode Segm_Miyawaki, ces régions seront alors traitées suivant la
Luminance. Les valeurs choisies pour “Seuil1” et “Seuil2” sont donc de 20 et 90.
6000 1
Fonction de pondération
5000
Histogramme
4000
3000 0,5
2000
1000
0 0
0 20 50 90 150 200 250
Seuil1 S0 Seuil2 Saturation
Cette image étant une numérisation d’une carte en fausses couleurs, la segmentation selon
la base de Ohta sera réalisée suivant les trois composantes pour permettre de ne pas perdre
certaines régions caractérisées uniquement par I3. Les autres paramètres sont donnés dans le
tableau suivant:
méthode d’itérations seuil initial incrément seuil initial incrément seuil initial incrément
Segm_vect_RVB 5 - - - - 6 6
Segm_Ohta 5 6 6 3 3 3 3
Segm_Miyawaki 5 6 6 1 2 6 6
Segm_TL/S 5 6 6 3 2 - -
L’histogramme de la Saturation présenté sur la figure II.38 est l’opposé du cas précédent. Il
n’y a pas de mode bien déterminé et la plus grande partie des pixels ont un niveau de
Saturation compris entre 20 et 110. Le choix des paramètres de segmentation est encore plus
délicat.
Pour la méthode Segm_Miyawaki nous avons pris la valeur 32 pour “Seuil1” et 78 pour
“Seuil2”. Ces deux valeurs correspondent à un minimum, peu marqué il est vrai, dans
l’histogramme de la Saturation.
Page 90
Segmentation couleur par fusion numérique
Pour S0, l’image étant bruitée on prendra une valeur relativement élevée (S0=70) et, du fait
de l’absence de mode bien marqué sur l’histogramme de la Saturation, la pente de la fonction
de pondération sera moyenne (β=0,07) pour permettre une coopération efficace entre les
composantes de Luminance et de Teinte pour la méthode de segmentation Segm_TL/S. Les
autres paramètres des différentes méthodes sont répertoriés dans le tableau II.7.
2500
1
Fonction de pondération
2000
Histogramme
1500
0,5
1000
500
0 0
0 32 50 70 78 100 150 200 250
Seuil1 S0 Seuil2 Saturation
méthode d’itérations seuil initial incrément seuil initial incrément seuil initial incrément
Segm_vect_RVB 7 - - - - 2 2
Segm_Ohta 5 2 2 2 1 - -
Segm_Miyawaki 5 2 2 2 2 3 3
Segm_TL/S 5 2 2 2 2 - -
Les figures suivantes (figure II.39 à II.42) présentent les résultats de segmentation des
quatre images précédentes. A coté des images originales en couleur, les images segmentées
sont présentées avec les frontières des régions obtenues. Toutes les régions sont ainsi visibles,
même celles composées d’un seul pixel (pixel non apparié par la méthode). Ceci permet de
bien observer la sensibilité aux bruits de chaque méthode, tout en sachant que ces pixels
pourraient facilement être agrégés avec une région voisine par un algorithme ultérieur de
fusion des petites régions (voir § 3 de l’ANNEXE B).
Les résultats obtenus par l’approche développée par Miyawaki et notre méthode sont
voisins et permettent une bonne description de la scène. Cependant, avec la méthode
Page 91
Segmentation couleur par fusion numérique
Segm_TL/S, les transitions entre les différentes parties sont plus nettes (moins de régions).
Cette sur-segmentation engendrée par la méthode Segm_Miyawaki est liée au fonctionnement
en commutation de composantes, qui se produit lors des transitions. Pour les deux méthodes,
l’utilisation de la Teinte lorsque la Saturation est élevée permet d’être moins sensible aux
variations de luminosité. Le visage est ainsi segmenté en une seule région.
Les segmentations dans la base de représentation TLS créent moins de fausses régions et
sont globalement moins sensibles aux bruits. Cependant pour l’approche de Miyawaki, la
segmentation suivant les composantes R,V et B ainsi que l’utilisation de seuils fixes
engendrent une sur-segmentation de l’image dans les zones ou ces composantes sont utilisées
et les zones de commutation entre le traitement suivant la Luminance, la Teinte ou l’espace
RVB (flèche ❶). Comme il était prévu, la segmentation Segm_TL/S permet d’éliminer
certaines zones ombragées (flèches ❷), les autres (flèches ❸) étant trop prononcées.
Pour confirmer cette impression, nous avons effectué, pour chaque image segmentée, une
extraction des régions ayant des caractéristiques colorimétriques proches de celles des noyaux.
Pour affiner cette extraction, nous avons ajouté des critères géométriques tels qu’une taille
minimum de 100 pixels et une certaine compacité des régions. La figure II.43 présente les
régions déterminées sur les diverses images segmentées, avec bien évidemment les mêmes
paramètres d’extraction. Cette simple étape ultérieure de localisation d’objets colorés permet
de vérifier l’impression visuelle que la méthode Segm_TL/S permet une meilleur détection des
noyaux.
Page 92
Segmentation couleur par fusion numérique
a]: Originale
image couleur en annexe E
b]: Segm_Ohta
c]: Segm_vect_RVB a]
d]: Segm_Miyawaki
e]: Segm_TL/S
b] c]
d] e]
Page 93
Segmentation couleur par fusion numérique
a]: Originale
image couleur en annexe E
❷
b]: Segm_Ohta
c]: Segm_vect_RVB a]
d]: Segm_Miyawaki
e]: Segm_TL/S ❸
b] c]
d] e]
Page 94
Segmentation couleur par fusion numérique
a]
b] c]
d] e]
Page 95
Segmentation couleur par fusion numérique
a]
b] c]
d] e]
Page 96
Segmentation couleur par fusion numérique
3.7 - Conclusion
Nous avons présenté dans ce paragraphe une méthode générale de segmentation sur des
images couleur basée sur une coopération entre les composantes Teinte et Luminance, sous le
contrôle de la Saturation. En définissant un critère composite entre deux couleurs, on est alors
ramené au problème classique d’une segmentation selon un critère d’homogénéité.
Nous avons étudié l’influence des paramètres de notre méthode en utilisant un indicateur de
performances. Ceci nous a permis de déterminer une stratégie d’ajustement et des plages de
réglage pour le choix des valeurs de ces paramètres.
Page 97
Segmentation couleur par fusion numérique
Nous avons également comparé les résultats obtenus sur des images couleur réelles et
montré ainsi que l’utilisation implicite de l’information de Teinte permet de s’affranchir des
faibles variations d’éclairage.
4 - Conclusion
Dans ce chapitre nous avons vu qu’il était possible d’étendre des techniques de
segmentation niveau de gris (détection de contours à l’aide d’un masque de Sobel, croissance
de régions) basées sur des critères différentiels à des images couleur représentées dans la base
Teinte-Luminance-Saturation.
Le critère utilisé est alors un critère mixte mélangeant numériquement les informations
complémentaires apportées par les diverses composantes, en tenant compte de la non
pertinence de la Teinte lorsqu’elle n’est pas suffisamment saturée. Cette situation est
malheureusement relativement courante dans les images naturelles, en général pauvres en
couleurs pures. Néanmoins, les performances de la méthode proposée sont globalement:
❏ supérieures à celles obtenues par des méthodes travaillant sur d’autres bases
de représentation (RVB, Ohta,...).
Page 98
CHAPITRE III
Page 99
Segmentation couleur par fusion symbolique
1 - Introduction
Les ensembles flous (en Anglais “Fuzzy Sets”) ont été introduits en 1965 par Lotfi Zadeh
comme étant une nouvelle méthode pour modéliser les connaissances vagues du langage
naturel, tels que “personne âgé”, “température élevée”, “écart grand” [ZAD 65]. Ils
permettent alors de prendre en compte la gradualité des concepts utilisés.
Depuis leur introduction, les ensembles flous et la logique floue, qui permet de raisonner sur
de telles connaissances, ont été largement utilisés pour le contrôle et la prise de décision, et
plus récemment pour le traitement des images. En analyse d’images et reconnaissance de
formes, les ensembles flous sont en effet une représentation intéressante pour segmenter,
classifier ou fusionner des données, lorsque les régions ou les classes ne peuvent pas être
clairement définies. Prewitt, le premier, nota que les parties d’une image représentant des
objets peuvent être considérées comme floues. Plus tard, plusieurs contributions ont été
réalisées dans l’analyse des images, la segmentation et plus généralement le traitement des
images numériques. On peut d’ailleurs trouver un résumé des travaux les plus significatifs dans
[LEV 89] [PAL 92] [KRI 92] [ROS 92] et une présentation plus complète dans [BEZ 92].
Plus récemment, on retrouve également l’utilisation des ensembles flous dans les étapes de
filtrage avec l’introduction par exemple d’un filtre médian flou dans [RUS 94b] ou d’une
classe de filtre à réponse impulsionnelle finie appelée “Fuzzy one-mean derivative filters” dans
[CHE 95].
Dans le domaine de la segmentation des images, les algorithmes trouvés dans la littérature
font généralement intervenir l’algorithme de classification dit du “Fuzzy c-Means” (noté par la
suite FCM) développé par J.C. Bezdeck [BEZ 81] d’après les travaux de J.C. Dunn [DUN 74].
Une autre approche, plus récente, consiste à intégrer, dès l’étape de segmentation, les
connaissances humaines. Elle se révèle être un domaine de recherche très prometteur pour la
segmentation des images que ce soit pour la détection de contours ou la segmentation en
régions.
Page 101
Segmentation couleur par fusion symbolique
Applicable sur des images mono ou multi spectrales, c’est un algorithme de réallocation
floue, dans lequel les classes sont représentées par un centre de gravité. Cet algorithme est basé
sur la minimisation sous contrainte d’une fonction de coût, formée d’une somme quadratique
des erreurs intra-classes entre les formes et les centres des classes. Ainsi, pour la classification
de l’ensemble fini X = {x1, x2,..., xn} de n donnés, scalaires ou vectorielles, la fonction de coût
est décrite par l’équation suivante:
n c
∑ ∑ µik ⋅
m 2
J m (U,v) = xk – vi (III.1)
k=1 i=1
où U est la partition floue de X en c classes à former, v = {v1, v2,..., vc} l’ensemble des centres
des classes; µik est le degrés d’appartenance de la forme xk à la classe i sous la contrainte
c
∑ µik = 1 , m est un paramètre de pondération appelé le facteur de flou et ||.|| une distance
i=1
quelconque entre la forme xk et le centre vi.
Les solutions pour une classification optimale sont obtenues lorsque Jm(U,v) est minimale.
Il a été montré que pour m supérieur à 1 et en supposant x k ≠ v j , le minimum de cette fonction
peut être déterminer à partir des équations III.2 et III.3
c –1
x k – v i 2 ⁄ ( m – 1 )
= ∑ --------------------
m
µ ik (III.2)
j = 1 xk – v j
n
∑ ( µik ⋅ xk )
m
v i = k--------------------------------
=1
n
- (III.3)
∑
m
µ ik
k=1
La partition optimale est obtenue par itérations successives jusqu’à convergence des
résultats. Après une initialisation des différents paramètres de l’algorithme notamment, le
nombre de classe c, la partition initiale, le facteur de flou “m” et le seuil de convergence désiré,
on détermine les centres des nouvelles classes par l’équation III.3, puis les degrés
d’appartenance des formes à ces classes par l’équation III.2. On répète ces deux phases tant
que l’écart entre deux vecteurs centres successifs n’est pas inférieur au seuil de convergence.
On peut trouver une explication plus approfondie de cet algorithme dans [WIN 82].
A l’issue de cette étape, on dispose d’une partition floue de X en c classes, et du vecteur des
c centres des classes. Cependant, cette classification floue ne conduit pas à la segmentation
finale de l’image. L’étape suivante, implicite lorsqu’on utilise un algorithme de classification
stricte, consiste à défuzzifier les résultats obtenus par l’algorithme du Fuzzy C-Means pour
Page 102
Segmentation couleur par fusion symbolique
définir les différentes régions de l’image ou mettre en évidence leurs contours. Bombardier
dans [BOM 92] utilise cette méthodologie pour mettre en évidence les contours d’une image
monochrome et compare les résultats obtenus à ceux des méthodes traditionnelles (Deriche).
Dans le domaine de la détection de contours dans les images couleur à l’aide d’une
classification floue, les travaux de T.L. Huntsberger sont les plus souvent cités. Notamment
dans [HUN 85] il définit ainsi un opérateur de détection de contours indépendant de
l’orientation du contour et surtout d’un choix, toujours critique, de seuil de détection. Après
l’étape de classification floue, les contours couleur sont localisés par le passage par zéro de la
fonction suivante:
Pour la segmentation en régions d’images couleur, l’algorithme le plus souvent cité est celui
de Y.W. Lim et S.U. Lee [LIM 90] qui est par ailleurs utilisé dans le logiciel “Image Magick de
E.I. du Pont De Nemours and Compagny”. La méthodologie utilise un concept de “grossier-
fin” pour réduire le temps de traitement induit par l’algorithme du FCM. Une première
segmentation “grossière”, dans le sens où seuls les pixels très proches d’un point de vue
colorimétrique sont regroupés, crée une première partition de l’image en utilisant une
technique de seuillage sur les histogrammes. L’analyse des histogrammes des trois
composantes couleur de l’image est réalisée à l’aide d’un outil développé par A.P. Witkin
(appelé “scale space filter”) [WIT 84] permettant de déterminer quels pics ou vallées sont
prédominants dans l’histogramme. L’étape suivante de segmentation “fine” fusionne les pixels
non encore classifiés avec la classe la plus proche en utilisant l’algorithme du FCM. La
première étape permet à la fois de diminuer le nombre d’informations à traiter et de ce fait le
temps de traitement. Elle sert également à déterminer le nombre de classes nécessaires pour
amorcer l’algorithme du FCM.
Ces différentes méthodes de segmentation des images couleur peuvent être utilisées dans la
plupart des bases de représentation de la couleur (RVB, YIQ, XYZ, I1I2I3,...) à l’exception de
la base TLS du fait de la circularité de l’information de Teinte.
L’utilisation de la logique floue dans la segmentation des images ne se limite cependant pas
à de la classification par l’algorithme du FCM. L’apport des connaissances humaines traduites
en termes de règles linguistiques peut facilement s’exprimer à l’aide de la logique floue.
L’expertise humaine est ainsi traduite selon une architecture de type Si - Alors - Sinon. Par
exemple, on peut définir un point contour dans une image gradient par la règle suivante:
Page 103
Segmentation couleur par fusion symbolique
Nous avons adapté dans [CAR 95a] cette approche de détection de contours par des jeux de
règles floues au cas des images couleur traitées dans la base TLS. Le § 2 de ce chapitre
présente cette méthode intégrant l’expertise des propriétés propres à ces composantes pour
fournir un détecteur flou de contours couleur.
Dans [CAR 95b] nous avons proposé une autre utilisation de la logique floue en adaptant
l’algorithme de segmentation en régions par fusion numérique présenté au § 3 du chapitre II.
Cette méthode décrite dans le § 3 de ce chapitre utilise des ensembles flous pour modéliser les
grandeurs numériques associées à la technique de segmentation par croissance de régions. Des
jeux de règles appropriés permettent alors d’engendrer un prédicat d’homogénéité floue basé
sur une coopération symbolique entre les diverses composantes Teinte, Luminance et
Saturation de l’image couleur.
Pour les lecteurs non familiarisés avec la théorie des sous-ensembles flous, ils trouveront les
notions de base nécessaires à la compréhension de ce chapitre dans l’ANNEXE C.
Page 104
Segmentation couleur par fusion symbolique
Dans ce paragraphe nous proposons d’utiliser la théorie des ensembles flous associée à un
jeu de règles d’inférences pour définir un nouveau détecteur de contours couleur associant les
informations de Teinte, Luminance et Saturation. Cette approche est fondée sur la même
stratégie de fusion des informations T, L et S que celle utilisée dans l’approche “numérique”
(cf. § 2.4.1 du chapitre II). Par contre, l’opérateur mettant en évidence les contours est
fondamentalement différent. Il est issue d’une technique en niveaux de gris présentée dans le
paragraphe suivant. La généralisation de cette technique au cas des images couleur
représentées dans la base TLS est décrite dans le § 2.2. Nous évaluerons ensuite les
performances de ce nouvel opérateur avant de présenter quelques applications à des images
réelles.
Nous présentons ici l’approche proposée dans [TAO 93] [RUS 94c] et utilisée par
[LEM 94] pour obtenir un opérateur de détection de contours adaptable à différents types de
contour. Cette approche combine des règles floues de type Si-Alors assignant un niveau
d’appartenance aux contours pour chaque pixel de l’image et générant ainsi un ensemble de
pixels potentiellement points de contour.
Cet opérateur basé sur l’utilisation de règles floues s’appuie sur la définition linguistique
suivante d’un contour:
“Un contour représente une transition plus ou moins forte voisine d’une zone homogène”
Ainsi, autour du pixel courant, on va rechercher une zone z_t présentant une transition par
rapport à ce pixel et une zone z_h homogène par rapport à ce pixel. Si cette situation est mise
en évidence, le pixel courant est alors potentiellement un point de contour. Pour rechercher ces
zones, plusieurs masques de dimension 3x3 sont envisagés. Les termes linguistiques de
transition et d’homogénéité sont des sous-ensembles flous symboliques obtenus, à partir de
sous-ensemble flous numériques relatifs aux différences de niveaux entre le pixel courant et ses
voisins, en suivant une approche par opérateur logique. Dans le § 1 de l’ANNEXE D, nous
présentons cet opérateur en suivant une approche par inférence.
La différence absolue de niveaux de gris entre le pixel central et un pixel voisin est
caractérisée par deux symboles flous petite et grande qui sont antagonistes. Les sous-
ensembles flous numériques associés à ces symboles sont respectivement caractérisés par des
fonctions d’appartenance µ M ( petite ) ( δg ) (notée µpetite) et µ M ( grande ) ( δg ) (notée µgrande)
complémentaires (µpetite = 1 - µgrande). La figure III.1 montre un exemple de choix de ces
fonctions d’appartenance sur l’univers de discours continu qu’est la différence absolue de
niveaux de gris (noté δg). Cet univers est défini entre 0 et 255.
Page 105
Segmentation couleur par fusion symbolique
Nous utilisons des fonctions linéaires par morceaux pour des raisons de simplicité. Le
premier paramètre (arbitrairement fixé à 5) n’est pas égal à zéro pour permettre d’atténuer la
sensibilité aux bruits. Le second, fixé à 128, permet de donner une dynamique plus importante,
aux différences de niveaux de gris moyennes. En contre partie les différences de niveaux de
gris de grande amplitude (>128) auront toutes la même importance.
Degrés d’appartenance
µpetite µgrande
1
0.5
0 5 128 255 δg
Plusieurs masques 3x3 sont utilisés pour caractériser géométriquement les formes de
contours envisagés. Tao utilise 16 masques présentés en figure III.2 tandis que Russo définit un
opérateur moins sensible au bruit à l’aide des 8 masques de la figure III.3. Chaque masque ne
prend en considération que 6 des 8 voisins du pixels central X dont on cherche le potentiel
contour.
z_h z_h z_t z_h z_t z_t z_t z_t z_h z_h z_h z_h
z_h z_h z_t z_h z_h z_h z_h z_h z_h z_t z_t z_t
M1 M2 M3 M4
z_h z_t z_t z_h z_h z_h z_t z_t z_h z_t z_t z_t
z_h z_h z_t z_t z_t z_t z_t z_h z_h z_h z_h z_h
M5 M6 M7 M8
z_t z_t z_t z_h z_h z_h z_h z_h z_t z_t z_h z_h
z_h z_h z_h z_t z_t z_t z_h z_t z_t z_t z_t z_h
M9 M10 M11 M12
z_h z_h z_t z_t z_t z_t z_t z_h z_h z_t z_t z_t
z_t z_t z_t z_h z_h z_t z_t z_t z_t z_t z_h z_h
M13 M14 M15 M16
Page 106
Segmentation couleur par fusion symbolique
z_t z_t z_t z_h z_t z_h z_h z_h z_t z_h
z_h z_h z_h z_h z_t z_t z_t z_t z_t z_h
M5 M6 M7 M8
Dz_t).
Pour chaque masque Mi, on peut alors obtenir les fonctions d’appartenance µhomogéne_Mi et
µtransition_Mi, associées respectivement aux symboles homogène_Mi et transition_Mi, en
utilisant un opérateur de conjonction entre les différents sous-ensemble flous numériques
décrivant les différences Dz_h et Dz_t. Si T désigne une t-norme on aura alors:
Page 107
Segmentation couleur par fusion symbolique
❏ Si z_h est une zone homogène_Mi Et z_t est une zone de transition_Mi Alors
le pixel central de la structure est potentiellement un point de contour
pour ce masque
Le résultat de cette règle est donc un sous-ensemble flou symbolique noté PCP_Mi. La
fonction d’appartenance µPCP_Mi pour ce symbole est obtenue par la formule suivante:
Dans la pratique, la t-norme utilisée est la fonction “Min”, et la t-conorme est la fonction
“Max”.
Un niveaux de gris 255 ⋅ µ PCP ( X ) est assigné au pixel “X”. Ce niveau sera interprété
comme le module du gradient. La direction de celui-ci pourra être définie par la direction
associée au masque correspondant au PCP_Mi sélectionné selon un codage de type Freeman.
Une des propriétés importantes d’un détecteur de contours est la finesse qu’il apporte aux
contours (largeur de 1 pixel). Pour cela, une étape d’affinage, proposée dans [TAO 93],
éliminant les pixels ayant un potentiel contour redondant, est nécessaire.
Cette étape peut être réalisée à l’aide de la règle suivante appliquée sur les 8 masques de la
figure III.4:
❏ Si tous les degrés d’appartenance à PCP des pixels marqués par un “x” sont
supérieurs au degré d’appartenance à PCP du pixel “X” Alors
le potentiel contour du pixel “X” est éliminé.
Page 108
Segmentation couleur par fusion symbolique
x x x x x
X X x X X x
x x x x x
x x x x
x X X x x X X x
x x x x
2.1.5 - Remarques
Les deux caractéristiques spécifiques de la composante Teinte sont d’une part une
représentation circulaire reposant sur un choix arbitraire des relations entre les couleurs et leur
valeurs numériques et d’autre part une fiabilité variable que l’on peut, comme nous l’avons fait
précédemment, lier au niveau de Saturation.
La circularité de la Teinte n’est pas un réel handicap. En effet, nous avons vu au § 2.2.1 du
chapitre II, que l’on peut facilement calculer une différence absolue circulaire modulo 256.
Page 109
Segmentation couleur par fusion symbolique
L’univers de discours de la différence de Teinte (noté ∆T) est alors compris entre 0 et 128.
Comme dans le cas de la différence de niveaux de gris, deux symboles faible et forte vont
caractériser cette grandeur. Les sous-ensembles flous numériques associés à ces symboles sont
définis à partir de fonctions d’appartenance µ M ( faible ) ( δt ) (notée µfaible) et µ M ( forte ) ( δt )
(notée µforte) dont un exemple est donné en figure III.5.
Degrés d’appartenance
µfaible µforte
1
0.5
0 2 41 128 δt
Degrés d’appartenance
µpertinente
1 θ
0.5
0 S0 255 s
Cette fonction d’appartenance est très proche de la fonction α(s) définie dans le paragraphe
2.1 du chapitre 2. Nous avons choisi ici une fonction linéaire par morceaux pour des raisons de
simplicité
Page 110
Segmentation couleur par fusion symbolique
Pour caractériser la différence absolue pertinente de Teinte entre deux pixels p1(t1, l1, s1) et
p2(t2, l2, s2), nous allons utiliser deux sous-ensembles flous de symboles petite et grande qui
sont le résultat du jeu de règles suivants:
❏ Si les Teintes de p1 Et de p2 sont pertinentes Et la différence absolue de
Teinte entre ces deux pixels est faible Alors
la différence absolue pertinente de Teinte est petite.
Une fois ces deux sous-ensembles flous définis, le potentiel contour du pixel en Teinte
PCP_T est obtenu de la même manière que pour les images en niveaux de gris et est caractérisé
par sa fonction d’appartenance µPCP_T.
Il est à noter que cette fonction d’appartenance, qui dépend des niveaux de Saturation et de
Teinte des pixels, ne pourra avoir une valeur non nulle que dans le cas ou l’information de
Teinte des deux pixels est pertinente. Autrement dit, dans la composante Teinte, les seuls pixels
ayant un potentiel contour sont les pixels indiquant un contour entre deux régions saturées.
Pour obtenir le potentiel contour couleur, il faut combiner les trois potentiels PCP_T,
PCP_L et PCP_S. La démarche qui nous a guidés dans la construction de cette combinaison
est basée sur l’idée principale suivante:
Le poids (donc la valeur du PCP_TLS) d’un contour sera bien-sûr lié à la valeur des
potentiels contours de chaque composante, mais aussi à la fréquence d’apparition de ce
contour dans les différentes composantes.
Dans un premier temps les trois potentiels contours (PCP_T, PCP_L et PCP_S) sont
combinés suivant trois règles afin de caractériser, à l’aide de trois symboles flous
L(PCP_I) = {PCP_1, PCP_2, PCP_3}, trois types de point contour dans l’espace TLS. La
signification de ces trois symboles est la suivante:
❏ PCP_1: le pixel courant X est un point potentiel contour dans une des
Page 111
Segmentation couleur par fusion symbolique
Les trois nouveaux sous-ensembles flous de symboles sont tels que celui associé à PCP_3
est inclus dans celui associé à PCP_2 qui est également inclus dans celui associé à PCP_1.
Autrement dit, et c’est une évidence, un pixel ayant un potentiel contour dans les trois
composantes Teinte, Luminance et Saturation a forcément un potentiel dans deux des trois et a
fortiori dans une composante.
Les fonctions d’appartenances associées à ces trois symboles sont obtenues en utilisant les
opérateurs logiques de conjonction et de disjonction. On a alors:
Page 112
Segmentation couleur par fusion symbolique
Le potentiel contour couleur du pixel courant est décrit par un symbole noté PCP_TLS.
Pour donner une signification plus importante aux contours présents dans les trois
composantes (contours décrits par PCP_3) par rapport à ceux présents dans deux ou dans une
des trois composantes (contours décrits respectivement par PCP_2 et PCP_1), un coefficient
est ajouté pour pondérer la “force” de la relation entre les symboles. Le symbole PCP_TLS est
alors obtenu en calculant l’image de la description de x sur L(PCP_I) par le jeu de règles
caractérisé par une relation floue entre les symboles PCP_1, PCP_2, PCP_3 et le symbole
PCP_TLS. Le jeu de règles est alors le suivant:
❏ Si le potentiel contour de X est PCP_1 Alors
le potentiel contour couleur de X est PCP_TLS à CPCP_1
On a alors un jeu de trois coefficients CPCP_1, CPCP_2 et CPCP_3 qui sont choisis tels que:
CPCP_3 > CPCP_2 > CPCP_1 et CPCP_3 + CPCP_2 + CPCP_1 = 1
Le graphe flou associé à ce jeu de règles est construit sur le produit cartésien des ensembles
L(PCP_I) et L(PCP_TLS) dont les éléments seront respectivement notés W et W’. Ainsi le jeu
de règles est représenté par le graphe flou µΓ (W, W’) suivant:
W ∈ L(PCP_I)
µΓ (W, W’) PCP_1 PCP_2 PCP_3
Page 113
Segmentation couleur par fusion symbolique
∀ W’ ∈ L(PCP_TLS),
µ M ( W′ ) ( x ) = ⊥ W ∈ L ( PCP_I ) T [ µ M ( W ) ( x ), µ Γ ( W, W ′ ) ] (III.16)
Nous avons fixés CPCP_3 = 1/2, CPCP_2 = 1/3 et CPCP_1 = 1/6, ces valeurs étant choisies
pour accroître le poids des contours les plus souvent présents.
A l’aide des deux séries de masques présentées, on obtient deux opérateurs flous de
détection de contours, que nous appellerons par la suite Gradient Flou Couleur 8 (GFC 8) ou
16 (GFC 16) suivant les masques utilisés.
2.2.5 - Remarques
Une étape d’affinage des contours est également nécessaire pour réduire la largeur du
contour à 1 pixel. De plus comme aucun filtrage n’est inclus dans la détection des potentiels
contours des pixels, l’opérateur couleur ainsi défini sera, pour les mêmes raisons qu’en niveaux
de gris, vraisemblablement très sensible aux bruit et demandera donc un lissage préalable.
Par contre, un avantage de ce type d’approche est de prendre en compte n’importe quelle
configuration de masque et par conséquent, si cela est utile, la forme prédéfinie de l’objet à
retrouver.
Comme nous l’avons fait pour le détecteur de contours couleur présenté au chapitre 2, nous
allons maintenant étudier quantitativement le comportement des deux opérateurs Gradient
Flou Couleur en présence de bruit additif corrélé ou non entre les composantes de la base
RVB. Le critère retenu pour l’évaluation de la robustesse des contours est, comme
précédemment, la probabilité de détection (PD) en fonction de la probabilité de fausse alarme
(PF). Puis, de manière qualitative, nous observerons la définition des contours détectés. Ces
résultats seront comparés avec ceux obtenus par la méthode Sobel TLS.
Page 114
Segmentation couleur par fusion symbolique
0 0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
PF PF PF
a: bruit non corrélé b: bruit moyennement corrélé c: bruit totalement corrélé
GFC 8 GFC16 Sobel TLS
0 0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
PF PF PF
a: bruit non corrélé b: bruit moyennement corrélé c: bruit totalement corrélé
GFC 8 GFC16 Sobel TLS
0 0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
PFf PF PF
a: bruit non corrélé b: bruit moyennement corrélé c: bruit totalement corrélé
GFC 8 GFC16 Sobel TLS
Page 115
Segmentation couleur par fusion symbolique
On constate sur ces différentes courbes que les opérateurs de Gradient Flou sont, comme
nous l’avions pressenti, plus sensibles aux bruits que l’opérateur Sobel TLS et cela quelles que
soient les conditions de test envisagées. De la même manière que pour le Sobel TLS les
opérateurs flous sont moins sensibles au bruit lorsque celui ci est corrélé. Ce phénomène est
amplifié lorsque la détection du contour s’effectue entre deux régions à forte Saturation, c’est-
à-dire lorsque la pertinence de la composante Teinte est forte. En effet nous avons vu au
premier chapitre que cette composante est alors moins perturbée par ce type de bruit.
On constate également que l’opérateur GCF 8 est très légèrement moins sensible au bruit
que l’opérateur GFC 16. L’utilisation des 8 masques de Russo, définis pour obtenir un
opérateur protégeant du bruit, n’apporte pas une solution satisfaisante au problème de la forte
sensibilité au bruit de cette méthode. Cette sensibilité provenant essentiellement de l’utilisation
des fonctions “Max” et “Min”.
Nous avons cherché également à estimer la qualité de la localisation spatiale des contours
détectés. Pour cela, nous avons observé les contours obtenus par les différents opérateurs sur
l’image synthétique Test (présentée au paragraphe 3.5.3 du chapitre II) qui reproduit une
diversité importante de formes de contours à détecter.
Le fait d’introduire un bruit faible sur l’image originale permet d’éviter la création de faux
contours dans des zones homogènes. Dans ces zones, l’amplitude du bruit n’est pas assez
grande pour que les masques utilisés détectent un contour. Le choix du seuil pour la dernière
étape du traitement est ainsi facilité et n’influence en rien la localisation des contours.
La figure III.10 présente les contours détectés par les différents opérateurs envisagés ainsi
que les contours originaux de l’image Test.
On s’aperçoit alors, que l’opérateur GFC 16 fournit une meilleure définition que l’opérateur
Sobel TLS ou que l’opérateur GFC 8, notamment au niveau du carré et des cercles. Cette
performance est due au nombre important de structures de masque utilisées. Les contours sont
mieux définis, mais le nombre de masques étant double, le temps de traitement sera
pratiquement deux fois plus grand.
Page 116
Segmentation couleur par fusion symbolique
Nous présentons dans ce paragraphe les résultats des deux opérateurs de Gradient Flou
appliqués sur les images “Agriculture”, “Maison” et “Métal” utilisées au paragraphe 2.7 du
chapitre II. Les conditions d’obtention des contours sont par ailleurs identiques.
L’image “Agriculture” numérisée par un scanner couleur est faiblement bruitée. De ce fait
la forte sensibilité au bruit des opérateurs GFC 8 et GFC 16, qui se traduit par la détection de
faux contours, ne sera pas très marquée sur cette image. C’est d’ailleurs ce que l’on constate
sur les images b] et c] de la figure III.11. En ce qui concerne la définition des contours, si l’on
effectue un zoom sur une partie de l’image, on observe alors que les contours obtenus en
utilisant les 16 masques (zoom ❷) sont ici plus réguliers que ceux obtenus avec les 8 masques
(zoom ❶) ou avec l’opérateur Sobel TLS (zoom ❸).
Les résultats obtenus sur l’image “Maison” (figure III.12) confirment la forte sensibilité des
opérateurs flous au bruit qui correspond dans cette image à de la texture au niveau de la façade
de la maison constituée de briques. Nous avons donc effectué un filtrage non linéaire sur cette
image. Les paramètres du filtre de rang vectoriel utilisant un masque de taille 5x5 sont réglés
pour produire un effet de filtrage important et de ce fait un faible rehaussement des transitions.
Le nombre de faux contours détectés décroît alors fortement (cf. images b] et c] de la figure
Page 117
Segmentation couleur par fusion symbolique
III.13). Si la méthode Sobel TLS reste toujours moins sensible au bruit (cf. image d] de la
figure III.13), on constate également toujours que l’opérateur GFC 16 permet une meilleure
définition des contours dans certaines zones de l’image comme la cheminée (flèche ❶) ou la
bordure du toit (flèche ❷).
Nous avons également appliqué les algorithmes sur l’image “Métal filtrée” utilisée au
chapitre II. Dans cette image (figure III.14), nous avions privilégié le rehaussement des
transitions par rapport à l’effet de lissage pour rendre plus facile la différenciation entre
certaines zones de l’image (flèche ❶ par exemple). De ce fait, l’effet de filtrage n’est pas
suffisant pour les opérateurs GFC 8 et GFC 16 et le nombre de faux contours détectés (image
c] et d] de la figure III.14) est important par rapport au résultat obtenu avec l’opérateur
Sobel TLS (image d]).
Les temps de calculs du gradient couleur sur image de dimension 256x256 en utilisant une
station SUN SPARC 20 sont de 6,2 secondes pour GFC 16, 14,7 secondes pour GFC 8, et
seulement 2 secondes pour Sobel TLS.
2.5 - Conclusion
Nous avons présenté dans ce paragraphe une approche par jeux de règles floues pour la
détection de contours dans des images couleur. Les deux points importants liés à cette méthode
sont:
Les opérateurs de Gradient Couleur Flou obtenus ont une sensibilité au bruit évidente, mais
leurs performances en terme de définition des contours sont intéressantes, tout du moins en ce
qui concerne l’opérateur utilisant les 16 masques pour la définition du contours (GFC 16). La
possibilité d’utiliser différents masques permettant d’introduire une connaissance a priori de la
forme du contours à détecter, est d’ailleurs un autre point fort de cette méthode grâce, une fois
de plus, à la souplesse d’utilisation introduite par la représentation symbolique des différentes
grandeurs. Néanmoins, il faut reconnaître que ces méthodes sont plus coûteuses en temps de
calcul que les méthodes purement numériques.
Page 118
Segmentation couleur par fusion symbolique
a]: Originale
image couleur en annexe E
b]: GFC 8
a]
c]: GFC 16
b] c]
➊ ➋
d]
➌ ➊ ➋ ➌
zoom
Page 119
Segmentation couleur par fusion symbolique
a]: Originale
image couleur en annexe E
b]: GFC 8
a]
c]: GFC 16
b] c]
d]
Page 120
Segmentation couleur par fusion symbolique
b]: GFC 8
a]
c]: GFC 16
❷ ❷
❶ ❶
b] c]
❷
❶
d]
Page 121
Segmentation couleur par fusion symbolique
b]: GFC 8
a]
c]: GFC 16
b] c]
d]
Page 122
Segmentation couleur par fusion symbolique
Les différents univers de discours utilisés par la suite sont définis de la manière suivante:
Si φ est un de ces ensembles, l’ensemble des sous-ensembles flous définis sur φ est noté
F(φ).
Page 123
Segmentation couleur par fusion symbolique
Règles pour
H ∈ F(L(∆T)) l’agrégation des sous-ensemble flou
δt N/S descriptions des P ∈ F(Q) de symboles relatif à
écarts de Teinte l’homogénéité entre
et de Luminance deux pixels
I ∈ F(L(∆L))
δl selon la méthode
N/S
de coopération
❏Un jeu de règles linguistiques est appliqué pour agréger ces descriptions
symboliques de la Saturation. L’inférence réalisée conduit à la définition d’un sous-ensemble
flou de symboles (noté C) relatifs à la méthode de coopération envisagée entre les composantes
Teinte et Luminance.
❏ Les écarts numériques de niveaux en Teinte (noté δt) et en Luminance (noté δl)
sont fuzzifiés pour obtenir des descriptions symboliques de ces mesures par l’intermédiaire de
sous-ensembles flous notés respectivement H et I.
Page 124
Segmentation couleur par fusion symbolique
Avant de définir les règles linguistiques utilisées pour définir une méthode de segmentation
floue fusionnant les informations de Teinte et de Luminance suivant la Saturation nous allons
présenter les diverses partitions des domaines numériques.
Degré d’appartenance
µpertinente
1 θ
0.5
0 S0 255 s
Dans notre démarche, suivant sa pertinence, le rôle tenu par la Teinte dans la décision
d’agrégation des pixels sera soit nul, soit inférieur au rôle tenu par la Luminance, soit
identique, soit privilégié.
Nous allons ainsi, dans notre cas, utiliser quatre modificateurs linguistiques qui sont
absolument pas, faiblement, suffisamment et complètement.
On dispose alors de 4 nouveaux symboles pour décrire la fiabilité de la Teinte qui sont
absolument pas pertinente, faiblement pertinente, suffisamment pertinente et complètement
pertinente que l’on renommera respectivement pour des raison de commodité par gris, pastel
faible, pastel fort et pure.
Page 125
Segmentation couleur par fusion symbolique
❏ gris:
La Teinte n’est absolument pas pertinente et elle ne doit pas être
utilisée dans le processus de segmentation.
❏ pastel faible:
La Teinte est faiblement pertinente. Le processus de segmentation
utilisera conjointement la Teinte et la Luminance en privilégiant
cette dernière information.
❏ pastel fort:
La Teinte est suffisamment pertinente. La segmentation s’effectuera
suivant les deux composantes.
❏ pure:
La Teinte est complètement pertinente. En privilégiant alors cette
information, le processus de segmentation n’utilisera pas la
composante Luminance.
Degré d’appartenance
µgris µpastel faible µpastel fort µpure
1
µpertinente
0.5
Ces fonctions d’appartenance ainsi définies décrivent une partition floue stricte de la
composante Saturation. Ceci signifie que ( ∑ µi ( s ) = 1 ).
i
∀ W ∈ L(S), µ D ( s ) ( W ) = µ M ( W ) ( s ) (III.18)
Page 126
Segmentation couleur par fusion symbolique
La différence absolue δt entre deux Teintes doit prendre en compte, comme nous l’avons
déjà signalé, la représentation circulaire de cette information en calculant une différence
modulo 256. Ainsi cette différence évolue entre 0 et 128. Nous avons également caractérisé
cette différence par trois symboles:
L(∆T) = {petite, moyenne, grande}.
La figure III.18b montre un exemple de fonctions d’appartenance associées à ces symboles.
Elles sont également construites à partir de deux autres paramètres: δtmin et δtmax.
0.5 0.5
δl δt
0 δlmin δlmax 255 0 δtmin δtmax 128
fig. a fig. b
Comme précédemment, on peut définir des descriptions floues des écarts de Luminance et
de Teinte:
∀ WI ∈ L(∆L), µ D ( δl ) ( W I ) = µ M ( W I ) ( δl ) et (III.19)
∀ WH ∈ L(∆T), µ D ( δt ) ( W H ) = µ M ( W H ) ( δt ) . (III.20)
Dans notre processus de segmentation, nous avons deux jeux de règles qui, après inférence,
produisent une classification des méthodes de coopération entre la Teinte et la Luminance pour
l’inférence dénotée 1 dans le schéma de la figure III.15 et une classification de l’homogénéité
entre deux pixels pour l’inférence 2. Ce sont ces deux jeux de règles qui vont être détaillés
maintenant.
Page 127
Segmentation couleur par fusion symbolique
❏ LUM:
le processus de segmentation utilise uniquement l’information
apportée par la Luminance,
❏ LUM_Tei:
l’information de Luminance est privilégiée par rapport à l’information
apportée par la Teinte,
❏ LUM_TEI:
les informations de Teinte et de Luminance sont utilisées
conjointement par le processus de segmentation,
❏ Lum_TEI:
l’information de Teinte est privilégiée par rapport à l’information
apportée par la Luminance,
❏ TEI:
le processus de segmentation utilise uniquement l’information
apportée par la Teinte,
❏ SEP:
les niveaux de Saturation des deux pixels sont si différents qu’ils
imposent une séparation des deux pixels en deux régions différentes, et
ce, quels que soient les niveaux en Teinte et en Luminance.
Le tableau suivant présente le jeu de seize règles nettes reliant les symboles attachés aux
niveaux de Saturation des deux pixels traités et les types de coopération à mettre en oeuvre.
W S 1 ∈ L(S)
gris pastel faible pastel fort pure
W S 2 ∈ L(S)
Page 128
Segmentation couleur par fusion symbolique
Pour chaque couple de sous-ensembles flous de symboles S1 et S2, il est inféré une partie
floue symbolique (C) sur l’ensemble M des types de coopération possibles. Soit Γ1 le graphe
net défini sur le produit cartésien des ensembles L(S)xL(S)xM. L’inférence de ce jeu de
règles, réalisée suivant le principe de combinaison-projection, conduit à la relation suivante:
∀ W M ∈ M,
µC ( W M ) = ⊥ T { T { µ D ( s ) ( W S ), µ D ( s ) ( W S ) }, µ Γ ( W S , W S , W M ) } (III.21)
1 1 2 2 1 1 2
(W S , W S ) ∈ L (S) × L (S)
1 2
Comme on est en présence d’un graphe net, l’équation peut s’écrire sous la forme suivante:
∀ W M ∈ M,
µC ( W M ) = ⊥ T { µ D ( s ) ( W S ), µ D ( s ) ( W S ) } (III.22)
1 1 2 2
( W S , W S ) ∈ L ( S ) × L ( S )| µ Γ ( W S , W S , W M )=1
1 2 1 1 2
En posant que le résultat obtenu est la description d’un couple (s1,s2) sur le langage M
(c.à.d. µC ( W M ) = µD ( s 1, s 2 ) ( W M ) ), et en utilisant l’équation III.18 (c.à.d.
M
symbole de la partie floue inférée, aux valeurs numériques s1 et s2. On a la relation suivante:
∀ W M ∈ M,
µD ( s 1, s 2 ) ( W M ) = µM (W ( s 1, s 2 ) = µ C ( W M ) (III.23)
M M)
L’intérêt de cette équation réside dans le fait que l’on va pouvoir observer l’évolution des
fonctions d’appartenance aux symboles inférés en faisant parcourir aux entrées numériques s1
et s2 l’univers de discours S. Cette équation sera illustrée dans l’exemple cité en p. 133.
Page 129
Segmentation couleur par fusion symbolique
∀ W Q ∈ Q,
µP ( W Q ) = ⊥ T { µ E ( W M , W H , W I ), µ Γ ( W M , W H , W I , W Q ) } (III.24)
( W M , W H , W I ) ∈ M × L ( ∆T ) × L ( ∆L )
2
avec µ E ( W M , W H , W I ) = T {µ C ( W M ), T {µ D ( δt ) ( W H ), µ D ( δl ) ( W I )}}
Page 130
Segmentation couleur par fusion symbolique
En suivant la même démarche que dans le § 3.2.2.1, c’est-à-dire en posant que le résultat
obtenu est la description d’un quadruplet (s1,s2,δt,δl) sur le langage Q
( µP ( W Q ) = µD (s
1, s 2, δt, δl ) ( W Q ) ), on peut relier directement le degré d’appartenance à un symbole
de la partie floue finale aux valeurs numériques s1 s2, δt et δl:
∀ W Q ∈ Q,
µ M ( W Q ) ( s 1, s 2, δt, δl ) = µ D ( s1, s2, δt, δl ) ( W Q ) = µ P ( W Q ) (III.25)
La méthode de segmentation floue proposée peut être implantée avec différents opérateurs
de conjonction et de disjonction. Pour notre part, nous avons choisi d’étudier deux couples de
fonction. Le premier couple, ayant la fonction “Min” comme t-norme et la fonction “Max”
comme t-conorme, définit une segmentation que nous appellerons par la suite Segmentation
Floue par Min et Max (SFMM). Le second utilise le produit comme t-norme et la somme
bornée à 1 comme t-conorme. Cette segmentation sera appelée Segmentation Floue par
Produit et Somme ou encore SFPS.
Page 131
Segmentation couleur par fusion symbolique
Les caractéristiques colorimétriques des trois pixels pC(tC, lC, sC), pG(tG, lG,sG) et
pH(tH, lH, sH) sont les suivantes:
tC = 40, lC = 100, sC = 60; tG = 32, lG = 109, sG = 60; tG = 47, lH = 110, sH = 90;
donnant:
❏ des écarts de Teinte: δtCG = 8 et δtCH = 7
❏ des écarts de Luminance de: δlCG = 9 et δlCH = 10.
En prenant une valeur S0 = 60 et une pente θ = 1/90 les fonctions d’appartenance aux
symboles partitionnant la Saturation sont données par la figure suivante:
Degré d’appartenance
µgris µpastel faible µpastel fort µpure
1
µpertinente S0 = 60
0.5 θ = 1/90
s
0
0 15 30 45 60 75 90 105 120 250
Pour les trois pixels, les descriptions floues des Saturations sont réalisées en considérant les
degrés d’appartenance à chaque symbole:
gris pastel faible pastel fort pure
sC = 60 0 0,50 0,50 0
sG = 60 0 0,50 0,50 0
sH = 90 0 0 0,50 0,50
0.5 0.5
δl δt
0 8 12 16 255 0 6 8 10 128
Page 132
Segmentation couleur par fusion symbolique
Les tableaux suivant donnent les descriptions floues des écarts de niveaux:
petite moyenne grande
µ(δtG = 8) 0 1 0
Une fois ces données initiales établies, nous allons suivre le passage de ces informations
dans les deux jeux de règles des inférences 1 et 2 (cf schéma de la figure III.15).
L’inférence 1 permet, à partir des descriptions floues précédentes, de générer pour chaque
couple (sC,sG) et (sC,sH) une description floue de la méthode de coopération entre les
composantes Teinte et Saturation. A l’aide de l’équation III.23 et en utilisant les opérateurs
précédents, on obtient les fonctions d’appartenances suivantes:
La partition floue de la composante Saturation étant effectuée au sens stricte, on aura alors:
Page 133
Segmentation couleur par fusion symbolique
µ µ µ
1 1 1
0 0 0
250 250 250 250 250 250
s1 s2 s1 s2 s1 s2
0 0 0
Méthode: LUM Méthode: LUM_Tei Méthode: LUM_TEI
µ µ
1 1
1 µ
0 0
0 250 250
250 250
250 250
s1 s2 s1 s2 s1 s2
0 0 0
Méthode: Lum_TEI Méthode: TEI Méthode: SEP
Pour les deux couples de Saturation envisagés, les descriptions obtenues sont représentées
dans le tableau suivant:
LUM LUM_Tei LUM_TEI Lum_Tei TEI SEP
Ainsi, pour le premier couple envisagé, seules deux règles seront applicables (degrés
d’appartenance non nuls) pour fusionner les informations de Teinte et de Luminance alors que
dans l’autre cas, quatre règles seront utilisées. De plus dans le premier cas, le degré
d’appartenance à la méthode LUM_Tei étant supérieur à celui de la méthode LUM_TEI, le poids
des conclusions obtenues avec cette règle de coopération sera plus important que celui des
conclusions obtenues avec la seconde méthode activée.
Pour la seconde inférence nous allons, dans un premier temps, évaluer le sous-ensemble
flou associé à un symbole élémentaire homogène_Mi issu de l’inférence entre les distances en
Teinte et en Luminance, ceci pour chaque méthode de coopération. En construisant le graphe
flou conjonctif à partir des règles définies au paragraphe 3.2.2.2 de ce chapitre, on obtient les
fonctions d’appartenance suivantes:
Page 134
Segmentation couleur par fusion symbolique
❏ SEP: µhomogène_Mi(δl,δt) = 0
Dans le même souci pédagogique, on peut ainsi tracer (figure III.22) le graphe de ces
fonctions d’appartenance, suivant chaque méthode, pour une entrée numérique (δl,δt) fuzzifiée
à l’aide des partitions de la figure III.20. Les graphes associés au symbole hétérogène_Mi étant
les compléments à 1 de ceux-ci, ils ne seront donc pas tracés.
1 1
0.5 0.5
0 0
16 16
10 8 12 10 8 12
6 8 δt 6 8 δl
δt 0 0 δl 0 0
Méthode LUM Méthode LUM_Tei
16 16
10 8 12 10 8 12
8 δt 8 δl
δt 6 δl 6
0 0 0 0
Méthode LUM_TEI Méthode Lum_Tei
µHomogène_Mi(δl, δt) µHomogène_Mi(δl, δt)
1 1
0.5 0.5
0 0
16 16
10 8 12 10 8 12
δt 8 δl 8
6 δt 6 δl
0 0 0 0
Méthode TEI Méthode SEP
Page 135
Segmentation couleur par fusion symbolique
Dans l’exemple traité, les descriptions floues obtenues à partir des couples (δlG, δtG) et
(δlH, δtH) selon chaque méthode de coopération sont les suivantes:
et
µhomogène (PC,PH) = 0,25*0,50 + 0,25*0,25 + 0,25*0,50 + 0,50*1 = 0,312
Nous avons cherché à situer les deux méthodes de segmentation floue (SFMM et SFPS) par
rapport à la segmentation Segm_TL/S définie au paragraphe 3.3 du précédent chapitre. Pour
cela, nous avons repris le test de mesure de dissimilarité sur les résultats de la segmentation de
l’image synthétique “Test” bruitée par un bruit gaussien non corrélé avec une variance variant
de 0 à 49. La figure III.23 présente l’évolution de cette mesure de dissimilarité suivant la
variance du bruit pour les différentes méthodes envisagées. L’étude montre que les résultats
obtenus avec la méthode SFPS sont plus proches de l’image de référence que ceux obtenus
avec les méthodes SFMM ou Segm_TL/S dont les performances sont très voisines.
Page 136
Segmentation couleur par fusion symbolique
mesure de dissimilarité
250
200 “Segm_TL/S”
150
“SFMM”
100 “SFPS”
50
0
0 1 4 9 16 25 36 49
variance du bruit
Figure III.23: Evolution de la mesure de dissimilarité suivant la variance du bruit
Cette mesure de dissimilarité est un critère numérique global à toute l’image. On peut
également, pour affiner cette étude, observer le comportement des méthodes suivant les
différentes régions de l’image pour une variance donnée. On a alors une vision plus fine, mais
subjective car visuelle, du comportement des différentes méthodes.
La figure III.24 montre les frontières des régions obtenues avec un bruit gaussien décorrélé
de variance 25.
❸ ❷ ❶
❹ ❺ ❻
“SFMM” “SFPM”
2483 régions 2107 régions
On constate dans ce cas que la méthode Segm_TL/S est plus sensible au bruit lorsque le
niveau de Saturation est faible (région ❶). Ceci est la conséquence de la prise en compte,
même pour une part peu importante de la Teinte, qui est alors très sensible au bruit, dans le
critère d’agrégation.
Page 137
Segmentation couleur par fusion symbolique
A l’inverse, quand la Saturation est moyenne, (régions ❸,❹,❺ et ❻), cette méthode est
moins sensible au bruit que les deux méthodes floues. C’est là la conséquence de la
pondération qui diminue les mesures de différence de Teintes et de Luminances lors de la
création du critère d’agrégation.
Enfin, la méthode SFMM est naturellement plus sensible au bruit que la méthode SFPS, en
particulier dans les régions ❸,❹,❺ et ❻. C’est dans ces régions, à niveau de Saturation moyen,
que s’effectue la coopération entre les composantes Teinte et Luminance. En utilisant les
fonctions “Min” et “Max” comme opérateurs de conjonction et de disjonction, on a en fait un
fonctionnement de type “soit l’une soit l’autre” plutôt qu’une réelle fusion les informations
comme cela se produit avec les opérateurs produit et somme pour la méthode SFPS, ou mieux
encore dans la segmentation par pondération Segm_TL/S.
Dans cette partie, nous présentons les résultats de segmentation sur trois images réelles:
“Maison”, “Cellules” et “Acier”. Cette dernière représente des grains d’une structure d’acier
spécial observés au microscope en lumière polarisée. Elle nous a été fournie par le Centre de
Recherche de la société Ugine Savoie.
Les segmentations floues SFMM et SFPS sont ici comparées avec la méthode numérique
Segm_TL/S élaborée au chapitre précédent et avec la méthode développée par Y.W. Lim et
S.U. Lee [LIM 90]. Cette dernière méthode, présentée en introduction de ce chapitre, utilise
un algorithme à base de seuillage sur les histogrammes suivi d’une réallocation par FCM
(Fuzzy C-Mean) des pixels non classifiés. Il est exécutable sur différentes bases de
représentation de la couleur, notamment la base RVB et la base de OHTA.
Pour effectuer le FCM, le nombre de classes valides est déterminé par le nombre de
“clusters” significatifs (c.à.d. ceux ayant un nombre de pixels supérieur à un nombre donné)
engendré par l’étape initiale de seuillage. On a ainsi une élimination des petites régions qui
n’est pas effectuée dans les algorithmes que nous présentons, rendant délicate la comparaison
des résultats. Pour remédier à cet inconvénient, le nombre de pixels validant un “cluster” sera
fixé à une valeur très faible (0,005% du nombre total de pixels de l’image, soit 3 pour une
image de dimension 256*256 et 13 pour une image 512*512) et un algorithme de suppression
des petites régions de tailles 3 ou 13 (détaillé au § 3 de l’ANNEXE B) sera appliqué aux
résultats des segmentations SFMM, SFPS et Segm_TL/S.
Comme pour les segmentations en régions par fusion numérique des composantes Teinte et
Luminance, il nous faut étudier l’histogramme de la Saturation pour permettre de déterminer
les valeurs des paramètres S0 et θ des méthodes floues. Les autres paramètres de la
segmentation seront, comme précédemment, réglés par essais successifs.
Page 138
Segmentation couleur par fusion symbolique
α(S)
µpertinence
0.5
0
0 10 20 30 40 50 60 70 80 90 100
Saturation
Pour cette image, les paramètres généraux de la méthode Segm_TL/S étaient: un nombre
d’itérations de 5, et un seuil d’agrégation final de 10 en Teinte et en Luminance. Nous
prendrons comme valeur ∆Tmin = ∆Lmin = 10 et également ∆Tmax = ∆Lmax = 20.
α(S)
µpertinence
0.5
0
0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150
Saturation
Les paramètres de la méthode Segm_TL/S pour cette image étaient les mêmes que ceux de
l’image précédente “Maison”. On prendra ainsi ∆Tmin = ∆Lmin = 10 et ∆Tmax = ∆Lmax = 20.
Page 139
Segmentation couleur par fusion symbolique
5000 1
4000 α(S)
3000
0,5
2000
µpertinence
1000
0 0
0 40 50 100 150 200 250
Saturation
Cette histogramme présentant un premier mode bien marqué, la valeur choisie pour S0 est la
valeur correspondant au minimum local après ce mode, c’est-à-dire ici la valeur 40. Pour
permettre une coopération efficace entre les composantes de Teinte et de Luminance, la valeur
de β sera faible (β=0.04) et θ sera pris égal à 1,25%. La partition de la Saturation pour cette
image est donnée par la figure III.28.
α(S)
µpertinence
0.5
0
0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150
Saturation
Pour la méthode Segm_TL/S, le nombre d’itérations est fixé à 5 avec un seuil d’agrégation
initiale de 1 et un pas de 1 sur ce seuil, ceci aussi bien en Teinte qu’en Luminance. Pour les
méthodes floues, on fixe ∆Tmin = ∆Lmin = 4 et ∆Tmax = 8 et ∆Lmax = 12 permettant ainsi une
plus grande sensibilité aux variations de Teinte.
Les méthodes de segmentation sont très différentes et le niveau du seuil d’agrégation n’est
pas forcément toujours identique, ce qui rend les comparaisons délicates. Néanmoins, les
tendances qui se profilent avec la segmentation de ces différentes images sont révélatrices du
comportement de chaque méthode.
Page 140
Segmentation couleur par fusion symbolique
Les figures suivantes (figure III.29 à III.31) présentent les frontières des régions obtenues
avec les méthodes de segmentation Segm_TL/S, SFMM, SFPS et la méthode à base de FCM
dans l’espace RVB ou dans la base de Otha, que nous appellerons respectivement FCM dans
RVB et FCM dans OTHA.
Après fusion des régions de taille inférieures à 3 pixels (images g, h et i), il apparaît que
certains contours (flèche ➎ par exemple) semblent visuellement mieux définis avec la méthode
SFPS. Le fait de privilégier l’information de Teinte se traduit par l’élimination de certaines
zones ombragées (flèche ❹). La partie de la façade fléchée ➐, qui est fortement ombragée, est
fusionnée avec le reste de la façade en utilisant SFMM, alors qu’elle est séparée en utilisant
SFPS ou Segm_TL/S. On voit ici apparaître l’influence des opérateurs “Min” et “Max”, qui au
lieu d’effectuer une réelle coopération entre les informations de Teinte et de Luminance, créent
un fonctionnement uniquement suivant l’information prépondérante sans tenir compte de
l’autre. Enfin, on constate (flèche ➏) que la méthode Segm_TL/S crée une confusion entre
deux régions, confusion qui n’apparaît pas dans les méthodes floues. On peut attribuer ceci à la
pondération des informations qui diminue les mesures de différence de Teinte et de Luminance
lors de la création du critère d’agrégation.
Page 141
Segmentation couleur par fusion symbolique
Avec notre approche dans la base TLS, on obtient des segmentations (images d, e et f) de
l’image qui permettent d’extraire plus ou moins convenablement les noyaux. Les cellules ont
tendance à être sur-segmentées avec les méthodes SFMM et SFPS alors que c’est l’inverse
pour les noyaux (flèches ➊ et ➋ sur les images d, e et f) par rapport au résultat de la méthode
Segm_TL/S. Ces régions correspondent à des niveaux de Saturation moyens et comme nous
l’avons déjà constaté dans l’étude des performances des méthodes floues, la méthode
Segm_TL/S est alors moins sensible au bruit. Le noyau indiqué par la flèche ➌ n’est retrouvé
qu’après segmentation par SFPS tandis que des erreurs d’extractions se produisent après
Segm_TL/S (flèche ➍) et que le noyau indiqué par la flèche ➊ n’est pas extrait après SFMM.
Globalement, la segmentation SFPS permet donc une meilleur extraction des noyaux que les
deux autres méthodes.
Comme pour l’image “Maison”, on obtient avec la méthode Segm_TL/S beaucoup plus de
régions (350 à 400 régions supplémentaires) qu’avec les méthodes floues (images d, e et f),
traduisant ainsi une plus grande sensibilité au bruit pour cette image. De plus, certains grains
sont mal isolés, flèche ➍ par rapport à SFMM et flèches ➌ et ➍ par rapport à la méthode SFPS
(images d, e et f).
Cependant, pour toutes ces méthodes, la distinction entre les trois grains formant la zone ➄
n’a pu être effectuée. Ceci provient du fait qu’ils possèdent des caractéristiques très voisines en
Teinte et en Luminance. Seuls leurs niveaux de Saturation différent, mais du fait que ces
niveaux sont élevés, cette différence n’est pas pris en compte par l’algorithme. Il faudrait alors
modifier le jeu de règles pour que, lorsque la pertinence de la Teinte est forte, l’information de
Saturation soit également prise en compte.
Les temps de traitement sont pour cette image de l’ordre de la minute avec SFMM, 21
secondes avec SFPS et 11 secondes avec Segm_TL/S,. Tous ces temps, donnés à titre indicatif,
sont mesurés sur une station SUN SPARC 20.
Page 142
Segmentation couleur par fusion symbolique
❷ ❷
❶
❹ ❸ ❹
❸ ❸
a]: Originale b]: FCM dans RVB c]: FCM dans OTHA
image couleur en annexe E 1544 régions 867 régions
➎ ➎ ➎
❻ ❻ ❻
➐ ➐ ➐
❹ ❸ ❹ ❸ ❹ ❸
g]: Segm_TL/S h]: SFMM i]: SFPS
400 régions 361 régions 323 régions
Page 143
Segmentation couleur par fusion symbolique
➌
➋
a]: Original filtrée b]: FCM dans RVB c]: FCM dans OTHA
image couleur en annexe E 1 région 172 régions
➋ ➋ ➋
➊ ➊ ➊
➌ ➌ ➌
➋ ➋ ➋
➊ ➊ ➊
➍
Page 144
Segmentation couleur par fusion symbolique
➊
➊
➋
➊
➄ ➄ ➄
a]: Originale filtrée b]: FCM dans RVB c]: FCM dans OTHA
image couleur en annexe E 4402 régions 2342 régions
➄ ➄ ➄
➌ ➌ ➌
➍ ➍ ➍
➋ ➄ ➋ ➄ ➋ ➄
Page 145
Segmentation couleur par fusion symbolique
3.6 - Conclusion
Nous avons présenté dans ce paragraphe une méthode générale de segmentation par
croissance de régions basée sur l’utilisation de sous-ensembles flous associés à des règles
linguistiques. Dans le cas des images couleur, ces règles permettent d’intégrer, d’une manière
très naturelle, les connaissances spécifiques liées à l’utilisation de la base de représentation
TLS.
Au travers des études qui ont été menées sur une image synthétique ainsi que sur des images
réelles, il apparaît que la segmentation par agrégation floue utilisant le produit et la somme
bornée produit une meilleure détection des régions que la méthode de segmentation par fusion
numérique présentée au chapitre précédent.
En revanche, si les temps de traitement sont très inférieurs à la méthode utilisant les FCM
avec des résultats similaires voire supérieurs, ils sont beaucoup plus importants qu’en utilisant
la méthode de segmentation par pondérations antagonistes des informations de Teinte et de
Luminance suivant la Saturation (Segm_TL/S).
4 - Conclusion
Dans ce chapitre, nous avons utilisé une représentation symbolique permettant de fusionner
des informations de nature différente dans le but de segmenter, soit par une approche contours,
soit par une approche régions, des images couleur représentées dans la base TLS.
Nous avons proposé ici d’utiliser la théorie des sous-ensembles flous dans un contexte
d’intégration des connaissances spécifiques du comportement des composantes Teinte,
Luminance et Saturation. Ces connaissances, traduites sous forme linguistique, restent très
explicites pour l’utilisateur et la logique floue est bien adaptée à la transcription de ces règles.
Un autre intérêt de la logique floue vient du fait que l’utilisation de sous-ensembles flous
pour la description de grandeurs numériques permet d’agréger ces grandeurs sans altérer leur
signification, même si leur contenu sémantique est différent.
Page 146
CONCLUSION
Page 147
Conclusion
Dans ce mémoire nous nous sommes intéressés à la segmentation des images couleur. Pour
éviter d’aboutir à des temps de traitement importants, la stratégie envisagée a consisté à
étendre les approches monochromes basées sur des critères différentiels. La réussite de cette
stratégie repose sur le choix judicieux de la base de représentation de la couleur de manière à
exploiter pleinement cette information multi-spectrale. Nous avons décidé de l’utilisation
d’une base de représentation du type Teinte-Luminance-Saturation, qui permet de faire
apparaître explicitement l’information de couleur, tout en assurant une indépendance et une
complémentarité entre les différentes informations colorimétriques.
L’exploitation de ces résultats nous a permis d’envisager deux modes possibles d’utilisation
de la Teinte:
Afin de contourner ce problème, nous avons proposé d’utiliser des sous-ensembles flous
symboliques pour décrire les différentes informations apportées par les composantes TLS.
L’introduction, dans un traitement de bas-niveau, de la logique floue a permis de prendre très
facilement en compte les caractéristiques spécifiques de la base TLS, et notamment
l’imprécision de la pertinence de l’information de Teinte. Les approches contours et régions
Page 149
Conclusion
ont été envisagées conduisant à la définition de nouveaux opérateurs pour les images couleur.
L’opérateur de détection de contours utilisé permet éventuellement d’introduire une
connaissance a priori de la forme du contour à détecter. Cependant, n’intégrant pas d’étape de
filtrage, il reste très sensible au bruit. La méthode de segmentation en régions par agrégation
floue, en utilisant des jeux de règles pour la coopération entre la Teinte et la Luminance suivant
la Saturation, produit une meilleure détection des régions que la méthode de segmentation par
fusion numérique. Ces jeux de règles, établis par expertises, sont facilement modifiables pour
prendre en compte d’autres critères symboliques. Cependant les temps de traitement de ces
méthodes symboliques sont plus importants qu’en utilisant la fusion numérique.
Les domaines d’application des méthodes proposées sont très variés, comme nous avons pu
le constater au travers des différentes images utilisées dans ce mémoire. On trouve, en
particulier, l’imagerie biomédicale où l’adjonction de réactif coloré facilite la mise en évidence
de certaines cellules. On trouve également des exemples d’utilisation de la couleur dans des
contextes plus industriels, notamment en métallurgie où l’observation au microscope optique
sous lumière polarisée permet de mieux distinguer la structure de l’élément. D’autres
applications, moins spécifiques, sont également envisageables comme celle que nous avons
développé en collaboration avec l’Ecole National de Ski et d’Alpinisme. L’E.N.S.A.
s’intéresse à l’analyse de la trajectoire de grimpeurs. Des expérimentations ont été faites au
cours desquelles des grimpeurs ont été filmés évoluant dans une pénombre partielle, leur centre
de gravité étant matérialisé par une lampe attachée dans le dos. L’objectif de notre travail,
présenté dans [CAR 93b], a été de valider l’utilisation d’un macaron de couleur permettant la
localisation et le suivi du grimpeur dans le but de s’affranchir des contraintes d’éclairage.
Page 150
Conclusion
Plus généralement, maintenant que la faisabilité d’une coopération T, L, S a été prouvée sur
des techniques de segmentation simples, il serait intéressant d’envisager l’application de cette
coopération à des techniques plus sophistiquées (séparation/fusion, analyse
d’histogrammes,...) en utilisant, par exemple, des symboles pour caractériser non plus des
différences entre pixels, mais des distances entre régions.
Page 151
Conclusion
Page 152
ANNEXE A
Bruits vectoriels
Page 153
ANNEXE A - Bruits vectoriels
Pour pouvoir évaluer quantitativement les performances des opérateurs proposés vis-à- vis
du bruit, il est nécessaire de savoir générer des bruits vectoriels additifs ayant une corrélation
inter-composante paramétrable et des densités de probabilité différentes.
Pour modéliser ceci, nous pouvons décomposer le bruit présent dans chaque composante
RVB en la somme d’un bruit indépendant BI et d’un bruit corrélé BC. Un coefficient noté “c”,
identique pour des raisons de simplicité entre les trois plans R,V et B, va alors permettre
d’envisager des corrélations différentes entre les composantes. Les bruits altérant les trois
composantes Rouge, Verte et Bleue de l’image couleur, notées BR, BV, et BB ont alors comme
expression:
C I
BR = c ⋅ B + ( 1 – c ) ⋅ BR
B = c ⋅ B C + ( 1 – c ) ⋅ B I (Eq. A.1)
V V
C I
BB = c ⋅ B + ( 1 – c ) ⋅ BB
Le coefficient réel “c” est compris entre 0 et 1. Lorsqu’il aura la valeur 0, le bruit généré
dans l’image sera composé uniquement du bruit indépendant. A l’inverse, lorsqu’il vaudra 1, le
bruit sera totalement corrélé entre les différentes composantes R, V, et B de l’images. Les
valeurs intermédiaires du coefficient “c” permettront la prise en considération de bruits plus ou
moins corrélés.
La synthèse de bruits blancs gaussiens ne pose pas de problème car il existe en effet
plusieurs techniques bien connues permettant la génération d’un tel bruit. A partir des bruits
gaussiens corrélés, il est alors possible d’engendrer des bruits vectoriels de loi quelconque
(notamment exponentielle ou uniforme) en effectuant une spécification d’histogramme pour
remplacer le bruit gaussien en un bruit de loi conforme à la loi désirée.
Alshatti a montré dans [ALS 94] que si l’on suppose que les bruits indépendants et le bruit
2
commun ont même variance σ 0 on obtient bien évidemment des variances identiques pour les
bruits sur les composantes R,V et B:
2 2 2 2 2
σ R = σ V = σ V = ( 1 – 2c + 2c ) ⋅ σ 0 (Eq. A.2)
Page 155
ANNEXE A - Bruits vectoriels
Avec ces hypothèses, le coefficient de corrélation entre les bruits a alors pour expression:
2
c
ρ = -----------------------------2 (Eq. A.3)
1 – 2c + 2c
1
0.9
0.8
0.7
ρ 0.6
0.5
0.4
0.3
0.2
0.1
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
paramètre «c»
Figure A.1: Evolution du coefficient de corrélation en fonction du paramètre “c”
2
1.3 - Relation entre la variance du bruit vectoriel et la variance initial σ 0
2
En définissant la variance du bruit vectoriel couleur σ couleur comme la somme des
variances de chacun des plans, on obtient:
2 2 2
σ couleur = 3σ 0 ( 1 – 2c + 2c ) (Eq. A.4)
On constate, avec notre démarche, que la variance globale va dépendre du coefficient “c”,
c’est-à-dire de la corrélation entre les composantes du bruit. En particulier pour:
Page 156
ANNEXE A - Bruits vectoriels
3
2.5
2
2
σ couleur 1.5
1
0.5
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
paramètre “c”
2 2
Figure A.2: Evolution de σ couleur en fonction du paramètre “c” pour σ 0 = 1
2
ρ– ρ–ρ
c = ---------------------------- (Eq. A.5)
2ρ – 1
La variance du bruit vectoriel couleur devient alors en reprenant l’équation A.4:
2
2 2 1–2 ρ–ρ
σ couleur = 3σ 0 -------------------------------
2ρ – 1
2
Si comme précédemment on trace l’évolution de cette variance pour une variance σ 0
unitaire, on obtient la courbe ci-dessous:
3
2.5
2
2
σ couleur 1.5
1
0.5
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
coefficient de corrélation ρ
2 2
Figure A.3: Evolution de σ couleur en fonction de ρ pour σ 0 = 1
Le rapport signal sur bruit (RSB) est défini pour une image en niveaux de gris (NG) par:
2
h
RSB NG = -----2- (Eq. A.6)
σ
où h est l’amplitude de la transition, s est l’écart type du bruit. Pour une image couleur, ce
rapport à pour expression (avec hR, hV et hB les amplitudes des échelons en R, V et B):
2 2 2 2 2 2
hR + hV + hB hR + hV + hB
RSB Coul = ----------------------------------------
2 2
-
2
= --------------------------------------
2
- (Eq. A.7)
σR + σV + σB σ Coul
Page 157
ANNEXE A - Bruits vectoriels
La Luminance est obtenue par la moyenne des trois composantes R,V et B. La composante
Luminance bruitée Lb s’exprime avec les notations précédentes par la formule suivante:
Rb + Vb + Bb R+V+B C 1–c I I I
- = ------------------------- + c ⋅ B + ----------- ⋅ ( B R + B V + B B )
L b = ------------------------------- (Eq. A.8)
3 3 3
2 2
σ Lb = E [ ( Lb – Lb ) ] (Eq. A.9)
Or les bruits étant par hypothèse non biaisés, la valeur moyenne de la Luminance est égale à
la composante Luminance non bruitée. Ainsi, la variance de la Luminance bruitée va
s’exprimer en fonction du paramètre “c” par:
2
2 2 2 (1 – c) 2 2 2
σ Lb = c ⋅σ B
C + ------------------- ⋅ ( σ BIR + σ BIV + σ BIB ) (Eq. A.10)
9
2 2 2 2
avec σ B
C la variance du bruit commun et σ BR ,
I σ I
BV et σ I
BB les variances des bruits
indépendants.
2
Dans le cas où les variances des bruits indépendants sont identiques (noté σ B
I ), on obtient:
2
2 2 2 (1 – c) 2
σ Lb = c ⋅σ B
C + ------------------- ⋅ σ BI (Eq. A.11)
3
En prenant comme hypothèse supplémentaire que la variance du bruit commun et la
2
variance du bruit indépendant sont identiques ( σ 0 ), il est possible de déterminer la formule
théorique reliant la variance de la composante Luminance bruitée et la variance du bruit sur les
composantes R,V et B en fonction du paramètre “c”. On a:
2 1 2 2
σ Lb = --- ⋅ ( 4c – 2c + 1 )σ 0 (Eq. A.12)
3
Page 158
ANNEXE A - Bruits vectoriels
2 2
Puis à l’aide de l’équation A.4 on en déduit la relation entre σ Lb et σ couleur en fonction
du paramètre “c”:
2
2 1 ( 4c – 2c + 1 ) 2
σ Lb = --- ⋅ ---------------------------------
-σ couleur (Eq. A.13)
3 ( 2c 2 – 2c + 1 )
Avec ces hypothèses, cette relation peut alors s’exprimer en fonction de la corrélation entre
les composantes:
2 2
2 1 ( 2ρ – 4ρ ρ – ρ + 2 ρ – ρ + 1 ) 2
σ Lb = --- ⋅ -----------------------------------------------------------------------------------σ couleur (Eq. A.14)
3
2
(1 – 2 ρ – ρ )
Dans le cas d’un bruit additif totalement corrélé entre les composantes R,V et B, on a
constaté un rejet total de la perturbation sur la composante Saturation. On peut vérifier ce
résultat de manière théorique en calculant la composante Saturation bruitée On utilise pour
cela les définitions des composantes R,V, et B bruitées (Rb, Vb, et Bb) définis dans les
équations A.1, avec un paramètre “c” égal à 1.
En reprenant la définition de la Saturation dans cette base (cf. Eq. I.12 et Eq. I.14), cette
composante peut s’exprimer, en fonction des composantes R, V et B, de la manière suivante:
R – V +B 2 3
-------------- + --- ( V – B )
2
S = (Eq. A.15)
2 4
De la même manière que pour la composante Saturation, on a constaté que dans le cas d’un
bruit additif totalement corrélé entre les composantes R,V et B, il y a un rejet total de la
perturbation sur la composante Teinte. Kender avait déjà mis en évidence les deux identités
suivantes:
Page 159
ANNEXE A - Bruits vectoriels
C’est cette dernière identité qui est vérifiée dans le cas d’un bruit additif totalement corrélé.
En reprenant la définition de la Teinte dans cette base, cette composante peut s’exprimer (à
2π près) en fonction des composantes R, V et B, de la manière suivante:
Nous avons vu précédemment que, dans le cas d’un bruit totalement corrélé, la composante
Saturation rejetait ce type de bruit. Le bruit sur la composante Teinte sera alors celui apporté
par le numérateur. Or au numérateur on effectue la différence entraînant une compensation du
bruit commun aux trois composantes, d’où un rejet total de ce type de bruit.
Page 160
ANNEXE B
Définitions et algorithmes
Page 161
ANNEXE B - Définitions et algorithmes
Rouge
Magenta 0 Jaune
213 42
170 85
Bleu Vert
128
Cyan
Pour effectuer le calcul de la Teinte moyenne pour un nombre N de pixels, une solution
consiste à effectuer, pour les valeurs de Teinte encadrant l’origine (valeurs numériques de
Teinte comprises entre 0 et 64 ou 192 et 256), un décalage de 128 modulo 256 avant
d’effectuer l’addition.
Lorsque toutes les additions sont réalisées, on annule les décalages effectués en soustrayant
à cette somme le produit du nombre de décalage réalisé par 128. La Teinte moyenne
correspond alors à la valeur moyenne modulo 256.
Ainsi, par exemple, des valeurs 250 et 2, qui ont une moyenne arithmétique de 126, donnent
une moyenne circulaire de 254. En effet, la somme décalée par 128 modulo 256 de ces deux
valeurs est de 252. En annulant les décalages par une soustraction de 2 x 128 on obtient une
somme corrigée de -4. Pour obtenir la moyenne circulaire, il reste à prendre le modulo par 256
du quotient entre la somme corrigée et le nombre de point traité, donnant alors dans notre
exemple -2 modulo 256 soit 254.
Page 163
ANNEXE B - Définitions et algorithmes
250 2 254
0 0
128 128
130 122 126
Figure B.2: Détail du calcul de la moyenne circulaire pour les valeurs proches de zéro
La formule générale de la moyenne circulaire de la Teinte (notée T )est ainsi donné par la
formule suivante:
N
1
T = ---- ⋅ ∑ [ ( T i + k i )modulo 256 ] – d ⋅ 128 modulo 256 (Eq. B.1)
N
i=1
dans laquelle ki est un décalage qui dépend de la valeur numérique de la Teinte. Il prend la
valeur 0 si Ti est compris entre 64 et 192 sinon il est égal à 128. Le paramètre d correspond au
nombre de fois ou le décalage est égal à 128, c’est-à-dire au nombre de décalages réalisés lors
du calcul de la somme.
Pour effectuer le calcul de la variance, il nous faut définir une mesure de différence sur la
composante Teinte prenant en compte la cyclicité du codage. Ainsi, les valeurs 250 et 2 de
l’exemple précédent doivent avoir une différence absolue de 8 et non de 248. Ce problème ce
résout facilement en prenant la différence modulo 256. Cette différence entre deux Teinte T1 et
T2 sera notée par T1 - T2256 dans tout le document. La variance circulaire de la Teinte (notée
2
σ T ) est ainsi définie par la formule suivante:
N
1
∑(
2 2
σT = ------------- ⋅ Ti – T 256 ) (Eq. B.2)
N–1
i=1
Page 164
ANNEXE B - Définitions et algorithmes
Ce paramètre appelé Pseudo-Centroïd a été présentée dans [TAO 93] pour déterminer la
valeur du seuil à appliquer à une image gradient pour obtenir l’image des contours. Si cette
méthode ne donne pas, de manière systématique, une valeur optimale, elle a l’avantage de
fournir une valeur liée aux caractéristiques de l’image gradient sans nécessiter le choix d’un
paramètre de réglage. Deux étapes sont nécessaires pour déterminer le Pseudo-Centroïd.
On se place dans le cas d’un codage des niveaux de gris sur 256 niveaux (codage sur 8 bits
de 0 à 255).
Le facteur de turbulence (noté FT) est calculé en comptant le nombre de pixels ayant une
zone turbulente (noté ZT) autour d’eux que l’on divise ensuite par le nombre total de pixels de
l’image (noté N). On a ainsi:
1
FT = ----
N ∑ ZT (Eq. B.3)
∑ q ⋅ H ISTO [ q ]
q=1
PC = ---------------------------------------------------------------------------------------------------
8
- (Eq. B.4)
HISTO [ 0 ] ( 1 – FT ) + ( N – HISTO [ 0 ] )
Une des techniques les plus élaborées pour l’élimination des petites régions résultant de la
segmentation des images est celle construisant un graphe d’adjacence des régions [MON 87].
L’inconvénient de cette technique est qu’elle est relativement complexe et coûteuse en temps
de calcul.
Comme dans notre application se sont des régions de très petites tailles (3 à 13 pixels
maximum) que nous cherchons à fusionner, nous avons choisie d’appliquer un algorithme de
suppression locale des petites régions utilisant le masque de la figure B.3. Il est beaucoup
moins coûteux en temps de calcul, mais sensible au sens de parcours de l’image.
Page 165
ANNEXE B - Définitions et algorithmes
x-1 x x+1
y-1 H
masque de taille 3x3
y D X G appliqué au pixel de
coordonné x,y
y+1 B
L’algorithme se décompose en deux étapes. Dans un premier temps on calcule pour toutes
les régions de l’image les caractéristiques suivantes:
étape 1:
étape 2:
on parcourt l’image des étiquettes des régions de haut en bas et de gauche à droite
et
Si le pixel courant (X) appartient à une région (notée RX) telle que
DR <= Dmin alors
Page 166
ANNEXE B - Définitions et algorithmes
Dans cet algorithme on n’effectue pas de modification des caractéristiques des régions après
une fusion comme c’est le cas en utilisant un graphe d’adjacence, ceci dans le but de ne pas
obtenir un nombre trop important de régions dont la surface est égale à la surface minimum
demandée. En conséquence, pour ne pas introduire d’erreur trop importante, cet algorithme ne
doit pas être utilisé pour éliminer des régions de dimension trop importante.
Pour construire cet indice, nous avons utilisé le principe élaboré pour la construction d’un
opérateur gradient marginal (§ 2 du chapitre II).
Le principe de calcul de cette indice d’écart colorimétrique (noté IC) repose sur une fusion
numérique des écarts de Luminance de Saturation et de Teinte. Cet indice devant tenir compte,
bien évidemment, de la pertinence de l’écart de Teinte.
Cet indice, entre la région RX et la région RH par exemple, est évalué par la formule
suivante:
dans laquelle
TX – TH 255 représente la différence absolue modulo 255 entre les Teintes et
Page 167
ANNEXE B - Définitions et algorithmes
Page 168
ANNEXE C
Page 169
ANNEXE C - Quelques notions de base relatives à la théorie des sous-ensembles flous
1 - Introduction
Il s’agit dans cette annexe d’exposer quelques résultats fondamentaux de la théorie des
sous-ensembles flous présentée par Zadeh en 1965 [ZAD 65]. On peut également se référer à
l’ouvrage de Kaufman [KAU 73] ou plus récemment à celui de B. Bouchon-Meunier
[BOU 93] ou encore au rapport de synthèse du groupe “Logique Floue” organisé par
l’Observatoire Français des Techniques Avancées (OFTA) [OFT 94].
Cette présentation n’a pas la prétention d’être exhaustive mais elle définit les notions
élémentaires à la présentation théorique des classifieurs flous utilisés dans ce mémoire. Le
lecteur familier du contrôle flou notera que la structure de ces classifieurs est similaire à celle
utilisée pour les contrôleurs flous. On retrouve une étape de conversion numérique-symbolique
(fuzzification) et un mécanisme d’inférence floue à base de règles. Dans le cas d’un contrôleur
flou, une étape supplémentaire de conversion symbolique-numérique (défuzzification) est
nécessaire pour élaborer la grandeur de sortie qui sera la commande à appliquer au système.
Un sous-ensemble net (ou partie) A d’un ensemble de référence E est défini par une
application XA, appelée fonction caractéristique telle que:
XA: E → {0,1}
x → XA(x) = 1 si x ∈ A
0 si x ∉ A
En conséquence, XA(x) ne peut prendre que les valeurs 0 ou 1.
Un sous-ensemble flou (ou partie floue) A d’un ensemble de référence E est défini par une
application µA, appelée fonction d’appartenance définie par:
µA: E → [0,1]
x → µA(x)
Au contraire des ensembles nets, la fonction d’appartenance peut prendre ces valeurs dans
l’intervalle [0,1], permettant ainsi d’introduire une notion de gradualité dans l’appartenance
d’un élément à un ensemble.
âge
0 15 50 120
Page 171
ANNEXE C - Quelques notions de base relatives à la théorie des sous-ensembles flous
Dans cet exemple, l’ensemble de référence E est l’âge définissant un univers de discours
numérique, continu et borné [0,120]. Le sous-ensemble flou A est celui des personnes jeunes.
Il est mathématiquement défini par la fonction d’appartenance µA = µjeunes. Cette fonction
d’appartenance appliquée à un élément x ∈ E, retourne un degré d’appartenance µA (x) de x
à A. µA (x) = 1 et µA (x) = 0 correspondent respectivement à l’appartenance et la
non-appartenance de x à A.
Le sous-ensemble flou A est un sous-ensemble net de E dans le cas particulier où µA ne
prend que des valeurs égales à 0 ou 1. Les sous-ensembles nets ne sont donc que des cas
particuliers des sous-ensembles flous.
Le terme “jeunes” correspond à un terme linguistique, appelé symbole, associé à
l’ensemble E.
Les opérateurs de la logique floue sont liés aux opérateurs ensemblistes. On retrouve ainsi
des opérations complémentaire (négation), d’intersection (conjonction), d’union (disjonction)
et d’inclusion (implication).
L’opérateur doit être involutif, décroissant et vérifier les propriétés aux bornes. On utilise
classiquement la négation forte:
❏ n(u) = 1- u (Eq. C.1)
C’est une application notée T: [0,1]x[0,1] → [0,1]. Cet opérateur doit avoir les propriétés
suivantes: commutativité, associativité, 1 comme élément neutre, 0 comme élément absorbant,
non décroissance par rapport à chacun de ses arguments.
Il existe une famille d’opérateurs, les normes triangulaires (t-normes) qui satisfont ces
propriétés. Les principales t-normes sont:
❏ T1(u,v) = Min(u,v) (c’est la plus grande des t-normes) (Eq. C.2)
❏ T4(1,v) = v (appelée produit drastique, c’est la plus petite des t-normes) (Eq. C.5)
T4(u,1) = u
T4(u,v) = 0 sinon
C’est une application notée ⊥ : [0,1]x[0,1] → [0,1]. Cet opérateur doit avoir les propriétés
suivantes: commutativité, associativité, 0 comme élément neutre, 1 comme élément absorbant,
non décroissance par rapport à chacun de ses arguments.
Page 172
ANNEXE C - Quelques notions de base relatives à la théorie des sous-ensembles flous
Il existe une famille d’opérateurs, les co-normes triangulaires (t-conormes) qui satisfont
ces propriétés. Les principales t-conormes sont:
❏ ⊥ 1 (u,v) = Max(u,v) (c’est la plus petite des t-conormes) (Eq. C.6)
❏ ⊥ 4 (0,v) = v (appelée somme drastique, c’est la plus grande des t-conormes) (Eq. C.9)
⊥ 4 (u,0) = u
⊥ 4 (u,v) = 1 sinon
4 - Fuzzification symbolique
Le sens des symboles linguistiques est relié au domaine numérique à l’aide d’une
application M qui est généralement un intervalle flou. Cette information est appelée la
signification floue (fuzzy meaning) du symbole et sera caractérisée pour tout x ∈ E par sa
fonction d’appartenance.
M: L(E) ➙ F(E)
µME (L)( x )
La figure C.1 fournit un exemple des significations floues pour chacun des symboles d’un
ensemble:
L(E)={froide, bonne, chaude}.
degrés d’appartenance
0 x1 24 x2 37 50 x en ˚C
Page 173
ANNEXE C - Quelques notions de base relatives à la théorie des sous-ensembles flous
Les significations floues peuvent maintenant être utilisées pour construire la représentation
symbolique de la mesure, appelée la description floue (fuzzy description) de la mesure qui
peut être abordée de plusieurs manières. Une solution possible consiste à considérer qu’un
symbole appartient avec un certain degré à la description floue de la mesure si cette mesure
appartient, au même degré, à la signification floue du symbole. Une autre manière d’exprimer
ceci consiste à dire que la description floue représente, pour chaque symbole, le degré de
possibilité que la mesure soit caractérisée par ce symbole. On note D cette application qui est
caractérisée pour tout symbole L ∈ L(E) par:
D: E ➙ F(L(E))
µ DL (E ) ( x ) ( L )
La figure C.2 représente les descriptions floues des mesures x1 = 20˚ C et x2 = 35˚ C
obtenue à partir des significations floues de la figure C.1.
1
0,77
X1 ∈ F(L(E)) = {froide}
X2 ∈ F(L(E)) = {froide, bonne}
0,23
0
froide bonne chaude
Cette relation traduit le fait que si un symbole appartient à la description de la mesure avec
un niveau d’appartenance µ DL ( E ) ( x ) ( L ) , alors la mesure appartient à la signification de ce
symbole avec le même niveau d’appartenance.
L(E) D(x1) E
froide ❏
M (froide) .x1
M (bonne)
.x2
bonne ❏
chaude ❏ D(x2)
Page 174
ANNEXE C - Quelques notions de base relatives à la théorie des sous-ensembles flous
5 - Inférence
L’inférence transforme, à l’aide d’un jeu de règles, la partie floue issue de la fuzzification
symbolique en une nouvelle partie floue. Cette partie floue issue de l’inférence peut être soit
une partie floue de l’ensemble de sortie (noté U), soit une partie floue de l’ensemble des
symboles linguistiques utilisés dans les conclusions des règles, c’est-à-dire un élément de
F(L(U)). Toutes les inférences réalisées dans ce document sont de ce second type.
où le graphe Γ est un graphe net ou un graphe flou défini sur le produit cartésien des
ensembles de symboles L(E)xL(U).
Dans le cas où le graphe est construit à partir d’une implication floue, ce principe de
combinaison-projection est appelée Modus Ponens généralisé.
Dans le cas où les sous-ensembles flous sont finis, la borne supérieure peut alors être
remplacée par la t-conorme “Max”. Cette t-conorme étant la plus petite des t-conormes, la
borne supérieure peut en fait être remplacée par n’importe quelle t-conorme. L’expression du
degré d’appartenance de tout élément à la partie floue inférée est alors:
µQ(L’) = ⊥ L ∈ L(E) T (µP(L), µΓ(L, L’)) (Eq. C.13)
On peut distinguer deux types de règles selon que la conclusion est numérique ou qu’elle est
symbolique. Nous nous contenterons de présenter la conclusion symbolique qui nous intéresse
tout particulièrement dans ce document.
Cette vision du jeu de règle dans laquelle les prémisses et les conclusions sont symboliques
est certainement la plus simple. Elle conduit à l’écriture suivante du jeu de règles:
Si A est Ai alors B est Bj ⇔ Si A = Ai alors B = Bi
Le jeu de règles est caractérisé par une relation nette ou floue entre les éléments L(E) et
ceux de L(U). Le graphe net ou flou associé à cette relation s’obtient directement à partir du
jeu de règles.
Page 175
ANNEXE C - Quelques notions de base relatives à la théorie des sous-ensembles flous
Exemple 1: Soient deux ensembles de symboles tels que L(E)={froide, bonne, chaude} et
L(U)={gauche, centre, droite} et le jeu de règles suivant:
Si l’eau est froide alors tourner le mitigeur à gauche,
Si l’eau est bonne alors tourner le mitigeur au centre,
Si l’eau est chaude alors tourner le mitigeur à droite.
Exemple 2: on part des mêmes ensembles de symboles et du jeu de règles suivant:
Si l’eau est froide alors tourner le mitigeur à gauche à 0,8,
Si l’eau est bonne alors tourner le mitigeur au centre à 0,4,
Si l’eau est chaude alors tourner le mitigeur à droite à 0,5,
Si l’eau est chaude alors tourner le mitigeur au centre à 0,2.
Dans ce second exemple, un coefficient a été ajouté pour traduire la confiance que l’expert a
dans la règle. Il va servir à pondérer la “force” de la relation entre les symboles.
Les graphes associés à ces jeux de règles sont construits sur le produit cartésien des
ensembles L(E) et L(U), dont les éléments seront respectivement notés L et L’. Ainsi, le
premier jeu de règles sera représenté par un graphe net (c.à.d. µΓ(L, L’) ∈ {0,1}), et le second
par un graphe flou.
L’ ∈ L(U)
µΓ(L, L’) gauche centre droite
froide 1 0 0
L ∈ L(E) bonne 0 1 0
chaude 0 0 1
L’ ∈ L(U)
µΓ(L, L’) gauche centre droite
froide 0,8 0 0
L ∈ L(E) bonne 0 0,4 0
Page 176
ANNEXE D
Page 177
ANNEXE D - Synoptique des traitements réalisés en fusion symbolique
1 - Approche par inférence de l’opérateur flou de détection de contours pour les images
monochromatiques
Le synoptique du traitement que l’on cherche à effectuer sur le pixel “x” d’une image “X”
est le détaillé en figure D.1.
δz_h L1 (∆Z_H) L4 (Z_H)
.1 D1 .
petite
T1’ L2 (∆Z_H)
R1
.
2 D1
.
petite
.
homogène
L3 (∆Z_H)
P1 (X) D1
X T1’ .
3
.
petite L1 (PC_M)
T1’ R3
PCP_R1
T1
T1’’
δz_t L1 (∆Z_T) L4 (Z_T) .
.1
D2
.
grande
T1’’
L2 (∆Z_T)
R2 L (PC)
.
2 D2
.
grande
.
transition
T1’’
L3 (∆Z_T) R4
.
x
.3 D2
.
grande
.
PCP
Tn
Pn (X)
Ln (PC_M)
PCP_Rn
.
Page 179
ANNEXE D - Synoptique des traitements réalisés en fusion symbolique
❏ T1 à Tn: X ➙ P(X)
Traitement numérique sur le pixel “x” de l’image “X” consistant à définir les
différents masques utilisés ainsi que les zones de transition et les zones
homogènes.
Page 180
ANNEXE D - Synoptique des traitements réalisés en fusion symbolique
T T µ D ( L ), µ Γ ( L, L , L , L )
′′′ ′ ″ ′ ″ ′′′
µF ( L ) = ⊥ ( L ), µ D ( L ), µ D
′ ′′
( L, L , L ) L 1 ( ∆Z_H ) ( δz_h ) L 2 ( ∆Z_H ) ( δz_h ) L 3 ( ∆Z_H ) ( δz_h ) 1
et de même avec le jeu de règles sur la zone de transition (cf. ANNEXE C).
D L ( PC_M ) ( x ) =
R 3 { R 1 ( D L 1 ( ∆Z_H ) ( x ), D L 2 ( ∆Z_H ) ( x ), D L 3 ( ∆Z_H ) ( x ) ),
R 2 ( D L 1 ( ∆Z_T ) ( x ), D L 2 ( ∆Z_T ) ( x ), D L 3 ( ∆Z_T ) ( x ) ) }
D L ( PC ) ( x ) = R 4 { D L ( x ), ..., D L (x)} .
1 ( PC_M ) n ( PC_M )
∀ L ∈ L(PC), µ M X ( L ) ( x ) = µ D (x)( L )
L ( PC )
On peut ainsi calculer directement le degré d’appartenance à un symbole final à partir des
valeurs numériques de l’entrée.
L’ensemble de ces traitements sera symbolisé par la suite par le schéma suivant:
x L (PC)
Page 181
ANNEXE D - Synoptique des traitements réalisés en fusion symbolique
X L (PCP_I) L (PCP_TLS)
T DL(PCP_I) (x) .
PCP_1
R2
S
L
.
PCP_2
.
PCP_TLS
x
L L (X) .
PCP_3
.
PCP_L
R1
L S (X)
Prise en
compte de la
pertinence de la
.
PCP_S
Teinte
L T (X)
.
PCP_T
A partir des trois plans TLS de l’image, on applique, dans un premier temps, l’opérateur
monochromatique précédent. Pour la Teinte,la prise en compte de sa pertinence variable
s’effectue avant l’application de l’algorithme monochromatique. On obtient alors trois sous-
ensembles flous de symboles (LS (X), LL (X) et LT (X)) caractérisant le potentiel contour d’un
pixel dans chaque composante T, L et S. Un jeu de règles (R 1) permet, par une combinaison à
l’aide d’opérateurs logiques, de générer un sous-ensemble flou de symboles, L (PCP_I),
caractérisant le type de potentiel contour du pixel dans un espace tridimensionnel, c’est-à-dire
si le fait que le pixel soit potentiellement un point de contours dans une, deux, ou trois
composantes. Un second jeu de règles (R 2) caractérisé par une relation floue entre les
symboles, génère par inférence un sous-ensemble flou final, L (PCP_TLS), caractérisant le
potentiel contour couleur du pixel. L’introduction de “poids” sur les règles permet de
privilégier un type de potentiel contour vis-à-vis d’un autre.
Page 182
ANNEXE D - Synoptique des traitements réalisés en fusion symbolique
Les différents univers de discours utilisés pour réaliser la segmentation floue sont définis de
la manière suivante:
.
moyenne
.
grande
∆L L (∆L)
X
δl DL(∆L) (δl)
.
petite Q
. .
moyenne
DM (s1, s2) .
grande
G
T
H L
H S
R2 .
homogène
G
G
H S L (S1) M
.
gris
.
hétérogène
.
s1 DL(S) (s1)
.
pastel faible
.
LUM
.
pastel fort
.
LUM_Tei
.
pure
R1 .
LUM_TEI
L (S2)
.
gris
.
Lum_TEI
s2
. DL(S) (s2)
.
pastel faible .
TEI
.
pastel fort
.
SEP
.
pure
Page 183
ANNEXE D - Synoptique des traitements réalisés en fusion symbolique
Le jeu de règles R 1, caractérisé par une relation floue entre les symboles, permet à partir de
deux sous-ensembles flous caractérisant la Saturation de générer, par inférence, un sous-
ensemble flou de symboles caractérisant une méthode de coopération entre les composantes
Teinte et Luminance. En suivant le même principe qu’au § 1, on peut déterminer directement la
description floue des méthodes de coopération en fonction des valeurs numériques de la
Saturation, soit DM (s1, s2).
Le jeu de règles R 2, également caractérisé par une relation floue entre les symboles, permet
d’inférer un sous-ensemble flou caractérisant l’homogénéité entre deux pixels. Cette
information floue va nous servir à déterminer si les deux pixels doivent être agrégés ou non. On
peut également déterminer la relation directe entre les diverses informations numériques et le
sous-ensemble flou de symboles final Q.
Page 184
ANNEXE E
Images couleur
Page 185
ANNEXE E - Images couleur
Page 187
ANNEXE E - Images couleur
Page 188
ANNEXE E - Images couleur
Page 189
ANNEXE E - Images couleur
Page 190
BIBLIOGRAPHIE
Page 189
BIBLIOGRAPHIE
[ALS 93a]
W. ALSHATTI, P. LAMBERT, “Using eigenvectors of a vector field for deriving a
second directional derivative operator for color images’’, 5Th International conference
CAIP’93 - Budapest Sept. 1993.
[ALS 93b]
W. ALSHATTI, P. LAMBERT, “Un opérateur optimal pour la détection de contours
dans des images couleur”, 14ième GRETSI, Juan-les-Pins (France), 1993, pp. 679-682.
[ALS 94]
W. ALSHATTI, “Approches vectorielles du filtrage et de la détection de contours dans
des images multi-spectrales”, Thése Université de Savoie, 1994.
[BAL 82]
D.H. BALLARD, C.M. BROWN, “Computer vision”, Prentice Hall, 1982, pp 31-35.
[BEV 89]
J.R. BEVERIDGE, J. GRIFFITH, R.R. KOHLER, A.R. HANSON AND
E.M. RISEMAN, “Segmenting Images Using Localized Histograms and Region
Merging”, International Journal of Computer Vision, 2, 1989, pp. 311-347.
[BEN 94]
BENOIT E., G. MAURIS, L. FOULLOY, "Fuzzy sensor aggregation: application to
comfort measurement", Proc. of Int. Conf. IPMU, 4-8 July, Paris, France, 1994,
pp 721-726.
[BEZ 81]
J.C. BEZDECK, “Pattern recognition with fuzzy objective function algortims”, Plenum
Press Ed., New-York, 1981.
[BEZ 92]
J.C. BEZDEK, S.K. PAL, “Fuzzy models for pattern recognition”, IEEE Press, 1992.
[BLO 93]
I. BLOCH, H. MAÎTRE, “Constructing a fuzzy mathematical morphology: Alternative
ways“, Second International Conference on Fuzzy Systems, FUZZ-IEEE93, San
Diego, March, 1993, pp.1303-1308.
[BOM 92]
V. BOMBARDIER, E. LEVRAT, “Détection de contours par classification floue”, Acte
des 2emes journees nationales sur les applications des ensembles flous, Nimes,1992
[BON 91]
P. BONNIN, “Méthode systématique de conception et de réalisation d’applications en
vision par ordinateur“, Thése Université de Paris VII, 1991.
Page 191
BIBLIOGRAPHIE
[BOU 93]
B. BOUCHON-MEUNIER, “Que sais-je? La logique floue”, Presses Universitaires
de France, 1993.
[CAR 93a]
T. CARRON, P. LAMBERT, P. MOREL, “Analyse d’une segmentation en régions
utilisant conjoitement les informations de chrominance et d’intensité”, Quatorzième
Colloque GRETSI, Juan-Les-Pins (France),1993, pp. 719-722.
[CAR 93b]
T.CARRON, P. LAMBERT, “Recherche de la trajectoire d’un grimpeur par utilisation
d’une technique de segmentation d’image couleur”, Rapport Interne LAMII 93-6,
1993.
[CAR 94]
T. CARRON, P. LAMBERT, “Color edge detector using jointly Hue, Saturation and
Intensity”, ICIP 94, Austin, USA, 1994, pp. 977-981.
[CAR 95a]
T. CARRON, P. LAMBERT, “Fuzzy color edge extraction by inference rules,
Quantitative study and evaluation of performances”, ICIP 95, Washington, USA, 1995,
pp. -.
[CAR 95b]
T. CARRON, P. LAMBERT, S. GALICHET, “ A colour region growing segmentation
with fuzzy aggregation“, EUFIT’95, Aachen, Germany, 1995, pp. 1366-1372 .
[CEL 86a]
M. CELENK, S.H. SMITH, “Gross segmentation of color images of natural scenes for
computer vision systems”, SPIE Vol. 635 Applications of Artificial Inteligence III,
1986, pp. 333-344.
[CEL 86b]
M. CELENK, S.H. SMITH, “Color Image Segmentation by Clustering and Parametric-
Histogramming Technique”, Proc. Eight int. Conf. Pattern Recognition, 1986,
pp. 883-886.
[CEL 88]
M. CELENK, “A Recursive Clustering Technique for Color Picture Segmentation” ,
IEEE , 1988, pp. 437-444.
[CHA 84]
J.M. CHASSERY, C. GARBAY, “An iterative segmentation method based on a
contextual color and shape criterion”, IEEE Transactions on Pattern Analysis and
Machine Intelligence, Vol. PAMI-6, NO. 6,1984, pp. 794-800.
[CHA 91]
M.CHAPRON, P COQUEREZ, ‘‘La segmentation d’images couleur à partir d’un
nouveau détecteur de contours’’, 13e colloque GRETSI, Juan-les-Pins (France), Sept
1991, pp 1089-1093.
Page 192
BIBLIOGRAPHIE
[CHA 93]
M.M. CHANG, A.J. PATTI, M.I. SEZAN, A.M. TEKALP, “Segmentation of color
images using an adaptative bayesian approche”, Proc. of the IEEE 8th Workshop on
Image and Multidimensional Signal Processing, Cannes (France), 1993, pp. 186-187.
[CHE 95]
K.F. CHEUNG, W.K. CHAN, “Fuzzy One-Mean Algorithm on Edge Detection“, Fird
International Conference on Fuzzy Systems, FUZZ-IEEE95, San Diego, 1995, pp.
2039-2044.
[CIE 86]
“CIE Colorimetry, second edition”, Official recommendations of the International
Commission on Illumination, Publication 15.2, 1986
[COC 95]
Ourage collectif coordonné par J.P. COCQUEREZ & S. PHILIPP, “Analyse
d’images: filtragte et segmentation”, Ed. Masson, 1995.
[COU 89]
V. COUTANCE, T.BARON ET M. BRIOT, ‘‘Segmentation d’images couleur en
robotique’’, RFIA, Nov. 1989, pp. 1115-1122.
[COU 91]
V. COUTANCE, “La Couleur en vision par ordinateur. Application à la robotique”,
Thèse Université Toulouse 3, 1991.
[CUM 91]
A. CUMANI, ‘‘Edge detection in multispectral images”, Graphical Models and Image
Processing, vol. 53, No. 1, Jan. 1991, pp. 40-51.
[DAI 89]
M. DAILY, “Color image segmentation using markov random field”, In Proc. IEEE
CVPR, 1989,pp. 304-312.
[DER 87]
R. DERICHE, ‘‘Détection optimale de contours avec une mise en oeuvre récursive,’’
GRETSI-NICE, Juin 1987, pp. 483-486.
[DER 90]
R. DERICHE, ‘‘Fast algorithms for low-level vision’’, IEEE PAMI, vol. 12, No. 1, Jan
1990.
[DUN 74]
J.C. DUNN, “A fuzzy relative of the Isodata process and its use in detecting compact
well-separated clusters”, Journal of Cybern., vol 3, pp. 32-57, 1974.
[FAE 84]
W. FAEDO, “Color vision: an initial study”, PhD Electrical Engineering, University of
Rhode Island, 1984.
[FAU 76]
O. D. FAUGERAS, «Digital color image processing and psychophysics within the
framework of a human visual model», PH. D. Dissertation, University of Utha, 1976.
Page 193
BIBLIOGRAPHIE
[FAU 79]
O. D. FAUGERAS, “Application des modèles de vision au traitement numérique des
images», Thèse de Doctorat d’Etat ès Sciences Mathématiques, Université de
Paris VI, 1979.
[FOU 94]
L. FOULLOY, “Typologie des contrôleurs flous”, OFTA-Logique Floue, pp. 80-107,
Ed. Masson, 1994.
[GAR 79]
C. GARBAY, “Modélisation de la couleur dans le cadre de l’analyse d’images et de son
application à la cytologie automatique”, Thèse Institut National Polytechnique de
Grenoble, 1979.
[GER 84]
R. GERSHON, “Survey on color: Aspect of perception and computation”, Technical
Report, Dept. of Comp. Sc., University of Toronto, 1984, RGBV-TR-84-4.
[GER 87]
R. GERSHON, “The use of color in computational vision”, Technical Report, Dept. of
Comp. Sc., University of Toronto, 1987, RBCV-TR-87-15.
[HON 74]
S.L. HOROWITZ, T. PAVLIDIS, “Picture segmentation by a directed split-and-merge
procedure”, In Proc. of the Second International Join Conference on Pattern Recognition,
1974, pp. 424-433.
[HUN 85]
T.L. HUNTSBERGER, M.F. DESCALZI, “Color edge detection”, Pattern
recognition Letters, 3, 1985, pp. 205-209.
[KAR 95]
R.KARA-FALAH, «Segmentation d’images: coopération, fusion, évaluation», Thèse
de l’Université de Savoie, 1995.
[KAU 73]
A. KAUFEMAN, “Introduction à la théorie des sous-ensembles flous”, Tome I, Edition
Masson, 1973.
[KEN 77]
J. KENDER, “Saturation, hue, and normalized color: calculation digitization effects and
use”, Master’s Thesis, Dep. of Comp. Sc., Carnegie-Mellon University, 1976.
[KRI 92]
R. KRISHNAPURAM, J.K. KELLER, “Fuzzy set theoretic approach to computer
vision: An overview“, First International Conference on Fuzzy Systems,
FUZZ-IEEE92, San Diego, March 8-12, 1992, pp.135-142.
[LAM 91]
P. LAMBERT, H. ROTIVAL, T. CARRON, Ph BOLON, “ Segmentation d’image
couleur par coopération Teinte Intensité”, 13iéme colloque GRETSI, Juan-les-Pins
(France), 1991, pp. 1157-1160.
Page 194
BIBLIOGRAPHIE
[LEE 91]
H. C. LEE, D. COK, ‘‘Detection boundaries in a vector field’’, IEEE Trans. Sig. Proc.,
vol. 39, No 5, May 1991
[LEM 94]
B.LEMARQUIS, A.BUBEL. V. BOMBARDIER, E. LEVRAT& J. BREMONT,
“Intégration de connaissances linguistiques pour un opérateur de détection de contours
par règles floues”, 4éme journees nationales sur les applications des ensembles
flous,Lille, France,1994, pp. 1993-201
[LEV 89]
E. LEVRAT, “Application de la théorie des ensembles flous en amélioration et
segmentation d’images monochromes”, Thèse Univesrité de Nancy I, 1989.
[LIA 87]
L. LIANG, “Contribution à la segmentation chromatique des images. Applications à
l’identification d’objets colorés”, Thèse Institut National Polytechnique de Toulouse,
1987.
[LIM 90]
Y.W. LIM, S.U. LEE, “On the color image segmentation algorithm based on the
thresholding and the fuzzy c-Means techniques”, Pattern Recognition, Vol. 23, No 9,
1990, pp. 935-952.
[LUO 91]
Q.T. LUONG, “La couleur en vision par ordinateur: une revue”, Traitement du Signal,
Vol 8, NO 1, 1991, pp. 3-34.
[MAI 90]
H. MAITRE, “ La segmentation des images”, Rap. Int. Departement Images Telecom
Paris , 1990, 90 IMA 003.
[MIY 90]
T. MIYAWAKI, S. ISHIBASHI, F. KISHINO, “A region segmentation methode using
color information”, Actes 1er coll. sur les chaînes professionnelles de l’image.
IMAGECOM 90, Bordeaux (France), Nov 1990.
[MOG 94]
A. MOGHADDAMZADEH, N. BOUBAKIS, “A fuzzy technique for image
segmentation of color images” , FUZZ-IEEE 94, Orlando, USA, 1994, pp 83-88.
[MON 87]
O. MONGA, B. WROBEL, Segmentation d’images: vers une méthodologie”,
Traitement du Signal, vol. 4, no 3, 1987, pp. 169-193.
[NEV 77]
R. NEVATIA, ‘‘A color edge detector and its use in scene segmentation’’, IEEE Trans.
Syst., Man,Cybern., vol. SMC-7, 1977, pp. 820-826.
[NOV 87]
C. L. NOVAK, S. A. SHAFER, ‘‘Color edge detection’, Proc. DARPA Image
Understanding Workshop, Los Angeles (USA). Los Altos, CA: Morgan Kaufmann
Publishers, Inc., 1987, pp. 35-37.
Page 195
BIBLIOGRAPHIE
[OFT 94]
Observatoire Francais des Techniques Avancées, “ARAGO 14: Logique Floue”, Ed.
Masson, 1994.
[OHL 75]
R. OHLANDER, “Analysis of natural scenes”, Departement of C.S., Carnergie-Mellon
University, Ph. D. Thesis, 1975.
[OHL 78]
R. OHLANDER, K. PRICE, D. R. REDDY, “Picture segmentation using a recursive
region segmentation”, Computer Graphics and Image Processing 8, 1978,
pp. 313-333.
[OHT 80]
Y. OHTA, T.KANADE, T. SAKAI, “Color information for region segmentation”,
Computer Graphic and Image Processing 13, 1980, pp. 222-241.
[PAL 92]
S.K. PAL, “Fuzzy sets in image processing and recognition“, First International
Conference on Fuzzy Systems, FUZZ-IEEE92, San Diego, March 8-12, 1992,
pp. 119-126.
[PIE 86]
N. PIETAKEN, “Edge information in color images based on histograms of differences”,
IEEE Int. Conf. Pattern Recognition, Paris, 1986, pp. 594- 596.
[PRA 78]
W.K. PRATT, “Digital image processing”, John Wiley & Sons, 1978.
[ROS 92]
A. ROSENFELD, “Fuzzy geometry: An overview“, First International Conference
on Fuzzy Systems, FUZZ-IEEE92, San Diego, March 8-12, 1992, pp.135-142.
[ROT 90]
H.ROTIVAL, “Utilisation de la couleur en imagerie: Application à la segmentation”,
Rapport Interne LAMII, 1990.
[RUS 94a]
F. RUSSO, G. RAMPONI, “Combined FIRE filters for image enhancement” ,
FUZZ-IEEE 94, Orlando, USA, 1994, pp 260-264.
[RUS 94b]
F. RUSSO, G. RAMPONI, “Introducing the Fuzzy Median Filter”, Signal Processing
VII: Theories and Applications, pp. 963-966, 1994.
[RUS 94c]
F. RUSSO, G. RAMPONI, “Edge extraction using FIRE operators” , FUZZ-IEEE 94,
Orlando, USA, 1994, pp 249-253.
Page 196
BIBLIOGRAPHIE
[SAG 89]
D. SAGE, “Poursuite d’objets par analyse d’une séquence d’image couleur”, Thése
Institut National Polytechnique de Grenoble, 1989, pp 87-105.
[SAR 81]
A. SARABI, K. AGGARWALL, “Segmentation of chromatic image”, Pattern
Recognition vol. 13, 1981, pp. 417-427.
[SCH 93]
R. SCHETTINI, “A segmentation algorithm for color images”, Pattern Recognition
Letters 14, 1993, pp 499-506.
[TAO 93]
C.W. TAO, W.E. THOMPSON, “A fuzyy If-Then approach to edge detection”,
FUZZ-IEEE 93, San-Francisco, USA, 1993, pp. 1356-1360.
[TOM 86]
S. TOMINAGA, “Color image segmentation using three perceptual attributes”, In proc.
CVPR, 1986, pp. 628-630.
[VIN 91]
L. VINET, “Segmentation et mise en correspondance de régions de paires d’images
stéréoscopiques”, Thése Université de Paris IX Dauphine, 1991.
[WIN 82]
M.P. WINDHAM, “Cluster validity for the Fuzzy c-Means clustering algorithm”, IEEE
Trans. Pattern Anal. Machine Intell., vol. PAMI-4, no. 4, 1982, pp. 357-363.
[WIT 84]
A.P. WITKIN, “Scale space filtering: a new approach to multi-scale description”,
Image Understanding, S. Ullman and W. Richards, Eds, pp.79-95. Ablex Publishing,
1984.
[ZAD 65]
L.A. ZADEH, “ Fuzzy sets”, Inform, Control, Vol 8, pp.338-353, 1965
[ZAD 71]
L. ZADEH, “Quantitative fuzzy semantics”, Information Sciences, No 3, pp.159-176,
1971.
[ZEN 86]
S. Di ZENZO, ‘‘A note on the gradient of multi-image,’’ Computer Vision, Graphics,
and Image Processing, vol. 33, pp. 116-125, 1986.
[ZUC-76]
S. W. ZUCKER, “Survey, Region Growing: Chilhood and Adolescence”, Computer
Graphics and Image Processing, 5, 1976, pp. 382-399.
Page 197
BIBLIOGRAPHIE
Page 198