Thesecarron

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 208

THESE

présentée à

L’UNIVERSITE DE SAVOIE
pour obtenir

le titre de DOCTEUR

Spécialité: Electronique - Electrotechnique - Automatique

par

Thierry Carron

Segmentations d’images couleur


dans la base Teinte-Luminance-Saturation:
approche numérique et symbolique

Soutenue le 21 décembre 1995 devant la commission d’examen

I. Magnin Présidente
J. Brémont Rapporteur
L. Foulloy Examinateur
P. Lambert Examinateur

T. Pun Rapporteur
T. Redarce Examinateur
Je dédie cette thèse

à mes parents qui m’ont encouragé et soutenu,

à Karine et Anthony qui partagent ma vie,

et à Jean-François JOSSERAND qui restera toujours vivant dans ma mémoire...

“Il n’est de camarades que s’ils s’unissent dans la même cordée,


vers le même sommet,
en quoi ils se rejoignent”

Salut Joss.
REMERCIEMENTS

L’ensemble des travaux présentés dans ce mémoire a été effectué au Laboratoire


d’Automatique et de Micro-Informatique Industrielle (L.A.M.I.I.) de l’Ecole Supérieure
d’Ingénieurs d’Annecy (E.S.I.A.) à l’Université de Savoie.

J’adresse mes sincères remerciements à Madame I. MAGNIN, Directeur de Recherche au


laboratoire CREATIS de Lyon, qui m’a fait l’honneur de présider le jury de thèse.

J’exprime ma profonde reconnaissance à Monsieur J. BRÉMOND, Professeur à


l’Université Henri Poincaré de Nancy I, et à Monsieur T. PUN, Professeur au Centre
Universitaire d’Informatique de l’Université de Genève, pour l’intérêt qu’ils ont bien voulu
porter à ce travail en acceptant de l’examiner et d’en être rapporteurs.

Je remercie également Monsieur T. REDARCE, Maître de Conférences à L’INSA de Lyon,


Habilité à Diriger des Recherches, d’avoir participé de manière positive au jury de thèse.

Je tiens aussi à exprimer ma profonde gratitude et mes remerciements les plus sincères à
Monsieur P. LAMBERT, Maître de Conférences à l’Université de Savoie, pour m’avoir
encadré et pour la confiance qu’il m’a toujours témoignée. Son expérience de la recherche, ses
conseils, ses encouragements, et son amitié m’ont été très précieux et m’ont permis de mener à
bien mon travail.

Ma profonde gratitude va également à Monsieur L. FOULLOY, Professeur à l’Université


de Savoie, directeur du LAMII, pour m’avoir accueilli dans son laboratoire, et m’avoir permis
de travailler dans de bonnes conditions. Ses conseils, dans le domaine de la théorie des sous-
ensembles flous, m’ont permis d’avoir une approche plus “nette” de ce vaste domaine de
recherche.

Je tiens également à remercier l’ensemble du personnel de l’Ecole Supérieure d’Ingénieurs


d’Annecy pour l’amitié et le soutien qu’ils m’ont apportés durant le déroulement de la thèse.

Et puis, il y a tous les membres de la petite famille du LAMII, qui resteront anonymes dans
cette page, mais qui m’ont permis de mener à terme ce travail dans une ambiance très amicale.
A tous ceux là, je leur rends tout simplement hommage.
TABLE DES MATIERES
INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

CHAPITRE I . REPRÉSENTATION TEINTE - LUMINANCE - SATURATION . 5

1 . INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 . TRANSFORMATION RVB VERS UN ESPACE INTENSITÉ/CHROMINANCE 8


2.1 . Description du système RVB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 . Généralité sur les espaces Intensité/Chrominance . . . . . . . . . . . . . . . . . . . . . . 10
2.2.1 . Interprétation perceptuelle de l’espace Intensité/Chrominance . . . . . . . . 11
2.2.2 . Interprétation photométrique de l’espace Intensité/Chrominance . . . . . . 12
2.2.3 . Principe général de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 . Présentation de différentes transformations Intensité/Chrominance . . . . . . . . 13
2.3.1 . Le système de coordonnées triangulaires (TLS) . . . . . . . . . . . . . . . . . . . . 13
2.3.2 . Le Système visuel hypothétique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.3 . Modèle de représentation proposé (TLC) . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.4 . Le système YIQ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.5 . Les systèmes uniformes C.I.E. Luv et C.I.E. Lab . . . . . . . . . . . . . . . . . . . 19
2.4 . Comparaison des transformations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4.1 . Comparaison des volumes obtenus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4.2 . Comparaison des Teintes et des Saturations obtenues. . . . . . . . . . . . . . . . 23
2.5 . Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

3 . INFLUENCE DU BRUIT SUR LES COMPOSANTES TLS . . . . . . . . . . . . . . . . . 26


3.1 . Modèle de bruit envisagé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 . Influence du bruit sur la Luminance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3 . Influence du bruit sur les composantes de chrominance . . . . . . . . . . . . . . . . . 29
3.3.1 . Influence sur la Saturation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.2 . Influence sur la Teinte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4 . Conséquence sur l’utilisation des composantes . . . . . . . . . . . . . . . . . . . . . . . . 36

4 . CONCLUSION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

CHAPITRE II . SEGMENTATION COULEUR PAR FUSION NUMÉRIQUE . . . 39

1 . INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.1 . Approche contours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.1.1 . Méthodes du gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.1.2 . Méthodes basées sur la dérivée seconde directionnelle . . . . . . . . . . . . . . 43
1.1.3 . Méthode proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.2 . Approche régions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.2.1 . Méthodes globales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
1.2.2 . Méthodes locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1.2.3 . Méthode proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

Page i
2 . DÉTECTION DE CONTOURS COULEUR PAR UN GRADIENT MARGINAL 47
2.1 . Principe de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2 . Définition d’une différence signée pertinente entre deux Teintes . . . . . . . . . . 49
2.2.1 . Mesure de l’écart entre deux valeurs de Teinte . . . . . . . . . . . . . . . . . . . . 49
2.2.2 . Prise en compte de la pertinence de la Teinte . . . . . . . . . . . . . . . . . . . . . . 51
2.3 . Définition d’un opérateur gradient sur la composante Teinte . . . . . . . . . . . . . 52
2.4 . Détecteurs de contours couleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.4.1 . Détecteur utilisant la Teinte comme complément d’information . . . . . . . 53
2.4.2 . Détecteur privilégiant l’information de Teinte . . . . . . . . . . . . . . . . . . . . . 54
2.4.3 . Estimation de la direction du gradient couleur . . . . . . . . . . . . . . . . . . . . . 55
2.5 . Influence des paramètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.5.1 . Influence et choix de S0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.5.2 . Influence et choix de β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.6 . Evaluation comparative des performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.6.1 . Les images synthétiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.6.2 . Evaluation de la robustesse des contours détectés . . . . . . . . . . . . . . . . . . 59
2.6.3 . Evaluation de l’estimation de la direction du gradient . . . . . . . . . . . . . . . 61
2.7 . Applications sur des images réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.8 . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

3 . SEGMENTATION EN RÉGIONS PAR FUSION NUMÉRIQUE . . . . . . . . . . . . . 69


3.1 . Principe de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.2 . Description de la technique de base de la segmentation . . . . . . . . . . . . . . . . . . 71
3.3 . Définition d’une segmentation Teinte-Luminance suivant la Saturation . . . . . 73
3.3.1 . Elaboration du critère composite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.3.2 . Elaboration du seuil composite d’agrégation . . . . . . . . . . . . . . . . . . . . . . 76
3.4 . Influence de la forme du coefficient de pondération . . . . . . . . . . . . . . . . . . . . 77
3.4.1 . Influence et choix de S0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.4.2 . Influence et choix de β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.5 . Evaluation comparative des performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.5.1 . Présentation des méthodes utilisées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.5.2 . Mesure de dissimilarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.5.3 . L’image synthétique Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.5.4 . Résultats expérimentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.6 . Applications sur des images réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.6.1 . Présentation des images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.6.2 . Résultats de segmentation des images . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.7 . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

4 . CONCLUSION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

Page ii
CHAPITRE III . SEGMENTATION COULEUR PAR FUSION SYMBOLIQUE . 99

1 . INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
1.1 . Méthodes travaillant avec l’algorithme du Fuzzy C-Means . . . . . . . . . . . . . . . 102
1.1.1 . Présentation de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
1.1.2 . Quelques applications aux images couleur . . . . . . . . . . . . . . . . . . . . . . . . 103
1.2 . Intégration des connaissances dans l’étape de segmentation . . . . . . . . . . . . . . 103

2 . DÉTECTION DE CONTOURS COULEUR PAR JEUX DE RÈGLES FLOUES . 105


2.1 . Présentation d’un opérateur flou pour les images monochromatiques . . . . . . . 105
2.1.1 . Principe de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
2.1.2 . Partition de la différence de niveaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
2.1.3 . Jeux de règles symboliques et potentiel contour du pixel (PCP) . . . . . . . 106
2.1.4 . Création de l’image gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
2.1.5 . Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
2.2 . Généralisation aux images couleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
2.2.1 . principe de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
2.2.2 . Potentiel contour en Teinte (PCP_T) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
2.2.3 . Potentiel contour couleur (PCP_TLS) . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
2.2.4 . Création de l’image gradient couleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
2.2.5 . Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
2.3 . Evaluation des performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
2.3.1 . Evaluation de la robustesse des contours détectés . . . . . . . . . . . . . . . . . . 115
2.3.2 . Observation de la définition des contours . . . . . . . . . . . . . . . . . . . . . . . . . 116
2.4 . Application à des images réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
2.5 . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

3 . SEGMENTATION EN RÉGIONS PAR FUSION SYMBOLIQUE . . . . . . . . . . . . 123


3.1 . Schéma de principe de l’agrégation floue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
3.2 . Segmentation en régions par agrégation floue . . . . . . . . . . . . . . . . . . . . . . . . . 125
3.2.1 . Partition floue des domaines numériques . . . . . . . . . . . . . . . . . . . . . . . . . 125
3.2.2 . Règles linguistiques de segmentation TL/S . . . . . . . . . . . . . . . . . . . . . . . 127
3.2.3 . Définition de la segmentation TL/S par agrégation floue . . . . . . . . . . . . . 131
3.3 . Déroulement de l’algorithme pour un cas particulier . . . . . . . . . . . . . . . . . . . . 131
3.4 . Evaluation des performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
3.5 . Application à des images réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
3.5.1 . Présentation des images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
3.5.2 . Résultats de la segmentation des images . . . . . . . . . . . . . . . . . . . . . . . . . 141
3.6 . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

4 . CONCLUSION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

CONCLUSION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

Page iii
ANNEXES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

Annexe A . Bruits vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153


Annexe B . Définitions et algorithmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
Annexe C . Quelques notions de base relatives à la théorie des sous-ensembles floues . . 169
Annexe D . Synoptique des traitements réalisés en fusion symbolique . . . . . . . . . . . . . . . 177
Annexe E . Images couleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

BIBLIOGRAPHIE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189

Page iv
INTRODUCTION

Page 1
Introduction

Le traitement de l’image par ordinateur a débuté dans les années 60, aux Etats-Unis, par le
filtrage, l’amélioration et la restauration de données visuelles qui provenaient, entre autres
sources, de sondes spatiales. On peut signaler par exemple les travaux du Jet Propulsion
Laboratory de Passadena en Californie, qui traitait, au profit de la NASA, les images de
l’espace fournies par les sondes lunaires RANGER, les missions SURVEYOR, ou APOLLO.
La vision par ordinateur est ainsi une discipline récente qui a vu son développement s’accélérer
avec l’apparition des micro-ordinateurs dans les années 80 et l’augmentation phénoménale de
leur puissance de calcul durant ces quinze dernières années. L’entité image qui est alors
manipulée n’est plus seulement une grandeur analogique comme au premier temps de la
télévision, mais une collection d’informations numériques. L’information élémentaire
associée à chaque point de l’image, traditionnellement appelé “pixel” pour picture element, est
transcrite en niveau de gris ou en couleur.

A partir de ces nombreuses données, il convient d’extraire les informations pertinentes pour
l’application concernée. L’ensemble des traitements nécessaires à la réalisation de cet objectif
est regroupé sous le terme générique d’analyse d’image. Suivant le contenu sémantique des
entités traitées et extraites, on distingue les traitements dits de bas-niveau (rehaussement de
contraste, filtrage, segmentation,...) qui opèrent sur les grandeurs calculées directement à partir
des valeurs numériques des pixels et les traitements dits de haut-niveau (reconstruction 3D,
reconnaissance des formes, interprétation,...) qui opèrent sur des entités de nature symbolique
associées à une représentation de la réalité à extraire de l’image.

Quel peut être alors, dans ce contexte d’analyse d’image, l’intérêt de la couleur qui est une
information psychologique liée au système de vision humain? Dans les traitements de
haut-niveau l’apport de la couleur est évident notamment dans des phases de localisation ou de
reconnaissance d’objets colorés. C’est un attribut supplémentaire, relativement stable, qui va
permettre de différencier rapidement les différents objets de la scène observée sans avoir
recours à leurs descriptions géométriques qui nécessitent l’emploi de modèles mathématiques,
mais en utilisant une représentation symbolique (Rouge, Bleu,...) facilement interprétable par
l’homme pour peu que la base de représentation choisie soit proche du système de perception
humain. Dans les traitements de bas-niveau, grâce à l’apport complémentaire d’information
apporté par la couleur, on peut s’attendre également à obtenir, notamment dans les étapes de
segmentation (régions ou contours), de meilleurs résultats qu’en utilisant une représentation
monochrome. Cependant, la connaissance de la couleur se traduit par un accroissement notable
de la quantité d’information représentant une image (trois fois plus pour la plupart des
systèmes d’acquisition de la couleur). Ainsi, l’un des soucis de la mise au point des méthodes
de traitement couleur sera de ne pas payer le gain de performance par un accroissement
important des temps de traitement.

Page 3
Introduction

L’information de couleur étant liée à la perception humaine, il peut être utile d’utiliser, dans
les traitements, une base de représentation qui soit très expressive pour l’opérateur humain. De
nombreuses expériences neurophysiologiques ont montré que la représentation suivant une
composante achromatique d’intensité (Luminance) et deux composantes chromatiques reflète
le fonctionnement de cellules du corps genouillé latéral qui précédent le cortex visuel.
L’interprétation des composantes de chrominance en termes de Teinte et de Saturation permet
de rendre ce système de représentation très proche de la perception consciente humaine des
couleurs.

Si une telle base de représentation n’a pas réduit le volume de données à traiter, elle possède
une interprétation aisée qui peut faciliter l’intégration des caractéristiques spécifiques des
images couleur dans le processus de segmentation en vue de simplifier les traitements. En
particulier, cette représentation assure une certaine indépendance entre les informations
contenues dans chaque composante. Une stratégie peut alors consister à chercher à fusionner
les informations apportées par les trois composantes. On peut pour cela envisager une
approche classique, en effectuant une somme pondérée des informations, ou bien employer des
techniques de fusion de données plus élaborées reposant sur des représentations symboliques.

Le mémoire est organisé en trois chapitres. Dans le chapitre 1, après avoir introduit
quelques notions générales sur la couleur et la méthode d’acquisition, nous présenterons
diverses transformations susceptibles de conduire à une représentation dans un espace
Intensité / Chrominance. Dans le but de dégager la transformation la plus adaptée pour la
segmentation des images, nous étudierons ensuite le comportement de quelques unes des
transformations les plus courantes. Les caractéristiques spécifiques de la transformation
choisie seront alors examinées en observant sa robustesse vis-à-vis d’un bruit synthétique.
Cette étude se révélera primordiale pour déterminer différents concepts sur l’utilisation des
composantes permettant d’envisager un processus de segmentation coopératif.

Pour effectuer cette coopération entre composantes, nous proposerons, dans le chapitre 2,
une approche numérique pour la fusion des informations de chrominance et d’intensité. Nous
l’appliquerons alors à la segmentation des images couleur en définissant deux opérateurs de
détection de contours ainsi qu’une méthode de segmentation par croissance de région. Les
performances de ces nouveaux opérateurs seront évaluées, à l’aide de critères quantitatifs, sur
des images synthétiques bruitées. Puis, quelques applications à des images réelles seront
envisagées.

Dans le chapitre 3, nous ferons appel à une représentation symbolique et à la logique floue
pour réaliser la fusion des informations. L’intégration des connaissances spécifiques à la base
de représentation choisie, ainsi que la prise en considération des différents modes de
coopération entre les composantes s’effectuent alors à l’aide de règles linguistiques élaborées
par expertise. De nouvelles méthodes de segmentation, contours ou régions, seront ainsi
proposées. Leur performances seront analysées et comparées quantitativement par rapport aux
opérateurs définis dans le chapitre 2. Enfin, pour compléter l’étude, nous examinerons les
résultats sur quelques images réelles.

Page 4
CHAPITRE I

Représentation
Teinte - Luminance - Saturation

Page 5
Représentation Teinte - Luminance - Saturation

1 - Introduction

La couleur d’un objet résulte de l’interaction de plusieurs facteurs qui dépendent


essentiellement des propriétés de la lumière incidente et des propriétés physiques de celui-ci.
Dans cette caractérisation physique de la lumière, nous allons nous limiter à quelques
généralités qui ont une incidence sur la représentation informatique de la couleur.

La lumière est l’énergie radiante de la portion visible du spectre électromagnétique


(380-780 nm.), qui produit une sensation visuelle après stimulation de la rétine de l’oeil.
Quand une source émet de la lumière, l’énergie rayonnée varie selon la longueur d’onde. Cette
propriété permet de caractériser toute source de lumière par la quantité d’énergie émise à
différentes longueurs d’ondes du spectre électromagnétique. La courbe ainsi décrite (énergie
radiante en fonction de la longueur d’onde) caractérise la source de lumière par sa distribution
spectrale d’énergie permettant d’introduire la science de la mesure de la couleur:
la colorimétrie.

Des études sur la perception psychophysique de la couleur [GER 84] ont montré que cette
information, qui est de dimension infinie puisque étant une fonction continue de la longueur
d’onde [LUO 91], peut se représenter dans un espace de dimension 3. C’est-à-dire que la
plupart des couleurs peuvent être obtenues par combinaison de trois couleurs de base. En effet,
la perception colorée étant liée à la répartition spectrale du stimulus, on conçoit que
l’utilisation d’une gamme de sources lumineuses couvrant chacune un intervalle spectral
permet de synthétiser n’importe quelle courbe spectrale d’émission et donc n’importe quelle
couleur. Lorsque le nombre de sources lumineuses est réduit en supprimant progressivement
certaines bandes spectrales, il reste possible de recréer un stimulus visuel équivalent à celui
produit par le spectre continu en utilisant trois sources convenablement choisies. Chacune des
sources apporte une énergie supplémentaire. On parle dans ce cas de trichromie additive. Ce
principe de synthèse additive est utilisé pour la reconstitution des images couleur en télévision.
Les trois sources recommandées par la Commission Internationale de l’éclairage (C.I.E.) sont
respectivement de 435,8 nm pour le Bleu, 546,1 nm pour le Vert et 700,0 nm pour le Rouge,
ainsi qu’une lumière de référence (lumière à spectre d’énergie constante appelée E).

Mais, la synthèse de la couleur peut également s’effectuer de manière soustractive. En effet,


pour les objets colorés qui sont des sources lumineuses par réflection diffuse, les molécules
responsables de la couleur de l’objet absorbent une partie du rayonnement et soustraient de
l’énergie. L’effet trichrome reste également parfaitement vérifié et le choix de trois teintes
judicieusement choisies permet d’obtenir pratiquement n’importe quelle couleur, chacun des
trois pigments absorbant un domaine de longueur d’onde propre. On parle alors de trichromie
soustractive et les trois primaires sont le Jaune, le Magenta et le Cyan. Ce principe est utilisé
par exemple dans l’imprimerie Offset.

Page 7
Représentation Teinte - Luminance - Saturation

Cet aspect tridimensionnel de la couleur se retrouve dans le système visuel humain qui
utilise trois types de cônes pour la vision diurne. Chaque cône est sensible à une longueur
d’onde spécifique: courte (bleue), moyenne (verte), et longue (rouge). Cela constitue une
décomposition naturelle du spectre assurant ainsi simplement l’unicité de la décomposition des
couleurs pures. De manière similaire en vision par ordinateur, on fait appel généralement à un
jeu de 3 filtres colorés (rouge, vert, bleu), choisis pour décomposer au mieux les longueurs
d’ondes visibles. L’acquisition d’une image couleur consiste donc à obtenir trois images
représentant les composantes Rouge, Verte, Bleue (RVB) de la scène observée. La
superposition des trois composantes redonne l’image colorée initiale.

Si le système de représentation RVB est généralement la base de l’acquisition des images


couleur, il n’est pas forcément le mieux adapté à l’analyse. Aussi existe-t-il un certain nombre
de transformations de l’espace RVB initial en un nouvel espace de représentation. Ces
différentes transformations répondent aux besoins d’applications spécifiques, mais elles ont
toutes en commun le soucis d’une meilleure mise en évidence de l’information de couleur. Le
paragraphe suivant présente quelques unes de ces transformations. Une étude de leurs
caractéristiques nous permettra de déterminer la base de représentation choisie pour la
segmentation des images couleur. Le paragraphe 3 est consacré à l’étude de l’influence du bruit
sur les composantes de la base de représentation retenue.

2 - Transformation RVB vers un espace Intensité/Chrominance

Parmi tous les systèmes de représentation élaborés à partir du système RVB, ceux utilisant
le modèle introduit par Faugeras [FAU 79] dans le domaine du traitement d’images, sont très
proches de la perception consciente humaine des couleurs. Ils sont basés sur la définition d’un
nouvel espace, de dimension toujours égale à 3, dont les composantes sont l’intensité et deux
composantes de chrominance. Dans le § 2.2 nous donnerons une présentation générale de cet
espace. Dans le § 2.3 nous examinerons les différentes transformations amenant à un tel
espace. Mais auparavant, nous allons donner quelques précisions sur le système RVB.

2.1 - Description du système RVB

Les composantes RVB sont obtenues par acquisition de la scène à travers trois filtres: rouge,
vert et bleu. Les mesures des capteurs sont liées au signal couleur par les formules suivantes:
∞ ∞ ∞
R = ∫ C(λ)Tr ( λ )S(λ) dλ V = ∫ C(λ)Tv(λ)S(λ) dλ B = ∫ C(λ)T b(λ)S(λ) dλ
–∞ –∞ –∞

avec C(λ) la distribution spectrale du signal de couleur émis par la source lumineuse, Tr(λ),
Tv(λ) et Tb(λ) les transmittances respectives des filtres rouge, vert, bleu et S(λ) la sensibilité de
la caméra. On constate que la caméra intervient également, en plus des filtres, dans la qualité
de l’acquisition des images couleur. L’idéal est, bien sûr, que S(λ) soit le plus constant possible

Page 8
Représentation Teinte - Luminance - Saturation

sur la plage des couleurs visibles. La figure I.1 montre un exemple de la réponse spectrale
d’une caméra noir et blanc haute définition (Adimec MX12). On remarque alors que la
sensibilité de cette caméra n’est pas très homogène sur tout le spectre visible et qu’elle
présente un pic pour les longueurs d’ondes proches du Rouge.

35
30
25
Efficacité théorique (%)

20
15
10
5
0
350 400 450 500 550 600 650 700 750 800 850 λ ( nm )

Figure I.1: Exemple de sensibilité spectrale d’une caméra noir et blanc

Les transmittances des 3 filtres Tr(λ), Tv(λ) et Tb(λ) doivent se chevaucher afin d’obtenir la
variété de couleur la plus grande possible [FAE 84]. La figure I.2 donne un exemple des
transmittances de trois filtres Kodak Wratten (N˚ 25 pour le rouge, N˚ 58 pour le vert et N˚47B
pour le bleu) fréquemment utilisés. Les courbes des transmittances de ces trois filtres sont
superposées sur un même graphique de façon à mettre en évidence leurs caractéristiques de
transmissions et à faciliter la comparaison de leurs absorptions dans le spectre visible.

Transmittance en% Tr(λ)


100 Tb(λ) Tv(λ)
50

10

λ ( nm )
1
350 400 440 500 530550 600 650 700 750

Figure I.2: Exemple des transmittances pour des filtres réelles

Le filtre bleu correspond à un bleu profond. Les filtres vert et rouge permettent des effets de
contraste en photographie industrielle et en micrographie. Le filtre rouge est également utilisé
pour la correction du voile atmosphérique en photographie aérienne et pour la suppression du
bleu en photographie infrarouge.

Page 9
Représentation Teinte - Luminance - Saturation

A partir des trois images acquises à travers ces filtres, le système RVB permet d’obtenir la
majeure partie des couleurs. Seules certaines ne sont pas reconstituables, comme les rouges
pourpres, car cela demanderait des intensités négatives pour certaines composantes ce qui ne
peut être obtenu par des capteurs physiques.

L’espace couleur décrit forme un “solide des couleurs” de forme cubique (figure I.3). Les
sommets du cube obtenu portent les trois primaires de pigments (jaune, magenta et cyan) et les
trois primaires de lumière (rouge, vert, et bleu). Ces dernières forment un triangle (triangle de
Maxwell, R+V+B=1) portant les couleurs ayant la même intensité. Les deux derniers
sommets, correspondant au noir et au blanc, sont portés par la trissectrice R=V=B qui n’est
autre que l’axe achromatique. Les couleurs portées par cette axe vont ainsi du noir (R=V=B=0)
au blanc pur (R=V=B=1) en passant par les différentes nuances de gris.
B Triangle de Maxwell (R+V+B=1)
Axe achromatique
perpendiculaire à l’axe achromatique
1 Bleu

Cyan

Magenta

Blanc
Noir
Vert
1 V
Rouge
1
R
Jaune

Figure I.3: Cube des couleurs dans l’espace RVB.

Hormis pour les 8 sommets du cube, il est difficile d’associer la notion de couleur, telle
qu’elle est perçue par l’homme, à un point du repère RVB. Dans la réalité, il y a en général une
forte corrélation entre les informations contenues dans chacune de ces composantes. Cette
constatation et le soucis d’avoir un système de perception plus proche de celui de la vision
humaine ont conduit à la définition d’espaces Intensité/Chrominance que nous présentons dans
les paragraphes suivants.

2.2 - Généralité sur les espaces Intensité/Chrominance

Cet espace (figure I.4) est issu de la théorie des couleurs antagonistes [LUO 91] dans
laquelle on tente de dissocier l’information d’intensité, ou Luminance, portée par l’axe
vertical correspondant à l’axe achromatique, de celle de chrominance qui est une information
bidimensionnelle [OHT 80] située dans un plan orthogonal à cet axe.

Page 10
Représentation Teinte - Luminance - Saturation

2.2.1 - Interprétation perceptuelle de l’espace Intensité/Chrominance

Dans le plan de chrominance on définit un repère cartésien, noté généralement C1 et C2. Si


dans ce repère on exprime l’information de chrominance en coordonnés polaires, l’angle
définit alors la composante Teinte (T) et la distance à l’origine la composante appelée Chroma
(C) ou Saturation (S) selon la manière dont cette distance est évaluée.
Intensité ou Luminance

L
Pixel

Plan de
Chrominance C1
C ou S T
C2

Figure I.4: Espace Intensité/Chrominance

Le triplet de variables TLC ou TLS est proche de la perception consciente humaine des
couleurs. Il peut s’interpréter de la manière suivante:

Luminance:

Attribut classant les couleurs de “clair” à “sombre” permettant de


distinguer les niveaux de gris. l’œil en perçoit plus d’une soixantaine.

Teinte:

Permet de distinguer ce que la perception humaine appelle


communément la couleur (rouge, jaune, vert...). L’homme perçoit plus
d’une centaine de teintes différentes.

Chroma ou Saturation:

Mesure la pureté de la couleur permettant de différencier rouge et rose,


bleu marine et bleu roi,... Une couleur pure est saturée à 100%, le
blanc, les gris et le noir le sont à 0%. Pour l’œil, il y a une vingtaine de
niveaux de saturations distincts pour une teinte.

L’intérêt essentiel de cette représentation est qu’elle assure une décorrélation de


l’information de couleur. Par exemple un rouge et un rose ne se distinguent que sur la
composante S ou C. Dans l’espace RVB, cette distinction se retrouve sur les trois composantes
de la base.

Page 11
Représentation Teinte - Luminance - Saturation

2.2.2 - Interprétation photométrique de l’espace Intensité/Chrominance

On peut tenter d’interpréter cette représentation en terme photométrique [LUO 91] à partir
de la distribution spectrale d’un signal couleur non monochromatique (figure I.5)

C(λ)
e2

e1

λ nm
400 500 λmax 600 700 800

Figure I.5: Exemple de distribution spectrale d’énergie d’un signal non monochromatique

L’intensité (ou Luminance) du signal est caractérisée par l’intégrale de la courbe C(λ)
780
1
Luminance ↔ ------------------------
780 – 380 ∫ C ( λ ) dλ
380

La longueur d’onde dominante λmax correspond à la couleur “pure” observée dans le signal.
380 – λ max
Teinte ↔ 2π --------------------------
780 – 380

Le rapport entre l’énergie (e1) de la lumière blanche (ensemble de l’énergie émise) présente
dans le signal et l’énergie (e2) de la longueur d’onde dominante (λmax) correspond à la pureté
du signal. La Saturation peut alors s’exprimer de la manière suivante:
e
Saturation ↔ 1 – ----1-
e2

2.2.3 - Principe général de calcul

L’espace Intensité/Chrominance peut être obtenu à partir des composantes RVB initiales en
deux temps:

Une transformation linéaire définissant l’intensité (Y) et les composantes de


chrominance (C1, C2).

Y R
C1 = M V [M] est une matrice 3x3 (I.1)
C2 B
Une transformation non linéaire définissant respectivement la Saturation ou la
Chroma et la Teinte à partir des composantes C1 et C2.

Page 12
Représentation Teinte - Luminance - Saturation

Le choix de la matrice [M] et de la transformation non linéaire entraînent la définition d’un


certain nombre de transformations de ce type.

Il est à noter que l’information de Teinte est circulaire, et il faudra en tenir compte dans son
utilisation ultérieure.

2.3 - Présentation de différentes transformations Intensité/Chrominance

Nous nous limiterons à une présentation des principales transformations en mettant l’accent
sur trois d’entre elles, présentées aux trois premiers paragraphes (§ 2.3.1 à § 2.3.3).

2.3.1 - Le système de coordonnées triangulaires (TLS)

Ce modèle mathématique est utilisé communément en traitement d’image couleur


[BAL 82][SAG 89]. Pour assurer la séparation achromatique/chromatique, il est nécessaire
que l’axe des intensités soit perpendiculaire au plan chromatique. On choisit alors comme axe
des intensités l’axe achromatique (figure I.3) et comme plan de chromaticité celui défini par le
triangle de Maxwell orthogonal à l’axe achromatique.

Par définition la Luminance est portée par l’axe achromatique; son expression est donnée à
partir des composantes RVB par:

L = (R+V+B) / 3 (I.2)

La Teinte peut s’exprimer en fonction des composantes R, V et B par diverses formulations


équivalentes:

2R – V – B
θ = acos -------------------------------------------------------------------------------------
2 2 2
2 (R – V) + (B – R) + (B – V)
3 ⋅ (V – B)
ou θ = asin -------------------------------------------------------------------------------------
2 2 2
2 (R – V) + (B – R) + (V – B)
3 ⋅ (V – B)
ou θ = atan  --------------------------------  (I.3)
 2R – V – B 

Avec ce modèle, la distance à l’origine, qui fournit la seconde composante de chrominance


est appelée Saturation. En se donnant comme contrainte que la Saturation soit maximale le
long des cotés du triangle de Maxwell, on obtient l’expression suivante pour cette composante:

si R = V = B = 0 alors
S = 0 (point achromatique)
sinon
3̇ Min ( R, V, B )
S = 1 – --------------------------------------- (I.4)
R+V+B

Page 13
Représentation Teinte - Luminance - Saturation

Ainsi, si on prend un point “A” appartenant au plan défini par le triangle de Maxwell, la
Saturation est calculée à l’aide de la distance minimale entre ce point et un côté du triangle
comme le montre figure I.6. Le point achromatique dans ce plan est situé à une distance de 1/3
de chaque côté, et la valeur de Saturation est alors nulle.
B=1

dmin Point achromatique, S=0

Triangles d’iso-saturation A

1/3 S = 1- 3*dmin
1/3
S=1
1/3 V=1

R=1

Figure I.6: Calcul de la Saturation dans le plan de Maxwell pour le système triangulaire

Dans le cas ou R+V+B <1 la même situation se reproduit sur un triangle homothétique et
parallèle au triangle de Maxwell. Les lignes d’iso-saturation sont ainsi des triangles.

Par une démarche inverse à celle proposée au § 2.2.3 il est possible de trouver une matrice
[M] permettant de déterminer, pour cette transformation, la composante d’intensité (Y) et le
plan de chrominance (C1, C2):

Y 1⁄3 1⁄3 1⁄3 R


C1 = 1 –1 ⁄ 2 –1 ⁄ 2 V (I.5)
C2 0 3⁄2 – 3⁄2 B

Les composantes TLS sont obtenues alors par les équations non linéaires suivantes:

L TLS = Y (I.6)

si R = V = B alors
T TLS = 0 et S TLS = 0 (I.7)
sinon
3̇Min ( R, V, B )
S TLS = 1 – ------------------------------------- (I.8)
R+V+B

C1
si C 1 > 0 alors T TLS = acos ------------------------------
-
2 2
C1 + C2
C1
sinon T TLS = 2π – acos ------------------------------
- (I.9)
2 2
C1 + C2

Page 14
Représentation Teinte - Luminance - Saturation

Cette transformation souffre de défauts examinés en détail par Kender [KEN 77] dus à
l’emploi de transformations non linéaires et en particulier de la fonction “Min”. Il y a des
singularités de la Teinte pour les points achromatiques (R=V=B), dans le voisinage desquelles
une petite modification sur R,V ou B peut conduire à des variations importantes de la Teinte ou
de la Saturation. Ces variations sont redoutables pour les processus de segmentation d’image.
De plus, la distribution des valeurs transformées n’est pas uniforme et la discrétisation des
valeurs R,V et B conduit à des pics et trous artefactuels dans la répartition, discrètes aussi, des
valeurs T, L et S.

Bien que la matrice [M] (Eq. I.5) soit inversible, l’utilisation de la fonction “Min” pour le
calcul de la Saturation ne permet pas de définir une transformation inverse TLS vers RVB.

2.3.2 - Le Système visuel hypothétique

Ce modèle a été défini par Garbay [GAR 79] pour correspondre à un système visuel
hypothétique, dont la sensibilité est indépendante de la longueur d’onde, du facteur de pureté
(distance relative entre la couleur et le point d’égal énergie dans le diagramme de chromaticité)
et de l’intensité de la couleur observée. A partir de la modélisation des cellules du corps
genouillé latéral effectuée par Faugeras [FAU 76], elle ajuste les coefficients de façon à ce que
des couleurs de Saturations identiques soient à égale distance de l’axe achromatique obtenant
ainsi le modèle suivant:

1
Y = --- ( R + V + B )
 3

C = 3
------- ( R – V ) (I.10)
 1 2

 1
C 2 = B – --- ( R + V )
2

Dans le cadre des hypothèses effectuées par Garbay, une métrique euclidienne est définie
sur cet espace. L’expression de l’information de Chrominance en coordonnée polaire fournit
alors les deux composantes de Chrominance. L’angle correspondant à la Teinte et le module,
appelé ici Chroma, fournit la seconde composante.

Il est intéressant de constater que ce système est très proche du système précédent. En effet,
en écrivant ce système sous forme matricielle on obtient la matrice [M] suivante:

Y 1⁄3 1⁄3
1⁄3 R
C1 = 3⁄2 – 3⁄2 0 V , (I.11)
C2 –1 ⁄ 2 –1 ⁄ 2 1 B

qui correspond à celle définie pour le système de coordonnées chromatiques triangulaires en


permutant respectivement R et B puis C1 et C2. Il s’agit alors simplement d’une rotation (30˚)
des axes définissant le plan de chrominance que l’on peut observer en projetant le triangle de
Maxwell dans le plan chromatique (figure I.7).

Page 15
Représentation Teinte - Luminance - Saturation

C2
B=1
C2

Plan chromatique

C1

R=1
V=1 30˚

C1C2 pour TLS Axe de référence


de la Teinte C1
C1C2 pour le système
visuel hypothétique

Figure I.7: Représentation de la projection du triangle de Maxwell dans le plan chromatique.

Cette représentation met en évidence le fait que pour le système TLS l’axe de référence de
la Teinte coïncide avec l’axe portant la composante Rouge dans la base RVB initiale, alors que
pour le système visuel hypothétique il correspond à un axe d’opposition Rouge-Vert.

Dans cette base de représentation la Chroma apparaît alors comme la distance euclidienne
entre le point de chrominance et le point achromatique (figure I.8). Ceci a pour conséquence
que le niveau de Chroma maximal s’obtient uniquement sur les sommets du triangle, et que
les lignes d’iso-chroma correspondent à des cercles.

B=1

Cercles d’iso-chroma Point achromatique, C=0

C=1

V=1

R=1

Figure I.8: Calcul de la Saturation dans le plan de Maxwell


pour le système visuel hypothétique

Page 16
Représentation Teinte - Luminance - Saturation

2.3.3 - Modèle de représentation proposé (TLC)

Nous proposons d’utiliser un système combinant les deux systèmes précédents pour profiter
des avantages de chacun, obtenant globalement une transformation que nous appellerons TLC.

Dans le système visuel hypothétique, l’expression de la Chroma est plus intéressante que le
mode de calcul de la Saturation dans TLS car on amoindrit les effets des singularités
inhérentes à cette dernière qui utilise la fonction “Min” [LAM 91][ROT 90].

Dans le système TLS, l’axe de référence C1 permettant de calculer la Teinte coïncide avec
un axe initial de la base RVB (l’axe Rouge). Ainsi, la couleur Rouge sera codée en Teinte par
0˚, le Vert par 120˚ et le Bleu par 240˚. Le système visuel hypothétique est défini dans un
repère orthonormé. Le passage au système TLS se fait par une simple rotation de 30˚. On
conserve donc un repère orthonormé et de ce fait il est possible d’utiliser dans cette base la
métrique euclidienne permettant de calculer la Chroma.

La matrice [M] de la transformation permettant de passer de la base RVB à cette base TLC
est alors la suivante:

Y 1⁄3 1⁄3 1⁄3 R


C1 = 1 –1 ⁄ 2 –1 ⁄ 2 V (I.12)
C2 0 – 3⁄2 3⁄2 B

Les composantes Teinte, Luminance et Chroma sont obtenues par les équations suivantes:

L TLC = Y (I.13)

2 2
S TLC = C1 + C2 (I.14)

si S TLC = 0 alors
T TLC = 0
sinon
si C 1 > 0 alors
C1
T TLC = acos ------------
-
S TLC
sinon
C1
T TLC = 2π – acos -------------
- (I.15)
S TLC

Page 17
Représentation Teinte - Luminance - Saturation

Cette nouvelle transformation admet une transformation inverse TLC vers RVB qui sera
très utile dans la phase de caractérisation de la robustesse de cette base vis-à-vis du bruit. On
pourra ainsi fixer un point dans l’espace TLC qui est plus facilement interprétable
psychologiquement, et en déduire les composantes R,V et B correspondantes.

On a ainsi:

Y = L
C 1 = S TLC ⋅ cos ( T TLC ) (I.16)

C 2 = S TLC ⋅ sin ( T TLC )

et la matrice d’inversion suivante:

R 1 2⁄3 0 Y
V = 1 –1 ⁄ 3 3 ⁄ 3 ⋅ C1 (I.17)
B 1 –1 ⁄ 3 – 3 ⁄ 3 C2

2.3.4 - Le système YIQ

C’est le standart défini pour la télévision américaine par le “National Television Standard
Comittee” (NTSC) pour transmettre le signal couleur. Il a été conçu pour minimiser la largeur
de bande du signal tout en permettant de conserver une perception fidèle des couleurs.

Les téléviseurs couleur des Etats Unis utilisent un tube cathodique dont les phosphores
émettent dans des longueurs d’ondes différentes de celles définies pour les filtres d’acquisition
R, V et B par la C.I.E. en 1931 (R:700 nm., V:546,1 nm. et B:435,8 nm).

Les composantes (RN, VN, BN) du tristimulus décrivant une couleur sont liées aux
composantes R, V et B par les relations linéaires suivantes:

R 1, 167 – 0, 146 – 0, 151 R N RN 0, 842 0, 156 0, 091 R


V = 0, 114 0, 753 0, 159 V N ou VN = – 0, 129 1, 319 – 0, 203 V (I.18)
B – 0, 101 0, 059 1, 128 B N BN 0, 007 – 0, 069 0, 897 B

L’illuminant phosphore correspond à la norme CCIR 601-1 définie par la C.I.E. [CIE 86] et
les équations matricielles suivantes donnent le système YIQ:

Y 0, 299 0, 587 0, 114 R N Y 0, 364 0, 404 0, 074 R


I = 0, 596 – 0, 274 – 0, 322 V N ou I = 0, 705 – 0, 331 – 0, 503 V (I.19)
Q 0, 211 – 0, 523 0, 312 B N Q 0, 151 – 0, 446 0, 303 B

Page 18
Représentation Teinte - Luminance - Saturation

Les coordonnées Teinte, Luminance et Chroma sont alors données par les équations
suivantes (Eq. I.20 à I.22):

L YIQ = Y (I.20)

2 2
C YIQ = I +Q (I.21)

si C YIQ = 0
T YIQ = 0
sinon
Q
si Q ≥ 0 T YIQ = acos ------------------------
2 2
I +Q
Q
sinon T YIQ = 2π – acos ------------------------ (I.22)
2 2
I +Q

La matrice [M] de cette transformation (cf. Eq. I.19) étant inversible, il est possible de
définir une transformation inverse YIQ vers RVB. On a ainsi:

Y = L YIQ

I = C YIQ cos T YIQ (I.23)

Q = C YIQ sin T YIQ

et les matrices suivantes:

RN 1, 000 0, 957 0, 621 Y R 1, 275 0, 611 0, 702 Y


VN = 1, 000 – 0, 273 – 0, 647 I ou V = 1, 137 – 0, 389 – 0, 924 I (I.24)
BN 1, 000 – 1, 104 1, 700 Q B 1, 104 – 1, 877 1, 592 Q

2.3.5 - Les systèmes uniformes C.I.E. Luv et C.I.E. Lab

La base Luv est conçue pour obtenir un espace couleur dans lequel chaque changement
élémentaire en luminance et en chrominance est uniformément perceptible pour l’oeil humain.
Cet espace possède des propriétés très appréciables pour la mesure des mélanges additifs de
lumières colorées, notamment pour le système RVB en télévision.

La base de représentation Lab résulte des travaux d’Adams-Nickerson. Elle est conçue pour
répondre au modèle colorimétrique, établi par Munsel, permettant de classer
photométriquement les couleurs en utilisant un atlas. Comme la base Luv, elle est
approximativement uniforme. Ce système est en général préféré pour les utilisations de
pigments, car il est plus simple d’emploi et permet de bonnes estimations des couleurs
résultant de pigments en mélange.

Page 19
Représentation Teinte - Luminance - Saturation

Ces deux systèmes ont été définis en 1976 par la C.I.E. Ils sont calculés à partir du système
de 3 primaires imaginaires de référence, dit XYZ, établies par cet organisme en 1931. Ce
système de référence permet l’échange et la communication d’informations chromatiques de
manière très satisfaisante. Les coordonnées XYZ sont reliées aux composantes RVB initiales
par la transformation linéaire suivante utilisée par Celenk[CEL 86a] ou Liang [LIA 87]:

X 2, 769 1, 752 1, 130 R


Y = 1, 000 4, 591 0, 060 V (I.25)
Z 0, 000 0, 0565 5, 594 B

Les coordonnées (X0,Y0,Z0) du point blanc de référence dans ce système XYZ sont
obtenues à partir du blanc de référence dans RVB par:

X0 2, 769 1, 752 1, 130 1 5, 651


Y0 = 1, 000 4, 591 0, 060 1 = 5, 651 (I.26)
Z0 0, 000 0, 057 5, 594 1 5, 651

La transformation suivante, que l’on retrouve dans Pratt [PRA 78], correspond à la
conversion du système (RN, VN, BN) du référentiel NTSC dans le système XYZ:

X 0, 607 0, 174 0, 201 R N


Y = 0, 299 0, 587 0, 114 V N (I.27)
Z 0, 000 0, 066 1, 117 B N

Les coordonnées du point blanc de référence sont alors:


X0 = 0,982, Y0 = 1,0 et Z0 = 1,183

Ohta, dans [OHT 80], normalise l’espace XYZ à 1 obtenant ainsi des valeurs transformées
ayant la même échelle que les valeurs originales et les coordonnées du blanc de référence étant
alors: X0 =Y0 = Z0 = 1. La matrice de la transformation normalisée est la suivante:

0, 618 0, 177 0, 205


0, 299 0, 587 0, 114
0, 000 0, 056 0, 944

Le passage du système XYZ aux systèmes Luv et Lab s’effectue au moyen de relations non
linéaires.

La coordonnée L correspond dans les deux bases à la clarté psychométrique et présente une
échelle homogène avec la sensibilité de l’oeil:

Page 20
Représentation Teinte - Luminance - Saturation

si Y/Y0 > 0,01 alors


L = 116 ⋅ 3 Y ⁄ Y 0 – 16
sinon
L = 903, 3 ( Y ⁄ Y 0 ) (I.28)

Dans la base Luv, la clarté psychométrique L est conjuguée à un diagramme de


chromaticité (u,v) afin de fournir un espace uniforme suivant les trois dimensions. Ces deux
composantes de chrominances sont définies à partir des composantes trichromatiques X,Y et Z
et du blanc de référence (X0,Y0 et Z0) par:

4⋅X 4 ⋅ X0
u = 13 ⋅ L ⋅  ---------------------------------- – -----------------------------------------
- (I.29)
 X + 15Y + 3Z X 0 + 15Y 0 + 3Z 0 

9⋅Y 9 ⋅ Y0
v = 13 ⋅ L ⋅  ---------------------------------- – -----------------------------------------
- (I.30)
 X + 15Y + 3Z X 0 + 15Y 0 + 3Z 0 

Dans la base Lab, les composantes de chrominance (a et b) définies par les deux formules
suivantes permettent de disposer d’un système de coordonnée rectangulaire à partir de XYZ
défini par:

a = 500 ⋅ ( 3 X ⁄ X 0 – 3 Y ⁄ Y 0 ) (I.31)

b = 200 ⋅ ( 3 Y ⁄ Y 0 – 3 Z ⁄ Z 0 ) (I.32)

La définition d’une couleur peut être faite par la spécification de ses coordonnées Lab ou
Luv ou bien en utilisant les informations polaires représentant alors la Luminance, la Teinte
et la Chroma. Le passage à ce système de coordonnées polaires se fait par les équations
suivantes:

L Luv = L (I.33)

2 2
C Luv = u +v (I.34)

si u = 0 alors
T Luv = 0
sinon
π
T Luv = ------ ⋅  atan --- + k ⋅ --- 
1 v
(I.35)
2π  u 2

avec
k = 0 si u≥0 et v ≥ 0 k = 2 si u<0 et v < 0
k = 1 si u>0 et v < 0 k = 3 si u<0 et v > 0

Les mêmes équations permettent de transformer les coordonnées du système Lab en


coordonnées TLS, a et b jouant respectivement le rôle de u et v.

Page 21
Représentation Teinte - Luminance - Saturation

Dans ces deux systèmes la métrique euclidienne est significative des différences de couleur
perçues. Ainsi, la différence de deux couleurs ∆C est calculée par:

2 2 2 2
∆C = ∆L + ∆u + ∆v pour le système Luv et (I.36)
2 2 2 2
∆C = ∆L + ∆a + ∆b pour le système Lab (I.37)

Contrairement au système Luv, le système Lab peut être facilement inversé pour redonner
les valeurs de X,Y,Z par les expressions suivantes:

a 3
X = X 0 ⋅  ---------------- + --------- 
L + 16
(I.38)
 116 500 
L + 16 3
Y = Y 0 ⋅  ----------------  (I.39)
 116 
b 3
Z = Z 0 ⋅  ---------------- + --------- 
L + 16
(I.40)
 116 200 

A partir des valeurs X, Y et Z, il est aisé de remonter aux trois valeurs R, V et B.

Les relations entre le système Lab et le système Luv sont relativement complexes. Ces
deux systèmes sont intéressants dans les cas où la mesure de différence entre des couleurs doit
être reliée à la perception visuelle humaine. Leur utilisation pour les tâches de vision
artificielle, où l’on s’intéresse aux différences quantifiables et non à celles uniquement
significatives perceptuellement, semble de ce fait moins intéressante. Pour ces raisons, ces
deux systèmes ne seront pas étudiés dans ce qui suit.

2.4 - Comparaison des transformations

Nous avons vu au paragraphe précédent qu’il existe plusieurs formes de transformations


possibles. Il s’agit maintenant de détailler et comparer leur comportement.

2.4.1 - Comparaison des volumes obtenus

Dans un premier temps, nous allons comparer l’évolution du volume du cube initial des
couleurs (cf. figure I.3) pour les transformations YIQ, TLS et TLC. Les graphiques de la
figure I.9 représentent la transformation que subit l’enveloppe du “solide des couleurs” pour
obtenir la séparation achromatique/chromatique. Ils sont exprimés dans les coordonnés
cartésiennes dans le but de ne pas les surcharger.

La transformation YIQ se caractérise par un écrasement et une rotation du cube originel. On


a pour les couleurs, des dilatations par endroits et des compressions dans d’autres. Pour les
Chromas et les Luminances, il n’y a pas égalité entre les couleurs rouge, jaune, vert, cyan,
bleu, magenta situées sur les six sommets extrêmes. Toutes ces distorsions, sont provoquées
par des coefficients de la matrice [M] non homogènes pour les composantes RVB sur les trois
axes. Par exemple, pour le calcul de la Luminance (cf. Eq. I.19), on privilégie les composantes
Rouge et Verte au détriment de la composante Bleue. Cependant, comme pour la

Page 22
Représentation Teinte - Luminance - Saturation

transformation TLC et à l’inverse de TLS, la forme générale du cube est conservée. Ceci
provient de la linéarité des fonctions utilisées.

Dans la représentation TLC les coefficients correspondent à une rotation du repère (cf. Eq.
I.12). Le cube n’est donc pas déformé. Nous remarquons tout de même, que pour les six
couleurs précédemment citées, la Luminance n’est pas comme pour le blanc, maximale. Par
contre, nous pouvons observer que la distribution des couleurs, ainsi que celle de la Chroma,
est parfaitement homogène.

Dans la transformation TLS, nous n’avons plus la conservation du cube en raison de la


formulation de la Saturation (cf. Eq. I.8). Ceci a pour incidence d’obtenir des couleurs proches
du Noir qui sont saturées. Pour ce qui est de la Luminance et de la Teinte, nous retrouvons les
mêmes caractéristiques que précédemment.

Luminance Luminance Luminance

C1 C2 C2 C1 C2
C1

YIQ TLS TLC

Figure I.9: Evolutions comparées du cube des couleurs

2.4.2 - Comparaison des Teintes et des Saturations obtenues.

Cette étude a été réalisée par H. Rotival en 1990 [ROT 90]. Il a montré que l’évolution de la
composante Teinte, pour les deux transformations TLS et TLC (composantes Teintes
algébriquement identiques), est linéaire lorsque l’on parcourt les arêtes du cube des couleurs
dans RVB. Pour ce qui est de la transformation YIQ, la différence est très marquée.
L’utilisation de coefficients non uniformes crée des compressions dans certaines Teintes et des
dilatations dans d’autres. L’évolution de la composante Teinte est alors linéaire par morceaux.

Pour comparer la Saturation ou la Chroma obtenue par chaque transformation, il étudie leur
évolution en faisant varier les composantes R,V et B de leur valeur minimum (0) à leur valeur
maximum (255 du fait d’un codage sur 8 bits). Pour permettre une visualisation en 3
dimensions, il se limite à la situation où V=B. La figure I.10 montre le résultat de cette étude
pour les transformations envisagées.

Page 23
Représentation Teinte - Luminance - Saturation

CYIQ STLS CTLC


255 255
162

0 0

V= B V= B
V= B
R R R
0

YIQ TLS TLC

Figure I.10: Comparaison de l’évolution de la Saturation avec V et B égaux.

Les courbes de Saturation pour les transformations YIQ et TLC sont relativement
similaires, ce qui est cohérent vis-à-vis du mode de calcul de cette composante pour ces
transformations. On constate que la Saturation augmente linéairement à partir de l’origine pour
atteindre sa valeur maximale. Ceci est dû à la forme cubique du volume transformé.

Sur le tracé de la Saturation pour la transformation TLS, l’utilisation de la fonction “Min”


fait perdre cette linéarité. On constate alors une extrême rapidité dans les variations aux
alentours de l’origine, c’est-à-dire lorsque une des valeurs R, V ou B est proche de zéro. Si on
trace l’évolution de la Saturation en fixant une des composantes à zéro (le Bleu par exemple) et
en faisant varier les deux autres, on obtient les courbes suivantes:

CYIQ STLS STL S (0,0,0) = 0 CTLC

162 150 255


114

V
V V
R
R R

YIQ TLS TLC

Figure I.11: Saturation pour B=0

On constate ainsi que pour la transformation TLS, lorsque une des composantes est nulle, la
Saturation prend directement la valeur maximale, sauf dans le cas ou les trois composantes
sont nulles, la Saturation étant alors également nulle. Cette singularité correspond au
traitement exceptionnel de la couleur noir dans le changement de base. Cette transformation va

Page 24
Représentation Teinte - Luminance - Saturation

donc manquer de finesse dans la représentation de cette composante quand une des valeurs de
RVB va être proche de l’origine. Cela va engendrer une forte sensibilité au bruit pour les zones
de faible intensité. Par exemple pour le triplet RVB (2,2,0), on aura un niveau de saturation de
255 alors qu’avec le triplet (2,2,2), elle sera nulle. Ce problème ne se rencontre pas avec les
deux autres transformations en raison de leur croissance linéaire à partir de l’origine.

Si, comme précédemment, l’évolution globale des courbes est identique pour YIQ et TLC,
on constate malgré tout certaines incohérences dans YIQ. Ainsi un rouge pur aura une
Saturation maximale à 162 alors qu’un vert pur aura une Saturation à 150 et un bleu pur à 115.
Cette dissymétrie provient du fait que les couleurs primaires ne sont pas toutes à la même
distance de l’axe de Luminance dans le volume transformé. Pour la transformation TLC, ces
trois points auront tous un niveau de Saturation égal au maximum.

2.5 - Conclusions

Si il existe plusieurs représentations Teinte-Luminance-Chroma, les caractéristiques des


composantes de chrominance diffèrent fortement suivant la transformation utilisée comme le
montrent les paragraphes précédents.

L’étude, suivant la transformation utilisée, de l’évolution du cube des couleurs montre que
celui-ci subit une déformation lors des transformations YIQ et TLS, tandis que lors de la
transformation TLC il n’effectue qu’une simple rotation amenant l’axe achromatique sur l’axe
de Luminance en faisant coïncider l’axe de référence du plan de chrominance (composante C1)
avec l’axe portant la composante Rouge.

L’étude comparative des Teintes calculées en parcourant les arêtes du cube RVB met en
évidence la distorsion de l’espace des couleurs lors de la transformation YIQ. Une meilleure
discrimination de certaines couleurs est réalisée; cela bien sûr au détriment d’autres. Pour les
deux autres transformations étudiées, il n’y a pas de distorsion et de ce fait aucune couleur
n’est privilégiée.

L’étude de la composante Saturation suivant les différentes transformations montre une


évolution plus régulière dans les transformations TLC et YIQ, surtout dans les zones proches
de l’axe achromatique. Il existe aussi dans la transformation TLS une singularité à l’origine
qui n’apparaît pas dans les deux autres transformations. Ces qualités, qui se traduisent par une
moindre sensibilité aux bruits, sont essentielles dans l’évaluation quantitative de la pertinence
de la couleur. Cependant, la transformation YIQ admet des niveaux maximum de Saturation
différents suivant la couleur, privilégiant ainsi certaines Teintes alors que la transformation
TLC assure une décorrélation entre la composante Teinte et la composante Saturation.

La transformation TLC semble alors, vis-à-vis de ces trois études, la plus appropriée à la
segmentation d’image couleur dans une base Teinte-Luminance-Chroma. Il est à noter
également que cette transformation est inversible. Ceci va faciliter les phases d’élaboration des
algorithmes de segmentation en permettant la synthèse d’image dans la base Teinte-

Page 25
Représentation Teinte - Luminance - Saturation

Luminance-Chroma puis en calculant les composantes RVB par la transformation inverse.

Par la suite, toute référence à une base Teinte-Luminance-Chroma sera faite suivant la
transformation TLC, et par abus de langage et pour utiliser le vocabulaire communément
admis, la Chroma sera abusivement appelée Saturation et on parlera de base TLS.

3 - Influence du bruit sur les composantes TLS

Le passage de l’espace de représentation RVB vers l’espace TLS étant maintenant choisi,
nous allons étudier le comportement de la Luminance et des composantes de chrominance vis-
à-vis du bruit engendré dans l’espace RVB. Mais auparavant, nous allons brièvement décrire,
les modèles de bruit que nous allons envisager dans nos études. La construction de ces bruits
est détaillée en annexe A.

3.1 - Modèle de bruit envisagé

Nous avons donc considéré comme bruit toute fluctuation perturbant l’homogénéité des
régions d’une image. L’amplitude de ces fluctuations sera faible devant les variations de niveau
entre les régions et, du point de vue spatial, ces fluctuations pourront être considérées comme
“haute fréquence” vis-à-vis des variations “basse fréquence” dues aux objets. De ce fait les
textures seront considérées comme du bruit.

D’une manière schématique, on peut considérer que ce bruit, supposé de nature additive et
non biaisée, peut avoir deux origines:

❏ d’une part les perturbations présentes dans la scène elle-même


(poussières ou rayures sur les objets, éclairage parasite,...) qui vont
entraîner généralement un bruit corrélé entre les composantes de la
base RVB,

❏ d’autre part le bruit provenant de la chaîne d’acquisition d’image que


l’on peut supposer indépendant entre les différentes composantes de
l’image.

Le modèle de bruit envisagé devra ainsi être paramétrable (paramètre appelé “c” dans
l’annexe A) pour permettre d’étudier des niveaux différents de corrélation du bruit entre les
composantes R,V et B. Par souci de simplification, les bruits que nous envisagerons seront
supposés spatialement non corrélés.

Nous établirons aussi une classification des bruits selon leur densité de probabilité (d.d.p). On
se limitera à des bruits exponentiels, gaussiens et uniformes, caractérisés par des densités de
probabilité plus ou moins concentrées, comme le montre la figure I.12

Page 26
Représentation Teinte - Luminance - Saturation

0.7
0.6
bruit exponentiel

0.5
0.4 bruit gaussien
0.3
0.2
0.1 bruit uniforme
0
-0.5 0 0.5
Figure I.12: Modèles de d.d.p envisagés.

Il faut être conscient que ces modèles de bruit ne reflètent la réalité que d’une manière très
imparfaite. Dans la pratique, le bruit est souvent non stationnaire et peut avoir une composante
multiplicative. Et même si le bruit correspond à un des modèles envisagés, il n’est pas simple
d’identifier la nature réelle du bruit ou d’avoir une connaissance de la corrélation des bruits
affectant les différentes composantes.

Ces modèles de bruits, qui peuvent être générés artificiellement vont avoir deux rôles.
D’une part, ils vont permettre l’étude de l’influence du bruit sur les composantes de la base
TLS choisie et d’autre part la réalisation d’analyses statistiques comparatives des différentes
méthodes de segmentation en utilisant des images synthétiques.

3.2 - Influence du bruit sur la Luminance

Le comportement de la Luminance vis-à-vis du bruit est indépendant de la valeur des


composantes R,V et B lorsque celles-ci ne sont pas proches des valeurs extrêmes “0” ou “255”
(effet d’écrêtage empêchant une distribution symétrique sur les différentes composantes).

La Luminance étant obtenue par la moyenne des trois composantes, il y aura un effet de
lissage du bruit présent dans l’espace RVB. Cet effet de lissage va dépendre plus
particulièrement de l’importance de la corrélation du bruit entre les composantes.

2
Sous certaines hypothèses, la variance du bruit sur la composante Luminance σ Lb peut être
2
reliée à la variance du bruit vectoriel σ couleur présent dans RVB en fonction du coefficient de
corrélation du bruit ρ (cf. annexe A § 2.1):

2
2 1 ( 2ρ – ( 4ρ + 2 ) ρ – ρ + 1 ) 2
σ Lb = --- ⋅ -------------------------------------------------------------------- σ couleur (I.41)
3
2
(1 – 2 ρ – ρ )

Page 27
Représentation Teinte - Luminance - Saturation

L’effet de lissage obtenu sur la Luminance dépendra alors de ρ:


❏ Dans le cas de la présence d’un bruit non corrélé (ρ=0), la variance sur
la Luminance sera divisée par 3. On aura alors un effet de lissage
important du bruit. C’est un résultat classique de la moyenne de trois
bruits indépendants.
❏ Dans le cas inverse d’un bruit totalement corrélé entre les composantes
(ρ=1), la variance sur la Luminance sera identique à celle présente
dans l’espace RVB. Il n’y aura pas d’effet de lissage du bruit.

La figure I.13 montre l’évolution théorique du rapport entre la variance sur la Luminance et
la variance du bruit couleur dans RVB, en fonction du coefficient de corrélation ρ.
1

0.8

2 2 0.6
σ Lb ⁄σ couleur
0.4

0.2

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
coefficient de corrélation ρ

2 2
Figure I.13: Evolution théorique de σ Lb ⁄σ couleur en fonction de ρ

L’évolution de ce rapport est presque linéaire en fonction du coefficient de corrélation. Il est


intéressant de remarquer qu’il est toujours inférieur à 1. La composante Luminance ne va
jamais amplifier un bruit additif présent sur les composantes R, V, et B et cela quel que soit le
niveau de corrélation inter-composantes du bruit.

2 2
La figure I.14 présente l’évolution du rapport σ Lb ⁄σ couleur pour les différents types de
bruit envisagés (gaussien, uniforme et exponentiel), en fonction du coefficient de corrélation.
L’étude a été réalisée sur une image uniforme de taille 100x100 ayant un niveau de Luminance
non bruité de 128.
1
2 2
σ Lb ⁄σ couleur
0.66
0.5 Bruit Gaussien
Bruit Exponentiel
0.33 Bruit Uniforme

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
coefficient de corrélation ρ

2 2
Figure I.14: Evolution de σ Lb ⁄σ couleur en fonction de ρ pour différentes d.d.p. du bruit

Page 28
Représentation Teinte - Luminance - Saturation

Comme on pouvait s’y attendre en examinant l’équation I.41, la nature des densités de
probabilité du bruit n’a pas d’influence sur le rapport entre la variance du bruit sur la
Luminance et la variance du bruit vectoriel sur RVB.

En conclusion, l’utilisation de la Luminance va permettre d’atténuer plus ou moins


fortement la sensibilité aux bruits par rapport à l’utilisation directe des plans R,V et B. Cette
sensibilité sera d’autant plus faible que la corrélation des bruits entre les plans R,V et B sera
faible.

3.3 - Influence du bruit sur les composantes de chrominance

3.3.1 - Influence sur la Saturation

L’expression de la Saturation n’est pas suffisamment simple pour permettre d’exprimer


analytiquement l’influence du bruit. Nous aurons donc recours à la simulation sur une image
uniforme de taille 100x100 pour évaluer le rapport entre la variance sur cette composante
2
bruitée (notée σ Sb ) et la variance du bruit vectoriel généré dans RVB. La figure I.15 montre
2 2
l’évolution de σ Sb ⁄σ couleur pour différents bruits et différents niveaux de Saturation initiale
en fonction du coefficient de corrélation.

d’amplification
1.6

du bruit
Saturation initiale forte

Zone
1.4
1.2
2 2 1
σ Sb ⁄σ couleur Bruit Gaussien
0.8 Bruit Exponentiel d’atténuation
0.6 Bruit Uniforme
du bruit
Zone

0.4
0.2
Saturation initiale nulle
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
coefficient de corrélation

2 2
Figure I.15: Evolution de σ Sb ⁄ σ couleur suivant le coefficient de corrélation
pour différents bruits et différents niveaux de Saturation initiale

On constate ainsi que la sensibilité au bruit, qui est ici évaluée par la mesure de la variance,
se caractérise pour la composante Saturation par:
❏ une dépendance suivant le niveau de corrélation du bruit,
❏ une dépendance suivant les valeurs initiales dans l’espace RVB,
❏ une indépendance vis-à-vis de la densité de probabilité du bruit lorsque la
Saturation initiale n’est pas nulle.

Page 29
Représentation Teinte - Luminance - Saturation

Vis-à-vis de l’influence de la corrélation il est à noter une inversion du sens de variation par
rapport à l’étude sur la Luminance. En effet, plus la corrélation entre les bruits dans l’espace
RVB est importante, plus la sensibilité au bruit est faible. A faible corrélation, le bruit sur la
composante Saturation se trouve amplifié (facteur maximal de 1,5 pour le cas d’un bruit
totalement décorrélé). Le rapport entre la variance calculée sur la Saturation et la variance
initiale du bruit dans RVB diminue ensuite lorsque la corrélation du bruit augmente. La
Saturation va alors être moins sensible au bruit que les composantes R, V, et B. Dans le cas
d’un bruit totalement corrélé, celui-ci est totalement rejeté. Le rejet total de la perturbation
dans le cas d’un bruit totalement corrélé est lié au modèle de bruit envisagé (additif) et au fait
que la Saturation opère des différences entre les composantes (le bruit additif corrélé est ainsi
éliminé, cf. annexe A § 2.2).

En ce qui concerne la dépendance suivant les valeurs initiales dans l’espace RVB et vis-à-
vis de la nature du bruit, nous allons comparer l’évolution des densités de probabilité de la
composante Saturation, pour des valeurs de R,V et B proches de l’axe achromatique ( S ∼ 0 ) et
des valeurs éloignées (Saturation forte). La figure I.16 montre cette évolution pour les
différents types de densité de probabilité envisagée, et pour différentes variances du bruit
initial.

Pour ne pas compliquer l’étude, celle-ci a été réalisée dans le cas d’un bruit indépendant
entre les composantes R,V et B. Dans le cas d’un bruit composite l’évolution serait similaire
mais avec des variances sur la Saturation bruitée plus faible comme nous l’avons vu
précédemment.
d.d.p. d.d.p. d.d.p.
0.2 0.2 0.25
Saturation initiale de 0 Saturation initiale de 0 Saturation initiale de 0
0.2
0.15 0.15
Saturation initiale de 128 Saturation initiale de 128 Saturation initiale de 128
0.15
0.1 0.1
0.1
0.05 0.05
0.05

0 128 255 0 128 255 0 128 255


Bruit gaussien Bruit uniforme Bruit exponentiel
Variance du bruit faible Variance du bruit faible Variance du bruit faible
d.d.p. d.d.p. d.d.p.
0.2 0.2 0.25
Saturation initiale de 0 Saturation initiale de 0 Saturation initiale de 0
0.2
0.15 0.15
Saturation initiale de 128 Saturation initiale de 128 Saturation initiale de 128
0.15
0.1 0.1
0.1
0.05 0.05
0.05

0 128 255 0 128 255 0 128 255


Bruit gaussien Bruit uniforme Bruit exponentiel
Variance du bruit forte Variance du bruit forte Variance du bruit forte

Figure I.16: Evolution des d.d.p. de la Saturation pour différentes valeurs de R,V, et B
suivant la d.d.p.du bruit.

Page 30
Représentation Teinte - Luminance - Saturation

Ces courbes confirment que le comportement de la Saturation dépend bien des valeurs des
composantes R, V, et B. Lorsque ces trois composantes sont voisines (proximité de l'axe
achromatique), on observe, surtout lorsque le bruit est fort, un biais important et une perte de
symétrie. Ce comportement peut être attribué aux effets de discrétisation dans les
transformations non linéaires semblables à ceux mis en évidence par Kender [KEN 77]. Pour
des régions à forte Saturation, ces déformations n’apparaissent plus. Cette étude de l’évolution
des densités de probabilité permet également de comprendre la dépendance vis-à-vis de la
nature du bruit dans le cas de Saturation faible. Du fait du biais qui est introduit par la
discrétisation, la perte de symétrie est moins importante lors d’un bruit de type exponentiel que
lors d’un bruit de type uniforme.

En conclusion, le comportement de la Saturation vis-à-vis d’un bruit de type additif dépend


essentiellement du niveau de corrélation du bruit dans l’espace RVB. Dans le cas d’un bruit
corrélé, la Saturation sera moins sensible au bruit que les composantes R,V et B. A l’inverse,
dans le cas d’un bruit non corrélé, la composante Saturation va avoir tendance à l’amplifier
sauf dans le cas de valeurs R, V et B très proches de l’axe achromatique. Dans ce cas, le bruit
sur la Saturation est toujours inférieur à celui présent dans RVB. La sensibilité aux bruits
dépend alors également de la densité de probabilité du bruit initial.

3.3.2 - Influence sur la Teinte

Pour étudier l’influence du bruit sur la Teinte il nous a fallu préalablement définir, du fait de
sa représentation circulaire, des opérateurs permettant de calculer la moyenne et la variance de
cette composante (cf. annexe B). Une fois ces opérateurs définis, nous pouvons effectuer
2
l’étude de l’évolution de la variance de la Teinte σ Tb en fonction du coefficient de corrélation
du bruit; ceci pour les différentes densités de probabilité envisagées.

Rappelons que la Teinte, qui est l’information angulaire du plan de chrominance, n’est pas
définie sur l’axe achromatique (en fait arbitrairement mise à zéro dans le calcul de la
transformation, c.f. § 2.3.2). L’étude a donc été réalisée d’une part pour des valeurs de R,V et B
proches de l’axe achromatique, correspondant à un niveau de Saturation faible, et d’autre part
pour des valeurs de R,V et B éloignées de cet axe, correspondant alors à des Teintes fortement
saturées. Les figures I.17 et I.18 montrent les résultats obtenus.

On constate ainsi que la sensibilité aux bruits, se caractérise pour la composante Teinte par:
❏ une dépendance suivant le niveau de corrélation du bruit avec un rejet total
des perturbations dans le cas d’un bruit totalement corrélé dans l’espace
RVB,
❏ une forte dépendance suivant les valeurs initiales de R,V et B qui se traduit
par une très forte amplification du bruit lorsque la Saturation est faible, et
une réduction importante dans le cas de Saturation élevée,
❏ une indépendance vis-à-vis de la densité de probabilité du bruit.

Page 31
Représentation Teinte - Luminance - Saturation

35

d’amplification
25 Bruit Gaussien

du bruit
2 2 Bruit Exponentiel
σ ⁄σ

Zone
Tb couleur
Bruit Uniforme
15

5
1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
coefficient de corrélation

2 2
Figure I.17: Evolution de σ Tb ⁄ σ couleur suivant ρ pour différents bruits
dans le cas d’une Saturation faible
0.2

0.15 Bruit Gaussien

d’atténuation
2 2
σ ⁄σ Bruit Exponentiel

du bruit
Tb couleur

Zone
Bruit Uniforme
0.1

0.05

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1


coefficient de corrélation

2 2
Figure I.18: Evolution de σ Tb ⁄ σ couleur suivant ρ pour différents bruits
dans le cas d’une Saturation forte

Vis-à-vis de l’influence de la corrélation (du bruit), il est à noter, comme pour la Saturation,
une inversion du sens de variation par rapport à l’étude faite sur la Luminance. En effet, plus la
corrélation entre les bruits dans l’espace RVB est importante, plus la sensibilité aux bruits est
faible. Le rejet total de la perturbation dans le cas d’un bruit totalement corrélé est lié au
modèle de bruit envisagé (additif) et au fait que la Teinte opère des différences entre les
composantes (on élimine le bruit additif corrélé, cf. annexe A § 2.3).

En ce qui concerne la dépendance suivant le niveau de Saturation initiale, nous allons


comparer l’évolution des densités de probabilité de la Teinte en fonction du niveau de
Saturation. La réalisation pratique de cette étude est décrite par la figure I.19. On crée une
image synthétique uniforme (de taille 100x100) dans l’espace TLS. On contrôle ainsi
parfaitement le niveau de Teinte et de Saturation. Par la transformation inverse (c.f. § 2.3.2)
on calcule les composantes R, V et B correspondantes. Ces composantes sont alors bruitées par
un bruit vectoriel Bα non corrélé et de variance fixe. On applique alors sur ces composantes le
changement de base pour obtenir la composante Teinte bruitée (Tb) correspondant à un niveau
de Saturation donné. On peut alors tracer la densité de probabilité de la composante Teinte
pour ce niveau de Saturation.

Page 32
Représentation Teinte - Luminance - Saturation


Sk B Bb
L TLC->RVB V Vb RVB->TLC
Tb(Sk)
T R Rb

Figure I.19: Schéma de réalisation pratique de l’étude de la d.d.p. de la Teinte


en fonction du niveau de Saturation

Nous avons vu sur les figures I.17 et I.18, que la densité de probabilité du bruit a peu
d’influence sur l’évolution générale de la sensibilité au bruit de la Teinte. L’étude présentée par
la figure I.20 est ainsi réalisée uniquement pour un bruit de densité de probabilité de type
gaussien. Pour ne pas compliquer l’étude, celle-ci a été réalisée dans le cas d’un bruit
indépendant entre les composantes R,V et B. Dans le cas d’un bruit corrélé l’évolution serait
similaire mais avec des variances sur la composante Teinte bruitée plus faible comme nous
l’avons vu précédemment.

Densité de probabilité de la Teinte


0.15

0.1

0.05

Niveau de Teinte
150 250
125 200
100
Niveau de Saturation 75 150
50 100 Niveau initial de Teinte
25 50
0 0

Figure I.20: Evolution de la d.d.p. de la Teinte bruitée par un bruit gaussien additif non corrélé
en fonction du niveau de Saturation

La sensibilité aux bruits de la composante Teinte est fortement liée au niveau de Saturation.
A faible niveau de Saturation (proche de l’axe achromatique), le bruit sur la Teinte se trouve
fortement amplifié alors que pour une Saturation élevée il est atténué.

Si l’on trace dans le cas le plus défavorable, c’est-à-dire avec un bruit totalement décorrélé,
2 2
l’évolution de σ Tb ⁄σ couleur en fonction du niveau de Saturation, on constate (figure I.21)
que pour de très fortes Saturations (niveau supérieur à 90), l’atténuation du bruit est plus
importante sur la composante Teinte que celle observée sur la Luminance. Par contre, au

Page 33
Représentation Teinte - Luminance - Saturation

dessous d’un niveau de Saturation égal à 50, le bruit sur la Teinte est supérieur à celui généré
dans l’espace RVB. Ces valeurs de Saturation (50 et 90) seront plus faibles dans le cas d’un
bruit corrélé.
7
2 2
6 σ Tb ⁄σ couleur

5
Zone
4 d’amplification
du bruit
3 2 2
σ Lb ⁄σ couleur
2

1
0.33
Zone
0 25 50 75 90 100 125 150 175 200 d’atténuation
Saturation du bruit

2 2
Figure I.21: Evolution de σ Tb ⁄σ couleur en fonction du niveau de Saturation

Il existe donc une zone autour de l’axe achromatique où la Teinte, même si elle est définie,
présente une très mauvaise fiabilité du fait de son extrême sensibilité au bruit.

Pour expliquer ce phénomène, il nous faut revenir à la définition des composantes Teinte et
Saturation. Dans le plan de chrominance (C1C2), la Teinte est l’angle du vecteur de
chrominance par rapport à l’axe C1 tandis que la Saturation est le module de ce vecteur.
Prenons l’exemple de deux zones homogènes (notées P1 et P2) de Teintes identiques telles que
la zone P1 ait des caractéristiques proches de l’axe achromatique alors que la zone P2
correspond à une Teinte très pure (fortement saturée). Comme le montre la figure I.22, le bruit
altérant les composantes C1 et C2 a sensiblement la même distribution sur les deux zones. De
part sa nature angulaire, la dispersion de la Teinte va donc être plus forte lorsque l’on est
proche de l’origine alors que pour la Saturation, la dispersion va rester sensiblement identique
dans les deux zones.

C2
∆T(P2) maximal
150
P2
100

50 P1 ∆T(P1) maximal

0
0 50 100 150
C1

Figure I.22: Dispersion des composantes de chrominance dans le plan C1C2

Page 34
Représentation Teinte - Luminance - Saturation

En conclusion, le comportement de la Teinte vis-à-vis d’un bruit de type additif, dépend à la


fois du niveau de corrélation du bruit dans l’espace RVB, et du niveau de Saturation initial. La
figure I.23 résume cette double influence en montrant l’évolution de différentes lignes de
2 2
niveau de σ Tb ⁄σ couleur , en fonction de ces deux paramètres. Cette étude est réalisée dans le
cas d’un bruit de type gaussien.
coefficient de corrélation
1
Ligne de niveau 10

0.8 Ligne de niveau 2


Ligne de niveau 1
0.6
2 2
Ligne de transition σ Tb = σ Lb
0.4

0.2 A B C D E

0
0 10 20 30 40 50 60 70 80 90 100 120 140 160 180 200
Saturation

Zone où la Teinte est plus Zone où la Teinte est moins Zone où la Teinte est moins
sensible au bruit que sensible au bruit que sensible au bruit que
les composantes RVB les composantes RVB la Luminance

2 2
Figure I.23: Lignes de niveau σ Tb ⁄ σ couleur de l’évolution du coefficient de corrélation
en fonction niveau de Saturation pour un bruit additif gaussien

D’un point de vue pratique, en fonction de la valeur de Saturation et du coefficient de


corrélation, nous pouvons distinguer, sur cette figure, différents comportements de la Teinte
vis-à-vis du bruit imposé:

❏ une zone notée A dans laquelle le bruit sur la Teinte est fortement amplifié
par rapport au bruit imposé dans RVB,
❏ une zone notée B où le bruit sur la Teinte est amplifié,
❏ une zone notée C avec un bruit sur la Teinte proche de celui affectant les
composantes RVB,
❏ une zone notée D dans laquelle le bruit sur la Teinte est atténué,
❏ une zone notée E dans laquelle le bruit sur la Teinte est plus fortement
atténué que sur la composante Luminance.
L’information apportée par la Teinte est ainsi plus ou moins fiable selon la corrélation du
bruit entre les composantes de la base RVB (comme pour la composante Saturation), mais
également selon le niveau de Saturation correspondant.

Page 35
Représentation Teinte - Luminance - Saturation

3.4 - Conséquence sur l’utilisation des composantes

La sensibilité au bruit dans l’espace TLS va varier en fonction du niveau de corrélation du


bruit présent dans l’espace RVB.

Si pour la Luminance, le bruit n’est jamais amplifié, il n’en est pas de même pour les
composantes de chrominance. De manière générale, la sensibilité au bruit des composantes de
chrominance diminue lorsque la corrélation du bruit augmente, alors que le phénomène est
inverse pour la Luminance.

Le cas le plus défavorable dans cette base est celui d’un bruit totalement décorrélé dans
l’espace RVB. En effet, si pour la Luminance il y a un effet de lissage qui se traduit par une
division par 3 de la variance du bruit résultant, il y a en revanche pour la Saturation une
amplification du bruit qui se traduit par une multiplication par 1,5 de sa variance. Pour la
Teinte, le phénomène est plus complexe puisqu’il dépend, en plus du niveau de corrélation du
bruit, du niveau de Saturation du pixel traité. Néanmoins, c’est là encore, dans le cas d’un bruit
totalement décorrélé, que la sensibilité au bruit de cette composante est la plus forte, et cela
quel que soit le niveau de Saturation.

La sensibilité au bruit de la Teinte étant liée à la Saturation, celle-ci peut ainsi être utilisée
comme une mesure de la fiabilité que l’on peut attacher à la Teinte. Ce résultat entraîne des
conséquences très importantes pour les méthodes de segmentation dans les espaces TLS.
Ainsi, ces méthodes de segmentation devront avoir un comportement différencié, vis-à-vis de
l’utilisation de l’information de Teinte, en fonction du niveau de Saturation. L’utilisation de
l’information de Teinte devra donc être liée au niveau de Saturation correspondant:

il faudra interdire l’utilisation de la Teinte lorsqu’elle proviendra de


pixels proches de l’axe achromatique, alors que l’on pourra y attacher
une grande fiabilité si le pixel correspond à une Teinte pure.

4 - Conclusion

Nous nous sommes intéressés dans ce chapitre à la base de représentation des images
couleur. Nous avons vu que si la base d’acquisition est généralement la base RVB, le passage à
une autre base de représentation peut apporter certains avantages pour le traitement.
Notamment, l’utilisation d’une base de type Teinte - Luminance - Saturation (ou Chroma)
proche de la perception humaine des couleurs va faciliter les phases de mise au point des
algorithmes de segmentation.

Différentes transformations existent pour effectuer ce changement de base. Nous avons


alors étudier les caractéristiques de certaines afin de déterminer une transformation simple
permettant d’obtenir une base TLS qui soit la plus appropriée à la segmentation des images
couleur en limitant les effets de singularité et d’instabilité étudiés par Kender [KEN 77].

Page 36
Représentation Teinte - Luminance - Saturation

A l’aide de différents modèles de bruit nous avons ensuite simulé le comportement des
composantes Teinte, Luminance et Saturation en fonction du niveau de corrélation du bruit
généré dans l’espace RVB. Nous avons constaté que, d’une manière générale, un bruit corrélé
dans l’espace RVB était atténué par le changement de base.

Cette étude de l’influence du bruit sur les composantes de la base TLS a permis de
déterminer un résultat essentiel pour les méthodes de segmentation dans cette base de
représentation:

l’information de Teinte possède une fiabilité variable qui dépend du niveau


de corrélation inter-composantes du bruit et, surtout, du niveau de
Saturation.
On peut résumer ceci en définissant trois concepts sur la Saturation permettant de
caractériser la pertinence de la Teinte:

❏ Saturation “faible” ➾ Teinte non significative,

❏ Saturation “moyenne” ➾ Teinte peu significative,

❏ Saturation “forte” ➾ Teinte significative.


Cette pertinence variable de la Teinte en fonction du niveau de Saturation du pixel traité
devra être prise en considération dans l’élaboration des processus de segmentation des images
couleur dans cette base de représentation.

Page 37
Représentation Teinte - Luminance - Saturation

Page 38
CHAPITRE II

Segmentation couleur par fusion


numérique

Page 39
Segmentation couleur par fusion numérique

1 - Introduction

Une grande variété de techniques permet d’effectuer la segmentation d’images


monochromes. Elles sont généralement fondées sur la recherche de discontinuités locales
(détection de contours) ou sur la détection de zones de l’image présentant des caractéristiques
d’homogénéité (extraction de régions). Ces deux approches sont duales en ce sens qu’une
région définit une ligne par son contour et qu’un contour fermé définit une région. Elles
amènent cependant à des algorithmes différents et ne fournissent pas, en général, les mêmes
résultats.

La segmentation des images couleur s’appuie souvent sur les diverses techniques et
méthodes développées en traitement d’images en niveaux de gris. Elle peut également tirer
parti des concepts de l’analyse de données multi-dimensionnelles. Dans les deux cas, on
retrouve les approches duales contours et régions. Dans ce qui suit, diverses méthodes de
segmentation en couleur sont brièvement évoquées. Cette présentation ne se prétend pas
exhaustive, dans la mesure où la plupart des méthodes développées pour la segmentation en
niveaux de gris peuvent être plus ou moins transposées pour une application couleur.

1.1 - Approche contours

La détection de contours dans une image couleur peut être définie, de la même manière que
dans le cas des images en niveaux de gris, en excluant le cas des images texturées, comme la
recherche de discontinuités locales. La différence réside alors dans le fait que les discontinuités
doivent être recherchées dans les trois composantes de l’image couleur et non sur une seule
comme dans le cas d’image monochromatique On retrouve alors les deux approches suivantes:
❏ les approches basées sur le calcul des dérivées premières, appelées méthodes
du gradient
❏ les approches basées sur le calcul de la dérivée seconde directionnelle.

1.1.1 - Méthodes du gradient

L’espace de travail des différentes méthodes est, dans la plus part des cas, l’espace RVB. La
différence provient alors essentiellement de l’approche adoptée pour calculer les dérivées de
l’image couleur. On peut ainsi classer les méthodes en deux groupes:

❏ Les premières [NEV 77] [PIE 86], dites du gradient marginal, calculent dans
un premier temps un gradient pour chaque composante de manière indépendante en utilisant
des techniques issues de l’imagerie en niveaux de gris. Il faut ensuite fusionner pour chaque
pixel ces différents gradients pour obtenir l’image gradient couleur. Une solution envisageable

Page 41
Segmentation couleur par fusion numérique

afin d’obtenir le gradient couleur marginal G Coul consiste à prendre la somme vectorielle des
vecteurs gradients obtenus sur chaque composante R, V et B:

G Coul = G R + G V + G B (II.1)

x y
avec GR = G Rx + G Ry , etc...

Cette solution triviale donne de bons résultats dans la situation où tous les vecteurs gradient
ont le même sens. Mais, lorsque les vecteurs sont de même direction mais de sens opposés il y
a un effet de compensation atténuant alors fortement le gradient marginal. Une solution plus
intéressante peut être envisagée par la combinaison des modules des composantes des
gradients. Par exemple:

x x x x y
G Coul = G R + G V + G B , de même pour G Coul . (II.2)

Moyennant certaines corrections prenant en compte les signes des différentes composantes
x y
gradients, la direction peut être obtenue à partir des deux composantes G Coul et G Coul .

❏ Les secondes [ZEN 86] [NOV 87] [LEE 91] [CHA 91], dites du gradient multi-
composante ou gradient vectoriel, sont plus récentes. Elles prennent en compte la nature
vectorielle des images dans l’espace RVB, c’est-à-dire que le gradient est calculé globalement
sur l’ensemble des composantes. Leur caractéristique commune est une maximisation d’un
critère de distance, mesuré selon la norme L2, caractérisant la différence vectorielle dans
l’espace RVB. Les différentes méthodes proposées diffèrent selon la manière d’estimer cette
distance, mais fournissent des résultats identiques. on a ainsi:

1 2 2 
G Coul = ---  p + q + ( p + q ) – 4 ( pq – t )  (II.3)
2 

θ GCoul = --- arctg  ------------  (avec éventuelle correction de ± π ⁄ 2 )


1 2t
et (II.4)
2 p – q

∂R 2 ∂V 2 ∂B 2 ∂R 2 ∂V 2 ∂B 2
avec p =   +   +   , q =   +   +   et (II.5)
∂ x  ∂ x  ∂ x  ∂ y  ∂ y  ∂ y 

∂R ∂R ∂V ∂V ∂B ∂B
t = ⋅ + ⋅ + ⋅
∂x ∂y ∂x ∂y ∂x ∂y

Les performances de ces méthodes sont sensiblement supérieures aux méthodes marginales
surtout en présence de bruit non-corrélé altérant les composantes [ALS 94].

Dans les deux approches, la définition de la direction du gradient pour des images couleur
est plus délicate que dans le cas d’images en niveaux de gris. En effet, si dans une image à

Page 42
Segmentation couleur par fusion numérique

niveaux de gris la définition de la direction du gradient peut se faire sur un intervalle


d’amplitude 2π, elle ne peut se faire qu’à π près dans le cas d’image couleur puisque même
dans le cas d’un changement selon la même direction pour les trois composantes, les sens ne
sont pas forcément les mêmes et on peut difficilement décider entre l’un ou l’autre des deux
sens possibles.

Une fois l’image gradient calculée les contours sont obtenus en utilisant deux étapes
classiques en niveaux de gris détaillées dans [COC 95]:
❏ Une étape de suppression des non-maxima locaux de l’image gradient permet
d’affiner les résultats obtenus par le gradient en réduisant les contours à une
épaisseur de un pixel.
❏ Une seconde étape de seuillage par hystérésis, introduit par Canny, permet de
fournir des contours mieux fermés que ceux obtenus en utilisant un seuil
unique.

1.1.2 - Méthodes basées sur la dérivée seconde directionnelle

Comme pour les images monochromes, on peut obtenir directement les contours d’une
image couleur en utilisant une approche basée sur le calcul de la dérivée seconde
directionnelle. Proposée par Cumani en 1991 [CUM 91] et optimisée dans [ALS 93a]
[ALS 93b], cette approche consiste à estimer dans un premier temps la dérivée première du
module carré du gradient dans la direction du maximum de ce gradient obtenant ainsi la
dérivée seconde directionnelle. Puis, les contours sont définis par le passage par zéro de cette
dérivée seconde directionnelle. L’application de ces méthodes de détection de contours
impliquant des dérivées du premier et second ordre, il est nécessaire de procéder à une étape
préalable de filtrage afin de diminuer l’effet d’amplification du bruit inhérent à tout processus
de dérivation et susceptible d’engendrer des contours parasites. Dans [CUM 91] l’obtention de
la dérivée seconde directionnelle est réalisée en prenant l’estimation de la direction du gradient
donnée par la méthode de Di Zenzo [ZEN 86] associée à l’opérateur gradient Sobel, alors que
dans [ALS 93a] et [ALS 93b], la dérivée seconde directionnelle est calculée en se basant sur
l’intégration des opérateurs optimaux de Deriche [DER 87] [DER 90], permettant une
optimalité entre une bonne détection des contours et une bonne réduction du bruit. L’avantage
de ces techniques, par rapport aux techniques basées sur le gradient est l’obtention de contours
plus fins et mieux localisés, mais avec une sensibilité plus importante au bruit.

1.1.3 - Méthode proposée

La méthode de détection de contours couleur proposée dans [CAR 94] et décrite dans le
paragraphe 2, correspond à une approche du type gradient marginal. L’originalité de cette
méthode réside dans le fait que l’information de couleur est prise explicitement en considération
dans l’évaluation du gradient grâce à l’utilisation de la base TLS, alors que les méthodes
précédentes, par ailleurs généralisables à toute image multi-spectrale, ne prennent pas en
considération cette caractéristique fondamentale des images couleur.

Page 43
Segmentation couleur par fusion numérique

1.2 - Approche régions

La segmentation en régions est définie comme une partition de l’image, ceci au sens
topologique, pour laquelle chaque région, c’est-à-dire chaque ensemble de pixels, vérifie une
ou des propriétés ou prédicats d’homogénéité [BON 91]. La segmentation en régions est ainsi
un regroupement de pixels connexes ayant des attributs similaires (niveaux de gris, texture...),
dans le but de former des régions homogènes et cohérentes.

Dans le cas d’image couleur, l’attribut utilisé en l’occurrence est l’information chromatique.
A l’inverse de l’approche contours, où la recherche des discontinuités s’effectue dans la
majorité des méthodes employées dans l’espace RVB, la recherche de régions homogènes dans
une image couleur passe généralement par la recherche d’une métrique adéquate et donc
l’utilisation d’une autre base de représentation que la base RVB. Le travail effectué par Ohta
[OHT 80] est sans nul doute celui qui symbolise le mieux cette recherche. A partir des
composantes RVB, il obtient le système de coordonnées le plus discriminant pour l’image
traitée en effectuant une analyse en composantes principales par une transformation de
Karhunen-Loeve dynamique. Puis, à l’aide d’une analyse statistique sur plusieurs images, il en
déduit un système noté I1I2I3 qui est statistiquement le plus adapté pour rendre compte des
différences de couleur dans les images naturelles.

Les diverses méthodes existantes de segmentation en régions peuvent grossièrement se


classifier selon que le regroupement des pixels s’effectue sur une représentation intermédiaire
de l’image, le plus souvent l’histogramme, ou directement sur l’image elle même.

❏ Dans le premier cas, les méthodes peuvent être qualifiées de globales car les
pixels sont regroupés en régions en fonction de leurs propriétés, et de celles d’un très grand
nombre de pixels de l’image. On trouvera en grande majorité dans cette classe des techniques
de seuillage ou de multi-seuillage. On perd, provisoirement, avec ces méthodes la notion de
répartition spatiale.

❏ Dans le second cas, les méthodes peuvent être qualifiées de locales, car les pixels
sont regroupés en région en fonction de leurs propriétés, et de celles des pixels voisins. Même
si la notion de voisinage peut devenir très étendue lorsqu’une région prend de l’importance
dans l’image, la notion de répartition spatiale demeure conservée, alors que dans les méthodes
précédentes les pixels de l’images sont considérés dans leur globalité.

Une autre famille de méthodes utilisant le formalisme des champs markoviens est plus
récente. Dans ce cas l’image couleur est considérée comme un ensemble de trois images
monochromes couplées par l’intermédiaire de champs markoviens [DAI 89] [CHA 93]. Ces
approches donnent de bons résultats, mais nécessitent des techniques d’optimisation globale
(recuit simulé, technique de Monte-Carlo) qui sont très coûteuses en temps de calcul. Pour
cette raison nous ne nous intéresserons pas à cette approche.

Page 44
Segmentation couleur par fusion numérique

1.2.1 - Méthodes globales

On peut distinguer dans ces méthodes celles travaillant sur les histogrammes
mono-dimensionnels qui sont généralement des techniques de seuillage ou de multi-seuillage
telles celles de Ohlander [OHL 78] de Tominoga [TOM 86] ou de Miyawaki [MIY 90], de
celles travaillant sur des projections des histogrammes multi-dimensionnels qui sont
généralement des méthodes de détection de groupement (“clustering”) telles celles de Sarabi et
Aggarwal [SAR 81] ou de Celenk [CEL 86b] [CEL 88].

❏ les méthodes de seuillage sur les histogrammes des diverses composantes


colorimétriques ont été largement étudiées. Ohlander [OHL 78] utilise dans son processus
neuf composantes issues de trois repères de couleur (RVB, YIQ et TLS). La segmentation est
obtenue par un seuillage itératif effectué à chaque étape sur une composante qu’il convient de
déterminer selon que son histogramme présente, ou non, un pic prédominant séparable.
L’utilisation de diverses sources de données (dimension 9) augmente la probabilité
d’apparition d’un pic sur une des sources. La structure itérative permet de progresser des
grandes régions (pics importants) vers les régions plus petites. Tominoga [TOM 86] utilise une
base Teinte-Luminance-Saturation proche du système de perception définie par Munsell. Il
effectue ensuite un multi-seuillage récursif sur ces trois composantes. Le critère d’arrêt de la
récursivité est lié à l’unimodalité de l’histogramme. Miyawaki a proposé une méthode
[MIY 90] utilisant les repères RVB et TLS. Une première étape effectue suivant
l’histogramme de la composante Saturation un découpage de l’image en trois parties, une avec
un niveau de saturation élevé, une autre avec un niveau de saturation faible, et enfin une
troisième correspondant aux parties achromatiques. Pour chaque partie, Miyawaki définit la
composante la plus appropriée à la segmentation et il effectue ensuite une seconde étape de
seuillage sur cette composante afin d’obtenir la segmentation finale.

❏ Les méthodes de détection de groupements fonctionnent également à partir des


histogrammes de l’image couleur. On recherche des pics prépondérants pour former des
agglomérats de régions homogènes qui sont alors caractérisées par un centre et une forme.
Pour réduire le processus complexe de détermination des agglomérats dans un espace à trois
dimensions, A. Sarabi et K. Aggarwal [SAR 81] projettent l’histogramme de l’espace
normalisé (X,Y,I) sur des plans. Le critère d’appartenance à un agglomérat est obtenu par la
mesure d’une distance pondérée par les variances des objets contenus dans l’image. M. Celenk
[CEL 86b] [CEL 88] utilise les coordonnées cylindriques Teinte - Luminance - Saturation de
la base uniforme Lab. Les composantes sont alors projetées sur des droites afin de déterminer
les frontières des agglomérats à partir de l’histogramme mono-dimensionnel correspondant.

Comme nous l’avons déjà signalé, le défaut général de ces méthodes est qu’elles ignorent
dans un premier temps les propriétés spatiales des zones ainsi créées. Pour atténuer ce
problème, J. R. Beveridge [BEV 89] ou R. Schettini [SCH 93] proposent de faire suivre la
méthode de classification par une méthode de fusion des régions permettant de réintroduire
une information de localisation spatiale dans le processus de segmentation. Schettini utilise
comme base colorimétrique la représentation CIE-LUV. Il débute son processus de
segmentation par une classification basée sur une analyse récursive des histogrammes de

Page 45
Segmentation couleur par fusion numérique

chaque composante avec des paramètres choisis pour créer une sur-segmentation de l’image.
Dans une seconde phase, les régions obtenues par “clustering” sont fusionnées en utilisant un
graphe d’adjacence. Le critère d’agrégation retenu pour la fusion de deux régions voisines tient
compte des informations colorimétriques ainsi que de la longueur relative de leur frontière
commune par rapport à leur périmètre total.

1.2.2 - Méthodes locales

Ces méthodes utilisent aussi bien les caractéristiques spectrales que les relations spatiales
entre les points de l’image. On procède soit par divisions successives de l’image jusqu’à
l’obtention de régions homogènes (méthodes dites de division “Split”), soit par agrégation de
pixels connexes vérifiant un prédicat d’homogénéité (méthodes dites de fusion “Merge”).

❏ Chassery [CHA 84] propose un algorithme itératif d’agrégation de pixels, pour


la segmentation d’images de cellules vivantes, basé sur une mesure de distance couleur et un
prédicat de convexité qui permet d’arrêter le processus de segmentation. Le calcul de la
distance entre la couleur représentative de la région à faire croître et la couleur des pixels non
encore affectés à une région permet de sélectionner d’éventuels candidats à la croissance de la
région considérée. Ceux-ci ne lui seront réellement affectés que s’ils lui permettent
d’améliorer sa convexité. L’utilisation d’un critère de convexité des régions est lié au contenu
des images à segmenter, les cellules à isoler étant effectivement convexes. L’espace couleur
utilisé est très proche du système TLS définie précédemment mais il effectue préalablement
une transformation logarithmique sur les composantes R, V et B. La distance D entre deux
couleurs P1(T1, L1, S1) et P2(T2, L2, S2) est évaluée par la formule suivante:

S1 + S2 2
D (P 1,P 2) = ( L 1 – L 2 ) + ( S 1 – S 2 ) +  ------------------  ⋅ ( T 1 – T 2 )
2 2 2 2
(II.6)
 2 
❏ Une autre méthode courante de segmentation par croissance de région est
l’algorithme “Split-and-Merge” proposé par Horowitz et Pavlidis [HON 74] qui utilise une
structure pyramidale de tétra-arbre. L’algorithme se décompose en deux étapes successives.
Dans un premier temps, deux procédures duales de division et de fusion de régions sont mises
en jeu. Ces deux opérations agissent, de manière complémentaire, sur des zones dont la forme
est fixée a priori par la structure pyramidale du tétra-arbre. Quand aucune division ou fusion
n’est possible, l’algorithme passe à la seconde phase qui est une procédure de fusion plus
classique, permettant de remédier aux limitations des possibilités de fusion engendrés par le
découpage arbitraire de la structure du tétra-arbre. Elle permet ainsi de fusionner deux zones
voisines quelles que soient leurs tailles. Le critère d’homogénéité recherché pour une région
est généralement basé sur une mesure de variance inférieure à un seuil donné. On peut
retrouver une explication approfondie de cette technique dans le rapport d’Henri Maitre sur la
segmentation des images [MAI 90]. L’extension de ces algorithmes dans le cas de la couleur,
entraîne une généralisation des caractéristiques des régions et des prédicats homogénéité
utilisés au cas tri-dimensionnel. Une multitude de prédicat est envisageable. De plus ils
peuvent être différents entre les deux phases de l’algorithmes, conduisant ainsi à des
algorithmes différents:

Page 46
Segmentation couleur par fusion numérique

❏ Gershon [GER 87] construit un critère d’homogénéité basé sur la détection d’un
minimum séparant deux pics de l’histogramme d’une zone de l’image. Les histogrammes
n’étant utilisés que pour valider l’homogénéité d’une zone, on ne peut classer cette méthode
dans les approches globales. Si le rapport entre deux pics significatifs et la valeur minimum
entre ces deux pics dépasse un seuil fixé, alors le critère d’homogénéité est satisfait et une
phase de division ou de fusion est effectuée. Comme la segmentation s’effectue sur des images
couleur, le critère d’homogénéité est recherché dans un premier temps sur l’histogramme
d’une des composantes. Si il échoue, l’histogramme de la seconde composante est utilisé, et de
même avec la troisième composante. Ainsi, le critère d’homogénéité est mis en défaut
uniquement s’il ne répond pas aux trois composantes. Une décomposition en composantes
principales est utilisée (méthode de Karhunen-Loeve) pour déterminer l’espace de couleur le
plus approprié pour l’image considérée.

❏Coutance [COU 91] utilise les variances des composantes R, V et B de l’image


comme critère pour la division, et les moyennes comme critère de fusion dans un but d’analyse
d’images de scènes en robotique.

❏ Vinet [VIN 91] utilise uniquement un critère uniforme: une région est homogène
si la différence maximale entre les pixels qui la composent est inférieure à un seuil. Il compare
alors les résultats obtenus en travaillant dans la base RVB et dans l’espace YIQ. Il en conclut
que l’utilisation d’une représentation adéquate des images couleur, permet d’améliorer
sensiblement les résultats de la segmentation.

1.2.3 - Méthode proposée

La méthode de segmentation en régions proposée dans [LAM 91] [CAR 93a] et décrite
dans le paragraphe 3, correspond à une approche du type croissance de régions. L’originalité
de cette méthode réside dans le fait qu’elle combine les informations de Teinte et de
Luminance suivant la Saturation pour former un critère composite d’homogénéité permettant
ainsi l’utilisation de techniques de segmentation élaborées pour les images en niveaux de gris.

2 - Détection de contours couleur par un gradient marginal

Nous allons dans ce paragraphe étendre la définition des opérateurs contours basés sur le
gradient marginal aux images couleur représentées dans la base TLS qui est plus proche de la
perception humaine que la base RVB généralement utilisée.

Le paragraphe suivant décrit le principe de base de la fusion des informations provenant des
différentes composantes TLS. Avant de l’appliquer pour définir deux nouveaux détecteurs de
contours couleur au § 2.4, nous verrons aux § 2.2 et 2.3 les problèmes particuliers liés à
l’utilisation de la Teinte. Nous examinerons alors l’influence des paramètres de la méthode sur
le comportement des opérateurs. Nous évaluerons ensuite leurs performances en les comparant
à l’approche vectorielle dans RVB avant de présenter quelques applications à des images
réelles.

Page 47
Segmentation couleur par fusion numérique

2.1 - Principe de base

Le principe de base de la méthode proposée repose sur une fusion numérique des
informations de Luminance (notée IL) de Saturation (notée IS) et de Teinte (notée IT) en une
seule grandeur (notée M). Ce “mélange” des informations doit bien sûr être effectué d’une
manière cohérente avec la pertinence de la Teinte que nous avons caractérisée au chapitre
précédent. Ainsi, à faible niveau de Saturation, l’information apportée par la composante
Teinte ne doit pas influencer la grandeur M. A l’inverse lorsque la Saturation est forte,
l’information de Teinte est pertinente et elle doit être prise en considération dans la fusion des
différentes composantes. Deux approches peuvent alors être envisagées dans ce cas:

❏ L’information de Teinte est considérée comme un complément aux


informations de Luminance et de Saturation. Dans ce cas, la Teinte est
utilisée uniquement lorsqu’elle est pertinente.

❏ L’information de Teinte est privilégiée par rapport à la Luminance et la


Saturation. Dans ce cas, les informations de Luminance et de Saturation ne
sont prises en compte que lorsque la Teinte n’est pas pertinente.

D’un point de vue physique, cette dernière approche se justifie par le fait que la couleur est
souvent moins sensible aux variations d’éclairage que l’intensité. Le cas des ombres est
l’illustration de ce phénomène. De plus, on a constaté dans le chapitre précédent qu’à partir
d’un certain niveau de Saturation, l’information de Teinte est moins sensible aux bruits que les
autres composantes.

Il s’agit donc maintenant de réaliser ce mélange. La démarche consiste à pondérer


l’information de Teinte par un coefficient (noté α) qui doit être directement lié à la Saturation.
Pour les informations de Luminance et de Saturation, suivant l’approche considérée pour la
fusion, elles seront pondérées ou non, d’une manière antagoniste à la pondération de la Teinte,
suivant que l’on veuille ou non privilégier cette composante.

On peut alors exprimer le mélange M, suivant l’importance relative accordée à la Teinte par:

❏ Teinte complément d’information

M = α ⋅ IT + IL + IS (II.7)

❏ Teinte privilégiée

M = α ⋅ IT + (1 – α) ⋅ I L + (1 – α) ⋅ IS (II.8)

Nous avons construit le coefficient α, indicateur de la pertinence de la Teinte, comme une


fonction de la Saturation, évoluant entre 0 et 1, de manière à obtenir une transition souple entre
les concepts de Teinte pertinente et non pertinente. Cette fonction est définie algébriquement
par la relation suivante:

α ( S ) = 1 ⁄ π ⋅ [ π ⁄ 2 + arctg ( β ( S – S 0 ) ) ] (II.9)

Page 48
Segmentation couleur par fusion numérique

La figure II.1 donne un exemple de l’évolution de cette fonction quantifiant la pertinence de


la Teinte suivant le niveau de Saturation.
α(S)
1
β = β1
β = β2

0,5

0
S0 255 Saturation

Teinte non pertinente Teinte pertinente


α~0 α~1

Figure II.1: Fonction quantifiant la pertinence de la Teinte

L’évolution de α(S) est contrôlée par deux paramètres:

❏ S0: valeur de Saturation tel que α(S0) = 0,5; ceci permet de définir un niveau
de pertinence moyen de la Teinte lié à un niveau de Saturation.
❏ β: règle la pente de la fonction autour du niveau S0; Il permet le choix depuis
la transition brutale en échelon jusqu’à l’évolution en rampe, en passant par
toutes les transitions souples comme celles de la figure ci-dessus. C’est ce
paramètre qui permet de doser le mélange dans les situations où la pertinence
accordée à l’information de Teinte est moyenne.
Nous reviendrons plus loin sur l’incidence de ces paramètres de réglage.

Voici posées les bases de cette segmentation en contours par fusion numérique des
composantes de la base TLS. Il faut maintenant préciser la manière dont vont être construites
les informations liées à chaque composante. Ces informations, dans le cas de contours sont
basées sur des mesures de différences. Pour la Luminance et la Saturation, on peut utiliser une
simple différence signée. Pour la Teinte, le calcul demande certaines précautions.

2.2 - Définition d’une différence signée pertinente entre deux Teintes

Il se pose deux problèmes distincts pour définir une telle différence: la mesure de l’écart
entre deux valeurs de Teinte et la prise en considération de la pertinence ou non de cette écart.

2.2.1 - Mesure de l’écart entre deux valeurs de Teinte

Comme nous l’avons déjà évoqué, la définition d’une mesure d’écart entre les informations
de Teinte de deux pixels doit prendre en compte la nature circulaire de cette composante. On

Page 49
Segmentation couleur par fusion numérique

doit prendre également en considération le fait que les relations entre les couleurs (rouge,
jaune,...) et leurs valeurs numériques sont arbitraires. Par exemple il n’y a pas de raison
d’obtenir une différence plus importante entre le rouge et le cyan qu’entre le rouge et le vert.
Ceci implique que la valeur numérique du gradient rouge/cyan doit être identique à celle du
gradient rouge/vert.

Le problème de la représentation circulaire est facilement résolu en calculant une différence


modulo 255. Pour le signe, on suit les conventions trigonométriques. Cette différence signée
entre deux informations de Teinte T1 et T2 sera alors notée par T 1 – T 2 255

Une solution au second problème consiste à écrêter la différence au delà d’un certain seuil.
Le seuil noté ∆Tmax est défini en calculant la différence de Teinte entre deux sommets
consécutifs du cube des couleurs dans la base initiale RVB. Avec la représentation choisie, la
valeur numérique de ce seuil est alors de 42 (cf. § 1.1 de l’ANNEXE B). La figure II.2 montre
l’évolution de cet écart signé noté δ(T1,T2) entre deux Teintes T1 et T2.

δ (T1,T2)

∆Tmax

T1 – T2 255

-128 - ∆Tmax 0 ∆Tmax 128

- ∆Tmax

Figure II.2: Ecrêtage de la différence de Teinte

Ainsi nous pouvons définir un écart signée de Teinte par:

Si T1 – T2 255
≤ ∆T max Alors

δ (T 1,T 2) = T1 – T2 255

Sinon
Si T1 – T2 255
≥0 Alors

δ (T 1,T 2) = + ∆T max

Sinon
δ (T 1,T 2) = – ∆T max

Page 50
Segmentation couleur par fusion numérique

2.2.2 - Prise en compte de la pertinence de la Teinte

L’évaluation de la pertinence de l’écart des Teintes T1 et T2 entre deux pixels de Saturation


respective S1 et S2 doit simultanément prendre en compte la pertinence de la Teinte de chacun
des deux pixels α(S1) et α(S2). Une des solutions consiste à calculer la moyenne géométrique
entre ces deux coefficients. Ainsi, la pertinence de l’écart de Teinte sera une fonction (notée p)
liée au niveau de Saturation des deux pixels traités tel que:

p (S 1,S 2) = α ( S1 ) ⋅ α ( S2 ) (II.10)

La figure II.3 montre un exemple de l’évolution de ce coefficient en utilisant la fonction


quantifiant la pertinence de la Teinte de la figure II.1.

p(S1,S2)

1 1

0.5 0.5

0 0

S2 S1

250 250
S0 S0
0

Figure II.3: Exemple d’évolution de p(S1,S2)

Le rôle de ce coefficient est de pondérer l’écart entre deux Teintes afin d’obtenir une
différence pertinente. Comme le montre la figure II.3, la différence est pertinente uniquement
dans le cas où les niveaux Saturations des deux pixels sont élevés. C’est le seul cas où la
mesure d’un écart de Teinte est significatif, et où son utilisation dans le calcul d’un gradient
couleur est fiable.

Ainsi, la différence signée pertinente entre deux grandeurs de Teinte notée ∆T(T1,T2) est
définie par la formule suivante:

∆T (T 1,T 2) = p (S 1,S 2) ⋅ δ (T 1,T 2) (II.11)

dans laquelle δ(T1,T2) représente l’écart de Teinte présenté au paragraphe précédent.

Page 51
Segmentation couleur par fusion numérique

2.3 - Définition d’un opérateur gradient sur la composante Teinte

Les opérateurs gradients utilisant des différences entre les niveaux effectuent généralement
un lissage local afin de réduire les effets du bruit. Par exemple l’opérateur de Sobel pour les
images à niveaux de gris effectue un filtrage séparable en utilisant deux masques de
convolution de taille 3x3 (notée Gx et Gy sur la figure II.4).

-1 xc 1 xc -1 xc 1

-1 1 0 -1 yc -1 1 2 1
yc 2 0 -2 Pixel traité yc 0 0 0
1 1 0 -1 x 1 -1 -2 -1

Gx x: coefficient du pixel Gy

Figure II.4: Masque de convolution de l’opérateur de Sobel

Le module G du gradient et sa direction θ se calculent par:

Gy
G x + G y , θ = arctg  ------ 
2 2
G =
Gx

Il est possible en utilisant la définition précédente de la différence de Teinte (∆T(T1,T2)) et


en prenant quelques précautions dans la manière d’organiser les opérations, d’étendre la
définition de l’opérateur de gradient Sobel à la définition d’un opérateur gradient sur la
T T
composante Teinte. Ainsi, les deux composantes (notées G x et G y ) du gradient de Teinte
sont définies par:

T
G x (y c ,x c) = ∆T ( T –1 , –1 , T –1, 1 ) + 2 ⋅ ∆T ( T 0 , –1 , T 0 ,1 ) + ∆T ( T 1, –1 , T 1 , 1 ) (II.12)

et

T
G y (y c ,x c) = ∆T ( T –1 , –1 , T 1, –1 ) + 2 ⋅ ∆T ( T –1, 0 , T 1, 0 ) + ∆T ( T –1, 1 , T 1 , 1 ) (II.13)

Dans le cas où les différences de Teinte ne sont pas ou peu pertinentes, leurs valeurs
numériques sont faibles, et de ce fait les valeurs des deux composantes du gradient sont
également faibles. En fait, une valeur forte de gradient de Teinte (indiquant la présence d’un
contour) n’est possible que si une différence de Teinte est pertinente, c’est-à-dire que les deux
pixels qui la composent ont un niveau de pertinence élevé. Ainsi, dans le cas d’une transition
entre une zone achromatique et une zone chromatique, le gradient de Teinte sera nul. Ceci est
cohérent puisqu’il n’est pas possible de quantifier une mesure de variation de Teinte entre un
pixel possédant une caractéristique de couleur et un autre pixel n’en possédant pas.

Page 52
Segmentation couleur par fusion numérique

On remarquera dans les Eq. II.12 et II.13, du fait des non-linéarités (écrêtage, pondération)
intervenant dans le calcul des différences de teinte, les sommations, qui assurent l’effet de
lissage ne peuvent être effectuées avant le calcul de la différence comme on le fait
communément en niveaux de gris.

A partir de cette définition d’un gradient de Teinte il est maintenant possible de construire
un détecteur de contours couleur en utilisant une méthode par fusion marginale des gradients
des différentes composantes.

2.4 - Détecteurs de contours couleur

Comme cela a été évoqué dans le paragraphe 2.1 à propos du principe de base de la
segmentation, l’importance accordée à la composante Teinte par rapport à la Luminance et à la
Saturation va nous permettre de définir deux types de détecteur de contours couleur. Le
premier n’accorde pas plus d’importance à la Teinte. Le second, au contraire, privilégie les
Teintes pertinentes. Le choix de l’utilisation de l’un ou l’autre des opérateurs dépend alors du
contexte de l’acquisition et des résultats attendus.

2.4.1 - Détecteur utilisant la Teinte comme complément d’information


(Sobel TLS)

T T
Les deux composantes du gradient de Teinte, G x et G y , étant définies comme
L L
précédemment, les composantes du gradient Luminance (notées G x et G y ) et les
S S
composantes du gradient de Saturation (notées G x et G y ) sont calculées classiquement par
l’opérateur de Sobel.

TLS TLS
Les composantes horizontales et verticales du gradient couleur (notées G x et G y )
sur la base TLS et utilisant la Teinte comme complément d’information sont définies comme
suit:

TLS T L S
Gx = Gx + Gx + Gx (II.14)

et

TLS T L S
Gy = Gy + Gy + Gy (II.15)

Le sens de variation pouvant être différent d’une composante à l’autre, la valeur absolue est
alors utilisée pour éviter d’éventuelles compensations entre les différents gradients.

Le module GTLS est alors obtenu par la formule classique:

TLS TLS 2 TLS 2


G = ( Gx ) + ( Gy ) (II.16)

Page 53
Segmentation couleur par fusion numérique

Il est à noter que l’information de Teinte vient bien en complément des informations de
Luminance et de Saturation uniquement lorsqu’elle est pertinente. Ainsi la valeur du gradient
sera augmentée uniquement dans le cas d’une transition entre deux zones colorées assurant
alors une meilleure extraction du contour.

2.4.2 - Détecteur privilégiant l’information de Teinte (Sobel Couleur)

Dans cette stratégie, les informations de Saturation et de Luminance sont prises en


considération uniquement dans le cas où l’information de différence de Teinte n’est pas
pertinente. La quantification de la pertinence de l’écart de Teinte étant réalisée par la fonction
p(S1,S2) (c.f. Eq. II.10)) la non pertinence (notée p ) peut être définie par la fonction suivante:

p (S 1,S 2) = 1 – p (S 1,S 2) (II.17)

La figure II.5 montre un exemple de l’évolution de ce coefficient

p (S 1,S 2)

1 1
0.5 0.5
0 0
S2 S1
250 250

100 100

Figure II.5: Exemple d’évolution de p (S 1,S 2)

C’est ce coefficient p , opérant de manière antagoniste au coefficient de pertinence de la


Teinte, qui va pondérer les différences de Luminance et de Saturation dans le calcul des
composantes horizontales et verticales des gradients de Luminance et de Saturation.

L L
Les composantes G x et G y du gradient de Luminance sont alors obtenues à l’aide des
S S
équations II.18 et II.19. Il en est de même pour les composantes G x et G y du gradient de
Saturation.

Page 54
Segmentation couleur par fusion numérique

L
G x (y c ,x c) = p ( S –1, –1 , S –1, 1 ) ⋅ L –1, –1 – L –1, 1
+ 2 ⋅ p ( S 0, –1 , S 0, 1 ) ⋅ L 0, –1 – L 0, 1

+ p ( S 1, –1 , S 1, 1 ) ⋅ L 1, –1 – L 1, 1
(II.18)
L
G y (y c ,x c) = p ( S –1, –1 , S 1, –1 ) ⋅ L –1, –1 – L 1, –1
+ 2 ⋅ p ( S –1, 0 , S 1, 0 ) ⋅ L –1, 0 – L 1, 0

+ p ( S –1, 1 , S 1, 1 ) ⋅ L –1, 1 – L 1, 1
(II.19)
C C
Les composantes horizontale et verticale du gradient couleur (notées G x et G y )
privilégiant l’information de Teinte sont alors définies de la même manière que pour le
détecteur de contours utilisant la Teinte comme complément d’information (c.f. Eq. II.14 et
II.15). Il en est de même pour la définition du module GC du gradient couleur (c.f. Eq. II.16).

Dans des zones de l’image possédant une forte chrominance, la détection des éventuels
contours ne s’effectuera que sur la composante Teinte qui est, dans ce cas, un attribut plus
stable que la Luminance ou la Saturation, les éventuels contours détectés sur ces deux
composantes ayant alors une contribution faible.

Il est à noter que comme la composante Saturation n’intervient plus dans ce cas, il n’y aura
pas de contour entre deux zones ayant des teintes identiques, pertinentes et de Saturation
différentes (exemple une zone rouge et une zone rose).

2.4.3 - Estimation de la direction du gradient couleur

La direction du gradient est une notion essentielle pour certaines étapes de traitement
ultérieures telles que la détection des maxima locaux ou le suivi de contours. Dans le cas des
images à niveaux de gris, la direction du gradient est définie sur l’intervalle 0 à 2π, avec une
indétermination lorsque le module du gradient est nul. Cette indétermination n’est pas critique
pour la suite du traitement de l’image puisque le gradient étant nul, le pixel considéré n’est
donc pas un point de contour.

Dans le cas des images multi-spectrales, la détermination de la direction du gradient est plus
délicate. Avec les approches vectorielles suivant les méthodes de Di Zenzo, de Novak et Shafer
ou encore de Lee et Cok, il y a une ambiguïté et des indéterminations de la direction du
gradient. L’ambiguïté de π sur la définition de cette direction est inhérente à la situation multi-
spectrale. Cette ambiguïté dans le sens du gradient ne pose pas nécessairement de problème en
particulier pour l’extraction des points de contour à partir de l’image gradient. Le cas des
indéterminations est, quant à lui, plus problématique puisque ces dernières interviennent dans
des situations où la valeur du module du gradient n’est pas forcément nulle. Alshatti dans
[ALS 94] propose deux méthodes pour résoudre ce problème. L’une, très radicale, consiste à

Page 55
Segmentation couleur par fusion numérique

ne pas tenir compte des pixels dont la direction du gradient est indéterminée pour le processus
d’extraction des points de contours. La seconde, permet de lever l’indétermination en utilisant
une autre formulation pour l’estimation de la direction du gradient.

Dans le cas des approches gradients marginals, l’estimation de la direction du gradient peut
être réalisée en prenant par exemple la direction correspondant à la composante de gradient
maximum ou bien une somme pondérée des directions obtenues sur chaque composante. Il ne
persiste alors que l’indétermination dans le sens du gradient. En effet, même si, dans une
situation idéale, les changements sur les différentes composantes se font tous selon une même
direction, les sens bien sûr ne sont pas forcément les mêmes et il n’est pas simple de décider
entre l’un ou l’autre des deux sens possibles.

Nous avons choisi dans notre cas de prendre comme direction du gradient couleur, la
direction donnée par la composante de gradient maximum. Cette méthode est plus simple à
mettre en oeuvre et ne demande pas la définition de nouveaux coefficients. Bien évidemment,
la direction du gradient ne peut être définie qu’à π près.

2.5 - Influence des paramètres

La fonction de pertinence de la Teinte dépend de la Saturation et permet une transition


souple entre les notions de Teinte significative (correspondant à une forte Saturation) et non
significative (Saturation faible). Deux paramètres de réglage, S0 et β, permettent d’ajuster cette
fonction.

2.5.1 - Influence et choix de S0

S0 est la valeur de Saturation entraînant un niveau de pertinence moyen de la composante


Teinte (α(S0) = 0.5). Ce paramètre correspond donc à la notion, floue il est vrai, de Saturation
moyenne. Le choix de la valeur numérique dépend de deux critères:
❏ Le premier est indépendant de l’image à traiter et est lié à la transformation utilisée pour
passer d’une représentation de la couleur dans l’espace RVB vers TLS. Lors de cette
transformation, on a constaté que, dans le cas d’un bruit de type additif sur les composantes
R,V et B de l’image, au dessus d’un niveau de Saturation de 50 le bruit était atténué (c.f. figure
I.23 p. 35). Le choix d’une valeur de S0 de 50 va ainsi assurer une moins grande sensibilité aux
bruits lors de l’utilisation de cette composante que si l’on utilisait les composantes R,V et B.
❏ Le second, dépendant de l’image à traiter, est moins primordial. On peut observer la
nature de la distribution de la Saturation. Si il existe un minimum dans l’histogramme
correspondant à un niveau de Saturation proche de 50, cette valeur sera choisie pour S0.

En dessous de S0, la Teinte sera moins ou peu fiable. Son influence dans le processus de
segmentation sera donc moins importante. C’est le second paramètre β qui permet de doser
cette influence.

Page 56
Segmentation couleur par fusion numérique

2.5.2 - Influence et choix de β

Ce paramètre β, évoluant entre 0 et 1, règle la forme de la courbe α(S). Les figures ci-
dessous résument brièvement la manière dont agit β.

Situation A: Situation B: Situation C:


β=1 β = 0.1 β = 0.01
α α α
1 1 1

0.5 0.5 0.5

S S S
0 S0 255 0 S0 255 0 S0 255

Figure II.6: Influence de β sur la courbe α(S)

L’étude de l’influence de β et surtout le choix d’une valeur numérique sont plus délicates et
doivent être reliés à la forme de l’histogramme de la Saturation autour de la valeur S0.

❏ La situation A, assimilable à un seuillage, est brutale. Elle peut être envisageable dans le
cas où l’histogramme de la Saturation autour de S0 présente un minimum autour de S0,
permettant de délimiter nettement des zones non saturées. En dehors de cette situation
particulière, une telle évolution de α(S) rend trop critique le choix de S0 et accentue l’influence
du bruit pour les saturations voisines de S0.

❏ La situation C est intéressante, puisque l’on est proche d’une relation linéaire entre la
pertinence de la Teinte et la Saturation. Mais on risque d’accorder trop d’importance aux
Teintes faiblement saturées donc très bruitées et peu fiables comme nous l’a montrée l’étude
précédente sur l’influence du bruit sur les composantes TLS.

❏ La situation B semble être le bon compromis permettant d’atténuer l’importance du choix


de la valeur du paramètre S0. On assure ainsi un mélange cohérent entre Teinte, Luminance et
Saturation dans le cas du détecteur de contours privilégiant l’information de Teinte.

La figure II.7 donne un exemple de réglage moyen des paramètres.


α (S)
1

0.8

0.6
S0 = 50
0.4 β = 0,07
0.2

0
0 10 20 30 40 50 60 70 80 90 100 120 140 160 180 200 220 240 S

Figure II.7: Exemple de réglage de α et β

Page 57
Segmentation couleur par fusion numérique

2.6 - Evaluation comparative des performances

Afin de juger des performances de notre détecteur de contour nous allons utiliser des
critères quantitatifs appliqués aux images synthétiques bruitées, présentés dans le § 2.6.1. Les
critères sont:

❏ les courbes opérationnelles donnant la probabilité de détection (PD) en fonction de la


probabilité de fausse alarme (PF),

❏ l’Erreur Quadratique Moyenne (EQM) sur l’estimation de la direction du gradient.

Pour situer les performances des détecteurs proposés, nous les comparerons à celles d’un
opérateur gradient vectoriel travaillant dans l’espace RVB (voir § 1.1.1 de ce chapitre) et
utilisant les masques de Sobel. Cet opérateur avait été utilisé par Coutance [COU 89] pour
calculer un gradient couleur multi-image pour de la stéréovision.

2.6.1 - Les images synthétiques

Nous avons utilisé des images synthétiques tests constituées de rampes verticales d’une
largeur d’un pixel dont l’orientation est verticale. Les conditions expérimentales permettent de
contrôler:

❒ la corrélation (inter-composantes) du bruit. On a en effet constaté


précédemment que, à niveau de bruit constant, la Teinte est moins bruitée s’il
y a corrélation du bruit entre composantes,
❒ le niveau du bruit ajouté aux images test afin de maintenir un rapport signal
sur bruit constant dans la base RVB (cf ANNEXE A) pour toutes les images,
❒ les amplitudes de l’échelon dans les trois plans.
Ce dernier point est essentiel pour nos méthodes travaillant dans la base TLS. En effet il est
intéressant de pouvoir envisager des Teintes de Saturations différentes, mettant en évidence
l’intérêt de la prise en compte de la pertinence de la Teinte. Ainsi nous avons envisagé trois
niveaux de Saturation (faible, moyen et fort) pour les images synthétiques qui sont alors créées
dans la base TLS. Après avoir calculé les composantes Rouge, Verte et Bleue correspondantes,
on ajoute un bruit blanc gaussien. Trois types de corrélation ρ inter-composantes du bruit sont
envisagés (ρ=0: pas de corrélation, ρ=0,5: moyennement corrélé et ρ=1: totalement corrélé).
Ces images RVB bruitées vont servir à étudier les performances de l’opérateur gradient
vectoriel. Après transformation, nous obtenons les composantes bruitées Teinte, Luminance et
Saturation qui vont être utilisées par notre opérateur gradient dans la base de représentation
TLS.

C’est ainsi 9 (3 niveaux de Saturation x 3 niveaux de corrélation envisagés) images


synthétiques qui vont être utilisées dans les deux bases de représentation pour tester les
performances.

Le schéma de la figure II.8 résume le principe de la création d’une image test.

Page 58
Segmentation couleur par fusion numérique

N1 N2

TLS -> RVB

N1 + N2
2

Image synthétique dans TLS Composantes RVB


permettant de contrôler Ajout d’un avec un type de
le niveau de Saturation bruit blanc corrélation
gaussien donné

TLS <- RVB

Image TLS bruitée Image RVB bruitée


utilisée par les opérateurs utilisée par l’opérateur
gradient couleur gradient vectoriel
Figure II.8: Création d’une image test

2.6.2 - Evaluation de la robustesse des contours détectés

On sait que le problème de la détection de contours en présence de bruit peut être considéré,
d’une manière générale, comme un problème de test d’hypothèse:

le pixel appartient-il au contour?

Pour les méthodes basées sur le gradient, la réponse est contrôlée par une étape de seuillage.
Le choix du seuil joue un rôle critique entre la non-détection de certains contours pour un seuil
trop fort, et la détection de faux contours causés par le bruit pour un seuil trop faible. Cette
sensibilité de l’opérateur gradient, en présence de bruit, vis-à-vis du choix de seuil peut être
caractérisée et étudiée par l’évolution de la probabilité de détection (PD) en fonction de la
probabilité de fausse alarme (PF). Si A désigne un pixel dont le module du gradient est G A ,
ces probabilités sont définies par:
P D = prob ( G A ≥ seuil ( A ∈ contour ) )
P F = prob ( G A ≥ seuil ( A ∉ contour ) )

Ceci signifie que les pixels du plan contour seront répartis en deux classes, et l’erreur de
mauvaise classification d’un pixel sera exprimée par:
P ( erreur ) = [ 1 – P D ]prob ( A ∈ contour ) + [ P F ]prob ( A ∉ contour )

On peut remarquer que pour minimiser la probabilité de l’erreur, il faut que PD ait une
valeur proche de 1. Le détecteur idéal possède une valeur de PD égale à 1 quelle que soit la
valeur de PF.

Page 59
Segmentation couleur par fusion numérique

Les courbes ci-dessous, figure II.9 à figure II.11, présentent les résultats obtenus, avec un
RSB de 2, sur les différentes images tests avec l’opérateur vectoriel (Sobel Vectoriel),
l’opérateur gradient couleur utilisant la Teinte comme complément d’information (Sobel TLS)
et enfin l’opérateur privilégiant l’information de Teinte (Sobel Couleur) lorsqu’elle est
pertinente. Les calculs de PD et PF se font pour un grand nombre de réalisations (10000), et un
seuil variant entre 0 et une valeur maximale pour laquelle on obtient PF=0.
PD PD PD
1 1 1

0.8 0.8 0.8

0.6 0.6 0.6

0.4 0.4 0.4

0.2 0.2 0.2

0 0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
PF PF PF
a: bruit non corrélé b: bruit moyennement corrélé c: bruit totalement corrélé
Sobel TLS Sobel Couleur Sobel Vectoriel

Figure II.9: PD(PF) pour des Saturations faibles


PD PD PD
1 1 1

0.8 0.8 0.8

0.6 0.6 0.6

0.4 0.4 0.4

0.2 0.2 0.2

0 0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
PF PF PF
a: bruit non corrélé b: bruit moyennement corrélé c: bruit totalement corrélé
Sobel TLS Sobel Couleur Sobel Vectoriel

Figure II.10: PD(PF) pour des Saturations moyennes

PD PD PD
1 1 1

0.8 0.8 0.8

0.6 0.6 0.6

0.4 0.4 0.4

0.2 0.2 0.2

0 0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
PFf PF PF
a: bruit non corrélé b: bruit moyennement corrélé c: bruit totalement corrélé
Sobel TLS Sobel Couleur Sobel Vectoriel

Figure II.11: PD(PF) pour des Saturations fortes

Page 60
Segmentation couleur par fusion numérique

Lorsque les bruits sont non corrélés, quelle que soit la Saturation, l’opérateur Sobel
Vectoriel est moins sensible au bruit que les opérateurs Sobel TLS et Sobel Couleur qui se
comportent sensiblement de la même manière. C’est en effet dans cette situation que la prise
en compte du contexte vectoriel permet au Sobel Vectoriel d’atteindre ses meilleures
performances.

A l’inverse, lorsque les bruits sont totalement corrélés, le Sobel Vectoriel a des
performances moyennes alors que les Sobel TLS et Sobel Couleur montrent de bonnes ou de
très bonnes performances. Pour le Sobel Couleur, les performances sont d’autant meilleures
que le niveau de Saturation est élevé. Ceci tient au fait que l’on utilise alors essentiellement la
Teinte qui est, dans cette situation, peu sensible au bruit. Pour le Sobel TLS, les résultats sont
sensiblement identiques quelle que soit la Saturation, car le bruit n’affecte alors que la
composante Luminance.

A corrélation moyenne, lorsque la Saturation est faible, les performances sont voisines. La
supériorité du Sobel Couleur est plus marquée au fur et à mesure que le niveau de Saturation
croît.

2.6.3 - Evaluation de l’estimation de la direction du gradient

2.6.3.1 - Conditions d’évaluations


L’information de direction du gradient représente une notion essentielle pour certaines
étapes ultérieures du traitement d’images telles que la fermeture ou le suivi des contours. Il
faut alors que l’opérateur gradient fournisse également une estimation robuste vis-à-vis du
bruit altérant les images. Rappelons aussi que l’estimation de la direction du gradient dans le
cas des images multi-spectrales n’est définie qu’à π près.

Le critère retenu pour évaluer quantitativement cette robustesse est l’Erreur Quadratique
Moyenne (EQM), définie par:

∑ ( θ̂k – θ )
2
1
EQM = ---- (II.20)
K k=1

où θ est l’orientation réelle du contour connue a priori, θ̂ k est la valeur estimée de la


direction du gradient en un pixel donné pour la kième réalisation, et K le nombre total de
réalisations du bruit considéré. A travers les différents essais effectués, on constate que l’EQM
est pratiquement constante et indépendante de l’orientation initiale du contour. Dans la suite
cette orientation est fixée à 30˚. D’autre part, les estimations sont faites sur des échantillons de
taille 10000 avec un rapport signal/bruit de 5.

Pour les deux méthodes que nous proposons, l’information de direction du gradient est
calculée sur la composante (Teinte, Luminance ou Saturation) ayant la contribution la plus
importante au module du gradient (voir § 2.4.3). Avec cette définition de la direction et pour

Page 61
Segmentation couleur par fusion numérique

que les comparaisons faites dans les tests soient aussi pertinentes que possibles, les amplitudes
des échelons sur chaque composante Teinte, Luminance et Saturation seront identiques
(amplitude de 20 pour tous les tests). On évite ainsi de privilégier une composante vis-à-vis des
autres.

Dans les tableaux qui suivent, en plus des résultats concernant les trois méthodes que nous
comparons, nous présentons les EQM mesurées sur chacune des composantes T, L et S.

Pour maintenir le RSB constant à travers les différentes expériences, il faut jouer sur les
variances des bruits altérant chaque composante (voir ANNEXE A). La comparaison des EQM
sur les différentes composantes n’est donc exploitable que sur une même ligne d’un même
tableau.

2.6.3.2 - Résultats expérimentaux

Corrélation EQM
EQM EQM EQM EQM EQM
inter- calculée
“Sobel “Sobel “Sobel calculée sur calculée sur
composantes sur
Vectoriel” TLS” Couleur” la Luminance la Saturation
du bruit la Teinte
SIGNIFICATIVE
nul 13,2 17,9 17,8 13,6 42,8
NON

moyenne 16,7 19,8 19,7 19,7 31,5

total 19,5 16,3 16,2 24,9 1,1

Tableau II.1: EQM pour des contours à Saturation faible

Pour ces images test, l’information de Teinte n’est pas pertinente (Saturation faible), la
contribution de celle-ci au module du gradient sera faible (voir nulle); les valeurs de l’EQM
calculée sur la composante Teinte ne sont donc pas à prendre en considération. Les résultats
fournis par les deux opérateurs proposés sont ainsi identiques puisque la Teinte n’étant pas
pertinente, elle ne sera pas privilégiée.

Corrélation
EQM EQM EQM EQM EQM EQM
inter-
“Sobel “Sobel “Sobel calculée sur calculée sur calculée sur
composantes
Vectoriel” TLS” Couleur” la Teinte la Luminance la Saturation
du bruit

nul 13,2 23,5 25,9 30,8 15,6 33,8

moyenne 15,3 20,3 21,1 21,8 22,7 24,4

total 17,1 17,9 17,8 0,9 28,2 1,2

Tableau II.2: EQM pour des contours à Saturation moyenne

La pertinence moyenne de l’information apportée par la Teinte va diminuer la valeur du


gradient dans cette composante. Ainsi, sur ces images tests, les deux opérateurs ont une EQM
voisine, le gradient de Teinte demeurant presque toujours inférieur au gradient de Luminance
et au gradient de Saturation.

Page 62
Segmentation couleur par fusion numérique

Corrélation
EQM EQM EQM EQM EQM EQM
inter-
“Sobel “Sobel “Sobel calculée sur calculée sur calculée sur
composantes
Vectoriel” TLS” Couleur” la Teinte la Luminance la Saturation
du bruit

nul 13,2 28,4 17,5 17,4 21,3 39,9

moyenne 13,3 23,9 11,8 11,8 30,0 31,9

total 13,8 24,0 1,3 1,2 35,4 1,5

Tableau II.3: EQM pour des contours à Saturation forte

L’information de Teinte étant ici pertinente, on a de ce fait une différence assez importante
entre les EQM des deux opérateurs proposés. En privilégiant l’information de Teinte, le
module de son gradient est alors supérieur aux modules des gradients de Luminance et de
Saturation. Ainsi l’opérateur Sobel Couleur a une EQM beaucoup plus faible que l’opérateur
Sobel TLS puisqu’elle est calculée, dans la majorité des cas, sur la composante Teinte qui
possède alors une forte robustesse vis-à-vis du bruit.

2.6.3.3 - Commentaires
Tant que le bruit n’est pas totalement corrélé, la direction est mieux estimée par le Sobel
Vectoriel. Ceci tient au fait que cette direction est celle qui maximise le gradient mesuré sur
l’ensemble des composantes alors que dans les deux autres méthodes cette direction est celle
obtenue sur une seule des composantes. Dans ces mêmes conditions, le Sobel Couleur donne
une estimation de la direction d’autant plus fiable que le niveau de Saturation augmente (la
teinte est en effet d’autant moins bruitée). A l’inverse, les performances du Sobel TLS
diminuent lorsque la Saturation croît (la contribution de la Teinte croît en même temps, et ne
peut que dégrader l’estimation).

Lorsque le bruit est totalement corrélé, les performances sont sensiblement toutes
identiques tant que la Saturation reste faible ou moyenne. Par contre, à Saturation forte le
Sobel Couleur fournit une très bonne estimation de la direction car la Teinte, privilégiée alors,
est peu bruitée.

En conclusion de cette étude, le choix de calculer la direction du gradient sur la composante


ayant la contribution la plus importante au module du gradient n’est pas, dans tous les cas, le
plus approprié. Du fait de la non connaissance du type de corrélation inter-composantes du
bruit, il serait préférable d’adopter la stratégie suivante:

Si le gradient Teinte est fort alors θCoul = θT sinon


Si le gradient Luminance est fort alors θCoul = θL sinon
Si le gradient Saturation est fort alors θCoul = θS sinon
pas de direction

Avec cette stratégie il reste à définir, à l’aide de seuils, ce que l’on appelle un gradient fort.

Page 63
Segmentation couleur par fusion numérique

2.7 - Applications sur des images

Nous présentons des applications sur la détection de contours dans des images couleur
réelles. Pour des raisons de reprographie, les images originales en couleur sont présentées dans
l’ANNEXE E.

Au trois approches déjà présentées (Sobel Vectoriel, Sobel TLS, Sobel Couleur), nous
ajouterons les résultats du gradient calculé à partir de l’image d’intensité à l’aide d’un
opérateur de type Sobel (Sobel Luminance). Les images contours sont obtenues par une
recherche des maxima locaux suivie d’un simple seuillage. Pour obtenir des résultats
indépendants du choix du seuil, celui-ci est déterminé, pour chaque image, d’une manière
automatique par le calcul du “Pseudo-Centroïd” [TAO 93] détaillé dans le § 2 l’ANNEXE B.

La figure II.12 montre les résultats obtenus sur une image présentant une ‘Carte de la
France’, digitalisée par un scanner couleur, où l’on retrouve la répartition des régions cultivées
(image “Agriculture”). Cette image comporte des transitions ayant des orientations assez
variées et des régions adjacentes ayant de faibles contrastes (voir flèches ❶ et ❷ sur image a).
Les résultats montrent que l’image des contours obtenue par le Sobel Luminance (image b) est
insatisfaisante car plusieurs régions sont fusionnées (voir flèches ❶ et ❷). Ceci est simplement
dû au fait que ces régions possèdent des niveaux d’intensité similaires et ne peuvent pas être
séparées uniquement grâce à la Luminance. Ces régions ne peuvent être reconnues qu’en
utilisant une représentation multi-spectrale. L’approche vectorielle dans la base RVB (image c)
permet de récupérer soit en totalité (flèche ❷), soit en partie (flèches ❶ et ❸) les informations
de contours. L’utilisation de la base TLS, par la méthode Sobel TLS (image d), permet
d’obtenir une qualité de contours voisine voire supérieure dans certaines situations (flèches ❶
et ❸). En revanche, la méthode privilégiant la Teinte (Sobel Couleur, image e) fournit ici de
très mauvais résultats. Ceci peut s’expliquer par la nature même de l’image et par la méthode
d’acquisition. Nous sommes en présence d’une image artificielle et de ce fait toutes les
nuances, en particulier de Saturation, ont leur importance. De plus, l’utilisation d’un scanner
évite tous les phénomènes de variation de la source d’éclairage qui peuvent se produire lors de
l’utilisation d’une caméra couleur, et l’utilisation prépondérante de la Teinte ne peut faire que
perdre des informations.

La figure II.13 montre l’application des différentes techniques de détection de contour sur
une image de scène extérieure représentant la façade d’une maison (image “Maison”). Elle est
caractérisée par des zones d’ombres plus ou moins marquées (flèche1 ❶ sur l’image a). La
méthode Sobel Luminance (image b) donne de bons résultats, sauf au niveau des contours de
la fenêtre (flèche ❷). Les méthodes Sobel Vectoriel et Sobel TLS (image c et image d)
fournissent des contours sensiblement identiques, avec cependant une meilleure définition de
la bordure de la fenêtre lors de l’utilisation de la base TLS (flèche ❷). La méthode
Sobel Couleur (image e) montre sur cette image tout son intérêt. En privilégiant l’information
de Teinte dans les zones où elle est pertinente, cette méthode permet une moindre sensibilité au
bruit dans ces régions (flèches ❸) et l’élimination des contours dus à des variations d’éclairage
(flèches ❶) si toutefois celles-ci ne sont pas trop importantes (flèche ➍).

Page 64
Segmentation couleur par fusion numérique

L’image appelée “Métal” (figure II.14) nous a été fournie par le Centre de Recherche de la
société Ugine Savoie. Elle représente des grains d’un alliage observé en lumière polarisée à
l’aide d’un microscope. L’image originale (image a) étant fortement bruitée (présence d’une
texture), on a effectué au préalable un filtrage non linéaire [ALS 94] avec une taille de fenêtre
de 7*7 et qui permet également un rehaussement des contrastes dans les zones de transitions.
Sur cette image, l’opérateur Sobel TLS détecte mieux les contours (flèche ❶) que l’opérateur
Sobel Vectoriel tout en étant globalement moins sensible aux bruits. Le résultat obtenu par la
méthode Sobel Couleur n’est pas présenté, car comme pour l’image “Agriculture” cette
opérateur n’est pas adapté à ce type d’image obtenue en maîtrisant l’éclairage.

2.8 - Conclusion

Dans ce paragraphe nous avons présenté différentes méthodes de détermination d’un


gradient dans une image couleur. Les approches vectorielles dans la base RVB fournissent de
bons résultats, surtout dans le cas d’un bruit non corrélé altérant les composantes. L’utilisation
de la base de représentation TLS apporte des performances similaires lorsque le bruit est non
corrélé, et supérieures lorsqu’il y a corrélation du bruit entre les composantes R, V et B.
Lorsque cela est utile, le fait de privilégier l’information de Teinte permet de s’affranchir des
faibles variations d’éclairage.

Quelle que soit la méthode proposée, il persiste une ambiguïté de π sur la détermination de
la direction du gradient. Cependant les approches vectorielles, du fait même de leur nature
vectorielle, fournissent une estimation de la direction du gradient beaucoup plus correcte que
l’approche par gradient marginal sur la base TLS.

Dans la plupart des cas, l’utilisation de la couleur pour la détection de contours n’apporte
que peu de nouveaux contours par rapport à ceux extraits en niveaux de gris. Par contre, ceux
obtenus sont plus significatifs et permettent ainsi une meilleure détection et localisation des
objets.

En fait les propriétés photométriques d’un objet, notamment sa couleur, sont plus liées à sa
surface qu’à ses contours. L’approche régions semble alors plus naturelle que l’approche
contours.

Page 65
Segmentation couleur par fusion numérique

a]: Originale
image couleur en annexe E

b]: Sobel Luminance

c]: Sobel Vectoriel


a] ❶
d]: Sobel TLS

e]: Sobel Couleur


b] ❶ c] ❶

❷ ❷


d] ❶ e]

Figure II.12: Contours de l’image “Agriculture”

Page 66
Segmentation couleur par fusion numérique

a]: Originale
image couleur en annexe E ❶
b]: Sobel Luminance

c]: Sobel Vectoriel a]

d]: Sobel TLS



e]: Sobel Couleur

b] c]

❷ ❷


d] e]

❷ ❸

Figure II.13: Contours de l’image “Maison”

Page 67
Segmentation couleur par fusion numérique

a]: Originale
image couleur en annexe E

b]: Original filtrée


image couleur en annexe D

c]: Sobel Luminance a]

d]: Sobel Vectoriel



e]: Sobel TLS

b] c]

d] e]

❶ ❶

Figure II.14: Contours de l’image “Métal”

Page 68
Segmentation couleur par fusion numérique

3 - Segmentation en régions par fusion numérique

La couleur étant une information que l’on attache naturellement aux régions, on a pensé à
l’utiliser pour segmenter des images, avec l’espoir que les régions ainsi formées soient plus
significatives que celles obtenues par une segmentation en niveau de gris.

Les méthodes de segmentation en régions utilisées en imagerie monochrome, que ce soit


par croissance de régions ou par séparation/fusion font appel à un prédicat d’uniformité
(noté Pu) associé à un critère d’homogénéité. Zucker dans [ZUC-76] propose la définition
formelle suivante pour la segmentation:
❏ Un prédicat d’uniformité Pu est une fonction logique, définie sur une région
Ri de l’image composée de pixels adjacents. Ce prédicat vérifie une propriété
d’homogénéité de Ri telle que:
Pu ne dépend que des pixels de la région Ri.

❏ Soient Ri et Rj deux régions de l’image telles que Rj est incluse dans Ri alors:
Pu ( R i ) = vrai ⇒ Pu ( R j ) = vrai .

❏ La segmentation d’une image numérique I basée sur un prédicat d’uniformité


Pu est définie comme une partition S = { R 1, R 2, ……, R n } de I telle que:

(a) R i est connexe, ∀i ∈ { 1, …, n }

(b) Pu ( R i ) = vrai , ∀i ∈ { 1, …, n }

(c) Pu ( R i ∪ R j ) = faux , ∀R i, R j ∈ S , R i ≠ R j .

L’hypothèse de connexité des régions fait que les algorithmes prennent généralement en
compte le voisinage des points. La dernière condition traduit en fait la maximalité de chaque
région dans la segmentation. La vérification de ces conditions est une condition nécessaire et
suffisante pour qu’une partition d’une image I soit une segmentation. Rien, toutefois,
n’implique l’unicité de cette segmentation.

Le résultat de la segmentation est une image dans laquelle chaque pixel est affecté de
l’étiquette (ou label) correspondant au numéro de la région à laquelle appartient le pixel dans
l’image initiale. A partir de cette image “d’étiquettes” et de l’image originale il est possible de
déterminer les divers attributs photométriques (ie. niveau moyen, variance, indices
texturaux,...) et géométriques (ie. coordonnées du centre de gravité, axe d’inertie,...) de chaque
région.

L’adaptation au contexte multi-composantes et notamment aux images couleur pose le


problème de la définition d’un critère d’homogénéité global à toutes les composantes. L’idée
proposée dans ce paragraphe est d’étendre les techniques de segmentation monochromatique

Page 69
Segmentation couleur par fusion numérique

au cas des images couleur représentées dans la base TLS. Ainsi, nous ne cherchons pas à
définir de nouvelles méthodes de segmentation mais à valider l’idée d’une coopération
numérique entre la Teinte et la Luminance suivant le niveau de Saturation.

3.1 - Principe de base

L’idée de base est de former un seul critère scalaire (notée C) d’homogénéité mixant de
manière pondérée les informations apportées par la Teinte et la Luminance et d’appliquer les
algorithmes de segmentation connus en niveau de gris à l’aide de ce critère.

Ce mélange doit tenir compte de la fiabilité de la Teinte que nous avons évoquée en
conclusion du premier chapitre.

❏ Si la Teinte n’est pas pertinente, la contribution de celle-ci dans le critère doit


être nulle.
❏ Si la Teinte est significative, le critère peut tenir compte des informations
liées à la couleur.
❏ Si la fiabilité de la Teinte est “moyenne”, le prédicat sera constitué
d’informations liées à la Teinte et à la Luminance.

Comme nous l’avons vue précédemment, la fiabilité de la Teinte est liée à l’information de
Saturation (noté IS). C’est tout naturellement cette grandeur qui va permettre par
l’intermédiaire d’un coefficient (noté α) de pondérer de manières antagonistes les informations
de Teinte et de Luminance (notées respectivement IT et IL) dans le critère d’homogénéité C.
Dans la suite ce coefficient sera appelé coefficient pondérateur.

Ce coefficient pondérateur α est construit de la même manière que le coefficient utilisé par
l’opérateur gradient couleur (figure II.1). Son rôle est toutefois légèrement différent, puisqu’il
va indiquer la (ou les) composante(s) qui vont être utilisées pour la segmentation en régions.
La figure II.15 résume la stratégie de choix de ces composantes suivant le coefficient α et donc
suivant la Saturation.
α(S)
1
β = β1
β = β2

0,5

0 S0 255 Saturation

Teinte non significative Signification “moyenne” Teinte très significative


segmentation en segmentation en segmentation en
Luminance Luminance et Teinte Teinte

Figure II.15: Stratégie d’utilisation des composantes

Page 70
Segmentation couleur par fusion numérique

Comme pour l’opérateur gradient couleur, cette fonction donnant le coefficient de


pondération est paramètrée par deux valeurs S0 et β; S0 ayant le même rôle que précédemment
et β permettant de “doser” le mélange Teinte-Luminance.

Le critère C peut ainsi s’exprimer par:

C = α ( IS ) ⋅ IT + ( 1 – α ( IS ) ) ⋅ IL (II.21)

Cette méthodologie amène tout de suite une première remarque:


❏ “La Teinte est privilégiée au détriment de la Luminance”.
En effet, lorsque la Teinte est fiable, l’information de Luminance, qui peut être pertinente
alors, n’est pas prise en compte. On se rapproche ainsi du principe de base de l’opérateur
gradient privilégiant l’information de Teinte (Sobel Couleur), défini au § 2.1. Comme nous
l’avons déjà remarqué, ceci n’est pas incohérent d’un point de vue physique car l’attribut
couleur d’un objet est souvent moins sensible à l’éclairage que l’attribut intensité.

Néanmoins, en fonction des objectifs de segmentation que l’on se donne, il est toujours
possible de redonner une importance constante aux informations de Luminance en remplaçant
le coefficient “(1 - α)”, par “1”.

La seconde remarque que l’on peut faire sur cette approche est la suivante:

❏ L’information de Saturation n’intervient pas directement dans


l’élaboration de la grandeur utilisée pour la segmentation en régions (le
critère C).
Par rapport à la détection de contours, la pondération systématique de l’intensité et la non
prise en compte de la Saturation sont les différences essentielles dans la manière de construire
le critère de fusion des informations de Teinte, Luminance et Saturation. Ce choix se justifie
par une moindre complexité d’ajustement des paramètres de la méthode de segmentation en
régions.

Nous avons envisagé d’appliquer ce principe à un algorithme très connu de segmentation en


régions utilisé pour les images en niveaux de gris: le “blob coloring” [BAL 82] qui va être
détaillé dans le prochain paragraphe.

3.2 - Description de la technique de base de la segmentation

Nous allons maintenant présenter en détail le mode de fonctionnement de la segmentation


utilisée. Il s’agit d’une technique locale par croissance de régions initialement conçue pour les
images en niveaux de gris mais qui peut être facilement étendue à la couleur en utilisant un
critère d’homogénéité global au diverses composantes. Le principe de cette méthode repose sur
l’utilisation d’un masque de 3 pixels en forme de “L” inversé comme le montre la figure II.16.
L’image est balayée par ce masque de gauche à droite et de haut en bas. Le critère
d’homogénéité retenu est une différence absolue de niveau d’intensité (noté Iy,x) entre le pixel

Page 71
Segmentation couleur par fusion numérique

courant (noté K) et son voisin qui a déjà été traité (noté H pour le voisin du haut et G pour le
voisin de gauche).
xk - 1 xk xk + 1

yk - 1 H Courant

yk G K Passé

yk + 1 Futur

Figure II.16: Masque utilisé par la segmentation en régions suivant la 4-connexité

Ainsi, pour chaque pixel on évalue les deux critères suivants:


C(K,H) = | IK - IH | et C(K,G) = | IK - IG |

En désignant par v le voisin G ou H, le prédicat P(k,v) associé à ce critère d’homogénéité


C(k,v) est alors le suivant:

si C ( k, v ) ≤ Seuil alors
❏ P(k,v) est VRAI
sinon
❏ P(k,v) est FAUX

On a alors 4 possibilités suivant les deux prédicats associés aux critères d’homogénéité du
pixel courant pour décider de la fusion de ce pixel avec ses voisins ou la création d’une
nouvelle région. La figure II.17 montre le schéma de principe de l’agrégation d’un pixel.

P (k,v): C ( k, v ) ≤ Seuil ?

P(K,H) FAUX VRAI


P(K,G)
Création d’une nouvelle Propagation
FAUX étiquette de l’étiquette de H

Propagation Etude du
VRAI de l’étiquette de G critère entre G et H

❏ P (G,H) = VRAI
➥ Equivalence entre les trois étiquettes

❏ P (G,H) = FAUX
➥ Propagation de l’étiquette du pixel
minimisant le critère d’homogénéité C

Figure II.17: Agrégation d’un pixel suivant les prédicats.

Page 72
Segmentation couleur par fusion numérique

Dans la pratique, une itération de ce principe avec un seuil initial délibérément bas (noté
seuil0) et une incrémentation de ce seuil (incrément ∆seuil) permet de compenser la simplicité
de la méthode et d’obtenir de bonnes performances. A la fin de l’itération “i” (calculée avec
seuili = seuil0 + i*∆seuil), on calcule la moyenne d’intensité de chaque région et on crée une
nouvelle image en affectant cette moyenne à chacun des pixels de la région. L’algorithme est
alors appliqué avec le seuil: seuil0 + (i+1)*∆seuil.

Le gros problème est alors de fixer le seuil initial, l’incrément du seuil et le nombre
d’itérations. Cela dépend du type d’images segmentées et des résultats escomptés pour le
traitement ultérieur. Notons cependant que si cet algorithme est simple au niveau de la décision
d’agrégation, la gestion des équivalences est délicate à traiter du point de vue algorithmique.

Enfin, notons également que cette méthode détermine des régions connexes selon la
4-connexité, mais on peut le généraliser à la 8-connexité en modifiant le masque. La gestion
des équivalences des étiquettes est alors encore plus délicate, et le temps de réalisation plus
élevé. De ce fait, pour la segmentation des images couleur, l’algorithme utilisé par la suite sera
celui définissant la segmentation selon la 4-connexité.

3.3 - Définition d’une segmentation Teinte-Luminance suivant la Saturation

L’adaptation de la technique mono-chromatique aux composantes TLS nécessite


l’élaboration d’un critère d’homogénéité composite, favorisant l’information de Teinte
lorsqu’elle est pertinente et tenant compte de la représentation circulaire de cette information.
Il faut également adapter le seuil d’agrégation déterminant le prédicat d’homogénéité en créant
un seuil composite.

3.3.1 - Elaboration du critère composite

Le critère d’agrégation des pixels utilise une différence de niveaux entre les deux pixels
traités. Si pour la Luminance cela ne pose pas de problème, la notion de différence entre deux
Teintes est plus délicate à définir comme nous l’avons déjà vu pour les algorithmes de
détection de contours. En s’inspirant de ce qui a été dit pour la différence de Teinte (cf. § 2.2)
et pour l’opérateur Sobel Couleur (cf. § 2.4), on peut alors définir le critère d’agrégation CTL/S
de deux pixels couleur P1(T1, L1, S1) et P2(T2, L2, S2) en formant:

C TL ⁄ S (P 1,P 2) = p (S 1,S 2) ⋅ T1 – T2 255


+ ( 1 – p (S 1,S 2) ) ⋅ L 1 – L 2 (II.22)

avec p (S 1,S 2) = α ( S 1 ) ⋅ α ( S 2 ) , la moyenne géométrique des coefficients


pondérateurs de chaque pixel
et T1 – T2 255
la mesure de l’écart signé modulo 255 entre deux informations de
Teinte (définie au § 2.2.1).

Page 73
Segmentation couleur par fusion numérique

Le coefficient p(S1,S2) est donc le même que celui présenté pour les opérateurs de gradient
couleur. Son action se traduit donc de la même manière:
❏ lorsque les deux pixels sont fortement saturés, ce coefficient est voisin de 1 et
l’écart de Luminance est négligé,
❏ lorsque les deux pixels sont faiblement saturés, ce coefficient est voisin de 0
et l’écart de Teinte est négligé,
❏ dans les autres situations, on a une combinaison pondérée des écarts de teinte
et de Luminance.
La figure II.18 rappelle un exemple de l’évolution de ce coefficient en utilisant la fonction
quantifiant la pertinence de la Teinte de la figure II.1.
p(S1,S2)

1 1

0.5 0.5

0 0

S2 S1

250 250

S0 S0
0

Figure II.18: Exemple d’évolution de p(S1,S2)

Néanmoins, il y a des situations où le critère d’agrégation peut se révéler imparfait du fait


de la non prise en compte de l’information de Saturation d’une manière directe, comme c’était
le cas pour les opérateurs de gradient.

Illustrons ceci dans le cas où α(S1) est proche de 1 (la Teinte T1 est pure et fiable) et α(S2)
est proche de 0. La Teinte T2 est donc non significative, et la valeur qu’elle prend est
essentiellement fonction du bruit. Elle peut ainsi être proche de la valeur T1 qui elle, est
significative, rendant ainsi artificiellement la quantité T 1 – T 2 255
petite. Si les Luminances
des deux pixels sont proches, on peut associer dans une même région un pixel ayant une Teinte
bien définie et un pixel sans Teinte, ce qui est contraire à la définition d’une région qui est
construite avec des pixels ayant toutes leurs caractéristiques voisines.

Pour remédier à ce problème, il faut que le critère d’homogénéité prenne, dans ces
situations, une valeur supérieure au seuil d’agrégation, interdisant ainsi la fusion des deux
pixels en une même région. On peut alors jouer sur ces deux valeurs, c’est-à-dire d’une part
faire tendre vers zéro le seuil d’agrégation et d’autre part d’augmenter la valeur du critère

Page 74
Segmentation couleur par fusion numérique

d’homogénéité CTL/S, ceci évidemment uniquement dans les zones correspondant aux 2
situations critiques (ie. α(S1) ~ 1 et α(S2) ~ 0 ou α(S1) ~ 0 et α(S2) ~ 1).

Ainsi, pour augmenter artificiellement la valeur du critère d’homogénéité nous avons opéré
un rehaussement du coefficient pondérateur dans les deux situations critiques. Ce
rehaussement n’est appliqué que pour les informations provenant de la Teinte. Ce nouveau
coefficient (noté Γ), qui est toujours fonction des valeurs α(S1) et α(S2), est défini de la
manière suivante:

Γ (S 1,S 2) = α ( S 1 ) + α ( S 2 ) – α ( S1 ) ⋅ α ( S2 ) . (II.23)

Notons bien que le coefficient pondérant l’écart d’intensité quant à lui reste inchangé.

Comme précédemment, ce coefficient Γ va être nul lorsque les niveaux de Saturation des
deux pixels seront faibles et proche de 1 lorsqu’ils seront élevés. Pour la valeur S0 de
Saturation correspondant au concept de pertinence moyenne, la valeur de ce coefficient
pondérateur de l’information de Teinte demeure inchangé (Γ(S0,S0)=0,5). Mais, lorsqu’un
pixel aura un niveau de Saturation faible et que l’autre pixel aura un niveau fort, ce coefficient
tendra vers une valeur proche de 1 alors qu’il était nul auparavant. La valeur de l’écart de
Teinte, qui n’est pas pertinente puisqu’étant la différence entre un pixel coloré et un pixel
achromatique, vient ainsi augmenter artificiellement la valeur du critère d’homogénéité.

La figure II.19 donne un exemple de la nouvelle allure du coefficient agissant sur la quantité
T 1 – T 2 255 mesurant l’écart de Teinte.

Γ(S1,S2)
1 1

0.5 0.5

0 0

S2 S1
250 250
S0 S0

Figure II.19: Exemple d’évolution de Γ(S1,S2)

Le nouveau critère composite d’homogénéité entre deux pixels P1 et P2, tenant compte de la
situation pathologique évoquée précédemment est défini par la formule suivante:

C TL ⁄ S (P 1,P 2) = Γ (S 1,S 2) ⋅ T1 – T2 255


+ ( 1 – p (S 1,S 2) ) ⋅ L 1 – L 2 (II.24)

Page 75
Segmentation couleur par fusion numérique

Il persiste malgré tout une anomalie lorsque T1 = T2 avec une Teinte fortement saturée et
l’autre très faiblement saturée. La pondération agissant de manière multiplicative, le
rehaussement du critère n’agira pas. Cette situation, peu fréquente, devra être prise en compte
de manière spécifique.

3.3.2 - Elaboration du seuil composite d’agrégation

Le seuil d’agrégation doit être modifié pour prendre en compte le problème évoqué lors de
la construction du critère d’homogénéité lorsque α(S1) ~ 1 et α(S2) ~ 0 et réciproquement.
Dans ce cas, il doit alors tendre vers zéro. De plus, il serait intéressant de pouvoir disposer de
valeurs de seuil d’agrégation différentes suivant que la méthode de segmentation utilise
uniquement la Luminance ou uniquement la Teinte.

En analysant le cas critique déjà évoqué, on constate que l’évolution à laquelle doit
répondre le seuil composite d’agrégation est l’opposée de celle établie pour le critère
d’homogénéité dans l’équation II.24. Ainsi, le seuil d’agrégation des écarts de Teintes (noté
SeuilT) va être pondéré par la fonction p(S1,S2) tandis que celui des écarts de Luminance (noté
SeuilL) sera pondéré par la fonction Γ (S 1,S 2) . Le seuil composite d’agrégation (noté SeuilC)
pour deux pixels P1 et P2 est alors défini de la manière suivante:

Seuil C (P 1,P 2) = p (S 1,S 2) ⋅ Seuil T + ( 1 – Γ (S 1,S 2) ) ⋅ Seuil L . (II.25)

Ce n’est donc plus un seuil figé, comme dans le cas de la technique initiale pour les images
mono-chromatiques mais un seuil qui s’adapte aux valeurs de Saturation des deux pixels. Pour
illustrer cette méthode nous allons observer, figure II.20, le comportement du seuil composite
d’agrégation en prenant SeuilT = 4 et SeuilL = 12.

12
8
Seuilc 4

12 12
8 8
4 4
0 0
S2 12
8 S1
250 250
4

S0 0 S0

Figure II.20: Exemple d’évolution du seuil composite d’agrégation

Page 76
Segmentation couleur par fusion numérique

On constate ainsi que pour de faibles niveaux de Saturation, le critère d’homogénéité étant
alors essentiellement basé sur la Luminance, le seuil composite d’agrégation va prendre la
valeur seuilL. A l’inverse, pour de fortes Saturation, le critère d’homogénéité étant formé par la
composante Teinte, le niveau du seuil d’agrégation correspond alors à celui imposé sur cette
composante (c.à.d. seuilT). Dans le cas d’un pixel achromatique et d’un pixel coloré, le seuil
d’agrégation tend vers zéro, empêchant ainsi la fusion des deux pixels.

3.4 - Influence de la forme du coefficient de pondération

Pour construire le coefficient pondérateur α(S) on dispose de deux paramètres qui sont S0,
le niveau de Saturation entraînant le concept de pertinence moyenne de la Teinte, et β, réglant
la pente de la courbe au point S0.

Le choix de ces deux paramètres est plus stratégique que pour les opérateurs de détection de
contours présentés au paragraphe précédent. En effet, le coefficient α n’est plus un simple
poids affectant l’information de Teinte, mais c’est le paramètre qui décide du choix des
composantes (Teinte ou Luminance) qui vont servir à construire les régions.

3.4.1 - Influence et choix de S0

Le paramètre S0 entraîne le choix de la composante qui va être privilégiée dans le processus


de segmentation. Pour un niveau de Saturation en dessous de S0, c’est l’information de
Luminance qui est prépondérante tandis qu’au dessus c’est l’information de Teinte qui sera
privilégiée. Son choix dépend, entre autre, des caractéristiques de la scène, et surtout du
résultat escompté pour la segmentation. Par exemple, si l’on veut atténuer les variations
d’éclairages (sensible sur la Luminance) la valeur de S0 devra être faible pour que le traitement
s’effectue essentiellement suivant la Teinte (qui n’est pas sensible à ces variations).

Il faut cependant ne pas oublier qu’un bruit faible sur les composantes intermédiaires C1 et
C2 de la base TLS peut entraîner une forte dispersion sur la Teinte si la Saturation est faible.
D’après l’étude de l’influence du bruit sur la composante Teinte (cf § 3.3.2 du chapitre I) et
notamment à l’aide de la figure I.23, on peut estimer qu’une valeur de S0 comprise entre 30 et
70 donne une dispersion acceptable sur la Teinte dans le cas d’un bruit gaussien additif.

3.4.2 - Influence et choix de β

β permet de “doser” le mélange entre les informations de Teinte et de Luminance dans le


cas où le niveau de Saturation est moyen. Son choix est donc lié à celui S0.

Pour permettre de guider le choix de la valeur de β, nous avons évalué quantitativement


l’influence de ce paramètre en effectuant des tests sur des images synthétiques segmentées
dans un contexte bruité (bruit de type gaussien additif ayant une corrélation inter-composantes
moyenne; c.à.d. ρ = 0,5).

Page 77
Segmentation couleur par fusion numérique

3.4.2.1 - Construction d’une caractéristique discriminante


Pour évaluer numériquement l’influence de β, nous avons construit un indicateur
demandant la connaissance a priori du résultat de la segmentation. Cette indicateur effectue
une estimation locale de la sensibilité au bruit en mesurant la probabilité de bonne détection Pd
d’un pixel, c’est-à-dire la probabilité conditionnelle que le pixel P0 appartienne après
segmentation à la région R0 sachant que ce pixel appartient réellement à cette région. Pd est
donc définie de la manière suivante:

Pd = Prob[méthode place P0 dans R0 / P0 est dans R0] (II.26)

L’étude consiste alors, à partir d’une image uniforme de taille 256x256 (1 seule région
initiale), à mesurer l’évolution de cette probabilité de bonne détection en fonction de l’écart
type du bruit généré sur les composantes R, V et B.

3.4.2.2 - Choix des paramètres de l’étude


Dans notre étude nous prenons arbitrairement une valeur de S0 égale à 70. En effectuant une
exploration pour des valeurs de Saturation de part et d’autre de S0, nous envisagerons alors les
trois situations suivantes correspondant aux trois concepts principaux de pertinence de la
Teinte:

❏ image “faible”: faible niveau de Saturation (S=20), utilisation


principalement de la Luminance.
❏ image “moyenne”: Saturation moyenne (S=70), utilisation des deux
composantes pour la segmentation.
❏ image “forte”: Saturation forte (S=130), utilisation principalement de
la composante Teinte.

Nous prendrons également trois valeurs de β donnant des pentes autour de S0 de plus en
plus faibles comme le montre la figure II.21.
α(S)
1
0.8 A): β=1 B): β=0,1
0.6
C): β=0,01
0.4
0.2
0
0 10 40 70 100 130 160 190 220 250
Saturation

Figure II.21: Coefficients pondérateurs pour différentes valeurs de β

La technique de segmentation basée sur une différence entre deux pixels voisins nécessite
l’utilisation des fonctions p(S1,S2) et Γ(S1,S2). Les courbes suivantes montrent l’évolution de
ces deux fonctions suivant les valeurs de β que nous avons choisies.

Page 78
Segmentation couleur par fusion numérique

p(S1,S2) Γ(S1,S2)

1 1 1 1
0.5 0.5 0.5 0.5
0 0 0 0

250 250 250 250


S2 70 70 S1 S2 70 70 S1
0 0
Figure II.22: Cas A, pente forte: β=1

p(S1,S2) Γ(S1,S2)

1 1 1 1
0.5 0.5 0.5 0.5
0 0 0 0

250 250 250 250


S2 70 70 S1 S2 70 70 S1
0 0
Figure II.23: Cas B, pente moyenne: β=0,1

p(S1,S2) Γ(S1,S2)

1 1 1 1
0.5 0.5 0.5 0.5
0 0 0 0

250 250 250 250


S2 70 70 S1 S2 70 70 S1
0 0
Figure II.24: Cas C, pente très faible: β=0,01
La situation A est brutale. Il n’y a pas mélange des informations mais utilisation d’une
stratégie du type “soit l’un soit l’autre”. Ceci sera dangereux pour les zones à Saturation
moyenne.

La situation C est intéressante puisqu’on a une relation presque linéaire entre le niveau de
Saturation et le coefficient α. Cependant on risque de prendre en compte, dans l’élaboration du
critère composite d’agrégation, des informations de Teinte correspondant à des pixels
faiblement saturés et donc bruités et peu fiables.

La situation B semble, comme dans le cas des opérateurs de gradients TLS, être un bon
compromis, en permettant un mélange cohérent entre Teinte et Luminance dans les zones de
Saturation proches de S0.

3.4.2.3 - Présentation des résultats


L’étude a été réalisée en faisant évoluer l’écart type du bruit entre 0 et 20 avec un pas de 1.
Les courbes suivantes présentent les résultats de la probabilité de bonne détection en fonction
de l’écart-type du bruit engendré sur les composantes de la base RVB pour les trois images
tests et les trois valeurs du paramètre β.

Page 79
Segmentation couleur par fusion numérique

Probabilité de détection
1
0.8
0.6 β=0,1
β=0,01 20
0.4
0.2 β=1
Ecart-type du bruit
0
0 2 4 6 8 10 12 14 16 18 20
Figure II.25: Probabilité de détection sur l’image “faible”
Probabilité de détection
1
0.8
0.6
β=0,1 β=0,01 70
0.4
β=1
0.2
Ecart-type du bruit
0
0 2 4 6 8 10 12 14 16 18 20
Figure II.26: Probabilité de détection sur l’image “moyenne”
Probabilité de détection β=1
1
β=0,1
0.8
0.6 130
β=0,01
0.4
0.2
Ecart-type du bruit
0
0 2 4 6 8 10 12 14 16 18 20
Figure II.27: Probabilité de détection sur l’image “forte”
Ces courbes montrent que la probabilité de détection d’un point décroît faiblement jusqu’à
une valeur comprise entre 0,6 et 0,8. Lorsque la probabilité de détection continue à décroître au
delà de cette limite, la chute vers zéro est alors brutale. La valeur de σB définissant la limite
entre décroissance douce et décroissance brutale dépend de l’image (niveau de Saturation) et
du paramètre β. Ceci montre qu’il n’existe pas de niveau de détection moyen; la détection
d’une région ne peut être que bonne ou non réalisée.

L’influence du niveau de Saturation de l’image dans la probabilité de bonne détection est


tout à fait cohérente avec le fait que la composante Teinte est moins sensible au bruit que la
Luminance lorsque le niveau de Saturation est fort. Pour l’image “forte”, le processus de
segmentation utilise principalement la Teinte, et de ce fait la probabilité de détection reste
supérieure à 0,8 même pour un écart type de bruit de 20. On observerait la même chute que
pour les deux autres images mais pour un écart type du bruit beaucoup plus important.

La valeur du paramètre β donnant la meilleur probabilité de détection change en fonction de


l’image traitée. Dans le cas des deux images à “faible” et à “forte” Saturation les valeurs β=1 et
β = 0,1 fournissent des résultats très proches tandis que la valeur de β = 0,01 donne une
probabilité de détection inférieure. Pour l’image “faible”, ceci est dû à la prise en compte dans

Page 80
Segmentation couleur par fusion numérique

le critère d’homogénéité d’informations de Teinte fortement bruitées alors que pour l’image
“forte”, c’est la Luminance qui se trouve plus sensible aux bruits et qui va faire diminuer la
probabilité de détection. Dans le cas de l’image “moyenne”, la valeur β = 1 entraîne une
probabilité de détection inférieure à celles obtenues avec les deux autres valeurs qui sont par
ailleurs similaires. Ceci provient du fonctionnement en “soit l’un soit l’autre” déjà évoqué.

3.4.2.4 - Conclusions sur l’étude de l’influence de β


Cette étude des paramètres de notre méthode de segmentation basée sur une coopération
Teinte-Luminance sous contrôle de la Saturation nous montre que le meilleur compromis pour
la pente du coefficient pondérateur est une pente moyenne correspondant à des valeurs de β
comprises entre 0,5 et 0,05. On obtient pour ces valeurs une courbe de pondération qui permet
de favoriser soit la Teinte soit la Luminance pour les valeurs extrêmes de la Saturation, et qui
permet également de concilier ces deux informations pour les valeurs moyennes de Saturation.

Pour affiner ce choix, il faut observer la forme de la densité de probabilité de la Saturation


autour du point S0. Si, comme sur la figure II.29, S0 correspond à un minimum local très faible
et assez large, le paramètre β devra être choisi proche de 0,5 pour entraîner une pente assez
forte pour la fonction α(S). Par contre, si le nombre de pixels autour du minimum local est
important, comme par exemple sur la figure II.28, la valeur de β doit être choisie pour
engendrer une pente faible permettant un mélange efficace entre les informations de Teinte et
de Luminance.

L’autre intérêt de cette étude est de nous confirmer que l’utilisation de la composante Teinte
pour la segmentation permet une plus grande robustesse vis-à-vis du bruit. Mais il faut
également constater que le comportement de notre méthode de segmentation dépend fortement
du niveau de saturation de l’image traitée. Le traitement sera d’autant meilleur que la
Saturation sera forte.
d.d.p. α(S)
1

0,5

0 S0 127 255 Saturation

Figure II.28: Exemple de choix des paramètres en fonction de la d.d.p. de la Saturation


d.d.p. α(S)
1

0,5

0 S0 127 255 Saturation


Figure II.29: Exemple de choix des paramètres en fonction de la d.d.p. de la Saturation

Page 81
Segmentation couleur par fusion numérique

3.5 - Evaluation comparative des performances

Afin de situer ces performances, la méthode de segmentation en régions proposée (notée


Segm_TL/S) est confrontée à trois autres méthodes en utilisant une mesure de dissimilarité
entre le résultat de la segmentation d’une image synthétique bruitée et la segmentation de
référence.

3.5.1 - Présentation des méthodes utilisées

La technique de segmentation utilisée reste la méthode de croissance de régions avec un


masque en forme de L inversé, présentée précédemment. Seules changent les bases de départ
de la segmentation et de ce fait le critère d’homogénéité. Nous testons ainsi la méthode
proposée par Miyawaki [MIY 90] (notée Segm_Miyawaki), une méthode vectorielle dans
l’espace RVB initial (notée Segm_vect_RVB) et une méthode utilisant la base de
représentation de Otha (notée Segm_Ohta).

3.5.1.1 - Principe de coopération de Miyawaki


Cette méthode de segmentation associe la représentation TLS et la base RVB en définissant
trois zones de chrominance. Suivant la valeur de la Saturation de la région courante, on
effectue le test d’homogénéité sur le plan le mieux adapté.

Le découpage de l’information de chrominance s’effectue ainsi:

❏ A chrominance faible: (Saturation < seuil1)


➥ Segmentation selon la Luminance.
❏ A chrominance moyenne: (seuil1 < Saturation < seuil2)
➥ Segmentation selon les composantes R,V et B.
❏ A chrominance forte: (Saturation > seuil2)
➥ Segmentation selon la Teinte.

Le diagramme de la figure II.30 résume cette stratégie.

Saturation Faible Moyenne Forte

Seuil1 Seuil2

0 255
Critère de
segmentation Luminance RVB Teinte
suivant:

Figure II.30: Stratégie de segmentation de Miyawaki.

Page 82
Segmentation couleur par fusion numérique

Le choix des seuils délimitant les trois zones s’effectue à partir de l’histogramme de la
saturation. Le seuil de forte chrominance (seuil2) correspond au minimum local après le
premier pic. Le seuil de faible chrominance (seuil1) est beaucoup plus difficile à déterminer. Il
correspond en fait au seuil de signification de la Teinte dans la transformation utilisée.

La figure II.31 montre un exemple de choix des seuils à partir de l’histogramme de la


Saturation.
Nb.de pixels

Seuil2 choisi

Saturation
0 127 255
Seuil1 choisis

Figure II.31: Exemple du choix des seuils de chrominance

Cette méthode présente l’avantage de n’effectuer qu’une seule et unique segmentation, d’où
un gain de temps important dans la détermination des régions par rapport aux méthodes
segmentant indépendamment les diverses composantes et nécessitant une étape ultérieure de
fusion des résultats.

Par contre le choix des seuils pose un problème et nécessite d’analyser auparavant
l’information de Saturation. Pour la segmentation, notons que si deux régions ne sont pas
traitées suivant la même composante, elles sont alors considérées, à juste titre, comme
différentes et ne pourront de ce fait être agrégées. Ceci va introduire un excès de régions dans
certaines zones où il y a commutation entre les critères de segmentation.

Ce surcroît de régions va également être amplifié dans les parties de l’image ayant une
chrominance moyenne, et qui sont alors traitées suivant les plans R,V, et B très sensibles aux
bruits.

3.5.1.2 - Segmentation vectorielle dans RVB


La technique de segmentation utilisée demande l’évaluation d’une mesure de distance entre
deux couleurs. Dans l’espace RVB, la mesure de distance entre deux points P1 (R1,V1,B1) et
P2 (R2,V2,B2) peut être effectuée sous les formes suivantes:

D 1 (P 1,P 2) = Max ( R 1 – R 2 , V 1 – V 2 , B 1 – B 2 ) (II.27)

2 2 2
ou D 2 (P 1,P 2) = ( R1 – R2 ) + ( V1 – V2 ) + ( B1 – B2 ) (II.28)

La distance D1 étant plus sensible aux bruits du fait de l’utilisation de la fonction “Max”,
nous avons choisi la distance D2 pour évaluer le critère d’homogénéité entre deux pixels.

Page 83
Segmentation couleur par fusion numérique

3.5.1.3 - La base de Ohta (I1,I2,I3)


Ohta [OHT 80] a recherché un ensemble de composantes couleur adaptées à la
segmentation des images couleurs en utilisant un processus d’analyse en composantes
principales. La méthode de seuillage récursif établie par Ohlander [OHL 75] est alors utilisée
comme outil de test. Les résultats obtenus sur 8 images naturelles mettent en évidence la
possibilité de définir trois attributs colorimétriques notés (I1,I2,I3), particulièrement efficaces
dans un processus de segmentation:

I 1 = ( R + V + B ) ⁄ 3

I 2 = ( R – B ) ⁄ 2 (II.29)

I 3 = ( 2V – R – B ) ⁄ 4
I1 correspond à l’information d’intensité, I2 et I3 aux composantes de chrominance. Une
segmentation à partir de ces indices donne pratiquement les mêmes résultats que lors de
l’utilisation dynamique de la transformation de Karhunen-Loeve. Ces composantes,
dénommées attributs de Ohta, peuvent être considérés comme une estimation des composantes
optimales pour la segmentation d’une image naturelle. De plus, il s’avère selon Ohta que la
composante I3 n’apporte que peu d’information supplémentaire pour la segmentation de ces
scènes naturelles et de ce fait la seule utilisation de I1 et I2 permet une “bonne” segmentation
des images couleurs.

Notre méthode sur cette base consiste à segmenter indépendamment chaque plan à l’aide de
la technique mono-chromatique. Puis les différentes segmentations de l’image sont fusionnées
afin d’obtenir la segmentation finale de l’image couleur. La technique de fusion utilisée est
simple à mettre en oeuvre mais conduit à une sur-segmentation de l’image.

3.5.2 - Mesure de dissimilarité


Il existe un certain nombre de méthodes permettant d’obtenir une quantification des
performances des résultats des méthodes de segmentation par rapport à une segmentation de
référence. Une des mesures les plus utilisées est fondée sur le pourcentage de zones ou de
pixels mal classés [VIN 91]. Cependant, ce type de mesure ne correspond pas toujours à
l’observation humaine car elle ne prend pas en compte l’information spatiale inhérente à toute
segmentation. Kara-Falah a proposé récemment [KAR 95] une nouvelle mesure qui tient
compte d’une information spatiale concernant la localisation des pixels mal classés. C’est en
fait une extension de la distance de Baddeley à la mesure de dissimilarité entre deux
segmentations d’une même image.

L’inconvénient de cette nouvelle mesure est qu’elle est coûteuse en temps de calcul. Ce
temps dépend du nombre de régions dans les segmentations. Son intégration dans un processus
itératif de segmentation semble alors peu intéressant car il alourdit considérablement le temps
de calcul du processus. En revanche, dans le cas de la caractérisation quantitative de la
performance d’un algorithme de segmentation, comme nous le faisons, le temps de calcul
importe peu, et cette mesure permet alors de prendre en compte les déformations géométriques
des régions des frontières des régions extraites.

Page 84
Segmentation couleur par fusion numérique

3.5.3 - L’image synthétique Test

A partir de l’image Test de référence de la base de donnée du GDR 134, on a synthétisé une
image couleur dont les caractéristiques sont telles que les différentes régions qui la composent
sont à des niveaux de Saturation répondant aux différents concepts de pertinence la de Teinte.
La figure II.32 montre l’image segmentée de référence, composée de 6 régions, et l’image
couleur obtenue dans l’espace RVB avec les différentes couleurs décrites dans la base TLS.
T=0
❷ L=120
S=100 ❶
T=116 Image segmentée
L=80
T=21 S=15 de référence
❸ L=120
S=45
T=30 Image couleur
➎ L=85
S=45
T=90
❹ L=90
S=50

T=120
L=90
S=41

Figure II.32: Image synthétique Test

La région ❶ correspond à un concept de Teinte non pertinente, elle sera traitée suivant la
composante Luminance pour les méthodes de segmentation de Miyawaki et celle que nous
proposons. A l’inverse, la région ❷ a un niveau de Saturation élevé, l’information de teinte est
alors pertinente et sera utilisée par ces deux méthodes. Dans les régions ❸,❹, ➎ et ❻ la
pertinence de la Teinte est moyenne. La méthode de Miyawaki utilisera les composantes R,V,
et B (technique identique à Segm_vect_RVB), alors que la méthode de Segm_TL/S utilisera
coopérativement la Luminance et la Teinte.

3.5.4 - Résultats expérimentaux


Le test consiste à partir de l’image couleur dans l’espace RVB sur laquelle on superpose un
bruit gaussien ayant un coefficient de corrélation inter-composante moyen (ρ=0,5), à calculer
l’image segmentée suivant chacune des méthodes et à appliquer ensuite l’algorithme de mesure
de dissimilarité entre l’image bruitée segmentée et l’image segmentée de référence. On
effectue plusieurs mesures en faisant varier l’écart type du bruit de 0 à 10.

Les paramètres généraux des différentes méthodes sont fixés de telle sorte que les
conditions les plus défavorables (σB=10) conservent malgré tout les 6 régions principales de
l’image de référence. Pour toutes les méthodes le nombre d’itérations est de 5, le seuil initial
d’agrégation est de 2 avec un pas de 2 lors de chaque itération. Pour la méthode
Segm_Miyawaki les deux seuils sur la Saturation sont fixés respectivement à 30 et 70 pour que
les régions ❸,❹, ➎ et ❻ soient traitées selon les composantes R,V et B, la région ❶ selon la
Luminance et la région ❷ selon la Teinte. Pour la méthode proposée, le paramètre S0 est fixé à
50. Le paramètre β est ajusté à la valeur 0,07 pour que l’algorithme n’utilise que la Teinte dans
la région ❷. Pour la méthode Segm_Ohta, l’image de Test étant synthétique il est nécessaire
d’utiliser les trois composantes pour obtenir toutes les régions principales.

Page 85
Segmentation couleur par fusion numérique

Les courbes présentées sur la figure II.33 représentent l’évolution de la mesure de


dissimilarité en fonction de l’écart type du bruit pour les différentes méthodes testées.
100

80
Segm_Ohta
mesure de 60 Segm_vect_RVB
dissimilarité Segm_Miyawaki
40
Segm_TL/S
20

0
0 1 2 3 4 5 6 7 8 9 10
Ecart type du bruit sur RVB

Figure II.33: Evolution de la mesure de dissimilarité en fonction de l’écart type du bruit

Ces résultats montrent que vis-à-vis du test effectué, la méthode de segmentation proposée
est plus proche de la segmentation de référence et donc moins sensible à ce type de bruit
corrélé que les autres méthodes étudiées. La méthode de segmentation selon la base de Ohta
possède une mesure de dissimilarité élevée et même supérieure à la méthode de segmentation
vectorielle dans l’espace RVB. L’utilisation des trois attributs et la méthode de fusion des
segmentations intermédiaires vont pénaliser cette base en créant une sur-segmentation de
l’image, et donc une dissimilarité importante vis-à-vis de la segmentation de référence. Pour
affiner cette étude et déterminer si certaines zones sont plus sensibles que d’autres, nous allons
observer les résultats des segmentations lorsque l’écart type du bruit est maximal. La figure
II.34 montre les contours des régions pour les différentes méthodes.

a b
c d

a: Segm_Ohta
b: Segm_vect_RVB
c: Segm_Miyawaki
d: Segm_TL/S

Figure II.34: Résultats des segmentations de l’image Test pour un écart type du bruit de 10

Page 86
Segmentation couleur par fusion numérique

Nous constatons que le résultat de segmentation par la méthode Segm_vect_RVB est, bien
évidemment, indépendant du niveau de Saturation des régions. Pour la base de Ohta, on
remarque une sensibilité aux bruits plus importante dans les régions ❹ et ❻. En absence
d’étude sur la sensibilité au bruit des attributs d’Ohta, il est difficile d’analyser ce phénomène.
La région ❷ traitée en Teinte par les méthodes Segm_Miyawaki et Segm_TL/S est
parfaitement segmentée du fait de la moindre sensibilité aux bruits de cette composante
lorsque le niveau de Saturation est élevé. Par contre, les régions ❸,❹, ➎ et ❻ dans lesquelles la
Saturation est “moyenne” sont mieux extraites et moins perturbées en segmentant avec notre
approche, grâce à l’utilisation coopérative des composantes Teinte et Luminance, plutôt qu’en
ayant recours aux composantes R,V et B comme le fait la méthode de Miyawaki.

3.6 - Applications sur des images réelles


Dans cette partie, nous présentons les résultats de segmentation sur quatre images réelles
intitulées “Claire”, “Maison”, “Canarie” et “Cellules”. Ces résultats, présentés sous la forme
des contours des régions obtenues, sont comparés avec les résultats de segmentation des trois
approches présentées précédemment (Segm_Ohta, Segm_vect_RVB et Segm_Miyawaki).

Les méthodes travaillant sur la base TLS nécessitent une étude préalable de l’histogramme
de la Saturation pour permettre de déterminer les valeurs de certains des paramètres. Quand
aux paramètres généraux de la technique de segmentation (nombre d’itérations, seuils
d’agrégation,...) ils seront réglés par essais successifs de telle sorte que le résultat de la
segmentation paraisse le meilleur possible, visuellement parlant.

3.6.1 - Présentation des images

3.6.1.1 - Image “Claire”


Cette image (figure II.39) est similaire à celle utilisée par Miyawaki en cela qu’elle
représente le portrait d’une femme disposée sur un fond uni de couleur bleu sombre.

La figure II.35 montre l’histogramme de la Saturation pour cette image, et les valeurs
choisies pour les paramètres des méthodes Segm_Miyawaki et Segm_TL/S.

6000 1
5000
Fonction de pondération

4000
Histogramme

3000 0,5
2000

1000

0 0
0 10 50 70 80 100 150 200 250
Seuil1 S0 Seuil2 Saturation

Figure II.35: Histogramme de la Saturation et valeurs des paramètres de segmentation

Page 87
Segmentation couleur par fusion numérique

On peut considérer que cet histogramme est bimodal, avec un premier mode dû au fond de
l’image, et un second correspondant au personnage. De ce fait, le choix des paramètres s’en
trouve facilité.

Pour la méthode de segmentation Segm_Miyawaki, le seuil maximal d’utilisation de la


Luminance “Seuil1” est fixé à 10, et le seuil minimal d’utilisation de la composante Teinte
“Seuil2” à 80. Entre ces deux valeurs, la segmentation s’effectuera suivant les composantes
R,V et B.

Pour la méthode Segm_TL/S, la valeur de S0 est choisie après le premier mode (S0=70) et la
pente de la fonction de pondération est choisie très forte du fait des deux modes bien marqués
(β=0.5). La segmentation s’effectuera principalement soit en Teinte, soit en Luminance.

Le tableau suivant donne les paramètres généraux utilisés par les différentes méthodes de
segmentation pour cette image.

composante nombre Luminance ou I1 Teinte ou I2 R,V,B ou I3

méthode d’itérations seuil initial incrément seuil initial incrément seuil initial incrément

Segm_vect_RVB 7 - - - - 2 2

Segm_Ohta 3 3 3 3 3 - -

Segm_Miyawaki 3 3 3 2 2 3 3

Segm_TL/S 3 3 3 2 2 - -

Tableau II.4: Paramètres généraux pour la segmentation de l’image “Claire”

3.6.1.2 - Image “Maison”


Sur cette image (figure II.39) on cherche a montrer l’intérêt de l’utilisation de la Teinte pour
ne pas être sensible aux faibles variations d’éclairage créant des zones d’ombres sur les objets.
Ces zones d’ombres sont bien sur caractérisées par une faible Luminance, mais également par
de faibles niveaux de Saturation. Ainsi, le paramètre S0 de notre méthode devra donc être
faible pour permettre une utilisation de la Teinte dans ces zones ombragées.

La figure II.36 montre l’évolution de l’histogramme de la Saturation pour cette image et les
valeurs choisies pour les différents paramètres utilisés par les méthodes de segmentation dans
la base TLS.

Cet histogramme possède (en partant de 0) deux minima locaux pour les valeurs 14 et 46.
Ce sont ces valeurs qui vont être choisies comme seuil pour la méthode Segm_Miyawaki.

La valeur de S0 est la moyenne entre ces deux valeurs et la pente de la fonction de


pondération est moyenne (β=0,08) pour permettre une coopération efficace entre les
composantes Teinte et Luminance.

Page 88
Segmentation couleur par fusion numérique

3500 1
3000

Fonction de pondération
2500
Histogramme

2000
0,5
1500
1000
500
0 0
0 14 30 46 100 150 200 250
Seuil1 S0 Seuil2 Saturation
Figure II.36: Histogramme de la Saturation et valeurs des paramètres de segmentation

Comme précédemment, le tableau II.5 donne les paramètres généraux utilisés par les
différentes méthodes de segmentation pour cette image.

S’agissant d’une scène d’extérieur, nous avons constaté que la segmentation selon la base de
Ohta pouvait être réalisée uniquement à l’aide des composantes I1 et I2. D’autre part, pour
atténuer l’influence du bruit lors de l’utilisation des composantes R,V et B, les paramètres
d’agrégation seront plus élevés.

composante nombre Luminance ou I1 Teinte ou I2 R,V,B ou I3

méthode d’itérations seuil initial incrément seuil initial incrément seuil initial incrément

Segm_vect_RVB 5 - - - - 4 4

Segm_Ohta 5 2 2 2 2 - -

Segm_Miyawaki 5 2 2 2 2 4 4

Segm_TL/S 5 2 2 2 2 - -

Tableau II.5: Paramètres généraux pour la segmentation de l’image “Maison”

3.6.1.3 - Image “Canarie”


Cette image couleur a été obtenue par numérisation de la reproduction couleur d’une image
satellite de la région des îles Canaries (figure II.41). Elle représente les différents courants
marins plus ou moins chauds autour des côtes. Cette image étant fortement bruitée, une étape
de filtrage a été réalisée à l’aide d’un filtre de rang vectoriel [ALS 94] de taille 7 qui permet à
la fois un effet de lissage préservant les structures dans l’image filtrée et un rehaussement des
contrastes permettant une plus grande netteté des contours.

L’histogramme de la Saturation pour cette image filtrée (figure II.37) est faible et plat pour
une large plage de niveaux allant de 10 à 120. Le choix des paramètres est alors difficile, et est
en fait réalisé d’après l’étude de l’influence du bruit sur la composante Teinte plus que par
l’allure de l’histogramme de la Saturation.

S0 est alors fixé à 50 et β=0,05 pour permettre l’utilisation unique de la Teinte pour des
Saturations dépassant 90.

Page 89
Segmentation couleur par fusion numérique

Le premier pic correspond aux terres (Afrique Occidental et les diverses îles) qui sont de
couleur noire. Pour la méthode Segm_Miyawaki, ces régions seront alors traitées suivant la
Luminance. Les valeurs choisies pour “Seuil1” et “Seuil2” sont donc de 20 et 90.
6000 1

Fonction de pondération
5000
Histogramme

4000
3000 0,5
2000
1000
0 0
0 20 50 90 150 200 250
Seuil1 S0 Seuil2 Saturation

Figure II.37: Histogramme de la Saturation et valeurs des paramètres de segmentation

Cette image étant une numérisation d’une carte en fausses couleurs, la segmentation selon
la base de Ohta sera réalisée suivant les trois composantes pour permettre de ne pas perdre
certaines régions caractérisées uniquement par I3. Les autres paramètres sont donnés dans le
tableau suivant:

composante nombre Luminance ou I1 Teinte ou I2 R,V,B ou I3

méthode d’itérations seuil initial incrément seuil initial incrément seuil initial incrément

Segm_vect_RVB 5 - - - - 6 6

Segm_Ohta 5 6 6 3 3 3 3

Segm_Miyawaki 5 6 6 1 2 6 6

Segm_TL/S 5 6 6 3 2 - -

Tableau II.6: Paramètres généraux pour la segmentation de l’image “Canarie”

3.6.1.4 - Image “Cellules”


Nous présentons ici une application sur une image médicale (figure II.42) qui est très
texturée et qui possède trois composantes fortement corrélées, aussi bien au niveau du signal
(les contours des cellules et des noyaux) que du bruit (texture). Comme pour l’image
précédente nous avons appliqué un filtre de rang de taille 5 pour atténuer le bruit.

L’histogramme de la Saturation présenté sur la figure II.38 est l’opposé du cas précédent. Il
n’y a pas de mode bien déterminé et la plus grande partie des pixels ont un niveau de
Saturation compris entre 20 et 110. Le choix des paramètres de segmentation est encore plus
délicat.

Pour la méthode Segm_Miyawaki nous avons pris la valeur 32 pour “Seuil1” et 78 pour
“Seuil2”. Ces deux valeurs correspondent à un minimum, peu marqué il est vrai, dans
l’histogramme de la Saturation.

Page 90
Segmentation couleur par fusion numérique

Pour S0, l’image étant bruitée on prendra une valeur relativement élevée (S0=70) et, du fait
de l’absence de mode bien marqué sur l’histogramme de la Saturation, la pente de la fonction
de pondération sera moyenne (β=0,07) pour permettre une coopération efficace entre les
composantes de Luminance et de Teinte pour la méthode de segmentation Segm_TL/S. Les
autres paramètres des différentes méthodes sont répertoriés dans le tableau II.7.
2500
1

Fonction de pondération
2000
Histogramme

1500
0,5
1000

500

0 0
0 32 50 70 78 100 150 200 250
Seuil1 S0 Seuil2 Saturation

Figure II.38: Histogramme de la Saturation et valeurs des paramètres de segmentation


composante nombre Luminance ou I1 Teinte ou I2 R,V,B ou I3

méthode d’itérations seuil initial incrément seuil initial incrément seuil initial incrément

Segm_vect_RVB 7 - - - - 2 2

Segm_Ohta 5 2 2 2 1 - -

Segm_Miyawaki 5 2 2 2 2 3 3

Segm_TL/S 5 2 2 2 2 - -

Tableau II.7: Paramètres généraux pour la segmentation de l’image “Cellules”

3.6.2 - Résultats de segmentation des images

Les figures suivantes (figure II.39 à II.42) présentent les résultats de segmentation des
quatre images précédentes. A coté des images originales en couleur, les images segmentées
sont présentées avec les frontières des régions obtenues. Toutes les régions sont ainsi visibles,
même celles composées d’un seul pixel (pixel non apparié par la méthode). Ceci permet de
bien observer la sensibilité aux bruits de chaque méthode, tout en sachant que ces pixels
pourraient facilement être agrégés avec une région voisine par un algorithme ultérieur de
fusion des petites régions (voir § 3 de l’ANNEXE B).

3.6.2.1 - Résultat sur l’image “Claire” (figure II.39)


Nous constatons que la segmentation vectorielle dans la base RVB est très sensible aux
bruits engendrés par les variations d’éclairage (notamment sur le visage et le haut de la veste).
Il en est de même pour la méthode Segm_Ohta qui utilise la composante I1 correspondant à
l’intensité qui est très sensible aux variations d’éclairages.

Les résultats obtenus par l’approche développée par Miyawaki et notre méthode sont
voisins et permettent une bonne description de la scène. Cependant, avec la méthode

Page 91
Segmentation couleur par fusion numérique

Segm_TL/S, les transitions entre les différentes parties sont plus nettes (moins de régions).
Cette sur-segmentation engendrée par la méthode Segm_Miyawaki est liée au fonctionnement
en commutation de composantes, qui se produit lors des transitions. Pour les deux méthodes,
l’utilisation de la Teinte lorsque la Saturation est élevée permet d’être moins sensible aux
variations de luminosité. Le visage est ainsi segmenté en une seule région.

3.6.2.2 - Résultat sur l’image “Maison” (figure II.40)


La segmentation suivant la base de Ohta apporte une très forte discrimination de toutes les
régions, mais également une sur-segmentation de l’image. Elle est cependant “visuellement
meilleure” que la segmentation vectorielle dans l’espace RVB, ceci surtout au niveau de la
localisation des bordures des fenêtres.

Les segmentations dans la base de représentation TLS créent moins de fausses régions et
sont globalement moins sensibles aux bruits. Cependant pour l’approche de Miyawaki, la
segmentation suivant les composantes R,V et B ainsi que l’utilisation de seuils fixes
engendrent une sur-segmentation de l’image dans les zones ou ces composantes sont utilisées
et les zones de commutation entre le traitement suivant la Luminance, la Teinte ou l’espace
RVB (flèche ❶). Comme il était prévu, la segmentation Segm_TL/S permet d’éliminer
certaines zones ombragées (flèches ❷), les autres (flèches ❸) étant trop prononcées.

3.6.2.3 - Résultat sur l’image “Canarie” (figure II.41)


L’effet de filtrage et de rehaussement de contraste a considérablement augmenté la qualité
de l’image et facilite ainsi le processus de segmentation. Si bien que toutes les méthodes
donnent de bons résultats. La segmentation selon la base RVB semble même être la
“meilleure” et la segmentation Segm_Miyawaki la moins performante sur cette image. Cette
médiocre performance de cette dernière méthode provient de la commutation entre le
traitement suivant la Teinte et le traitement suivant les composantes RVB près des côtes de
l’Afrique occidentale. Ce problème ne se produit pas avec notre méthode puisque la
commutation est remplacée par une coopération entre les composantes.

3.6.2.4 - Résultat sur l’image “Cellules” (figure II.42)


Même après filtrage elle demeure difficile à segmenter et l’interprétation des résultats
semble plus délicate que précédemment. Néanmoins, en se fixant l’objectif d’isoler
correctement les noyaux des cellules, les segmentations Segm_vect_RVB et Segm_TL/S
paraissent mieux atteindre cet objectif.

Pour confirmer cette impression, nous avons effectué, pour chaque image segmentée, une
extraction des régions ayant des caractéristiques colorimétriques proches de celles des noyaux.
Pour affiner cette extraction, nous avons ajouté des critères géométriques tels qu’une taille
minimum de 100 pixels et une certaine compacité des régions. La figure II.43 présente les
régions déterminées sur les diverses images segmentées, avec bien évidemment les mêmes
paramètres d’extraction. Cette simple étape ultérieure de localisation d’objets colorés permet
de vérifier l’impression visuelle que la méthode Segm_TL/S permet une meilleur détection des
noyaux.

Page 92
Segmentation couleur par fusion numérique

a]: Originale
image couleur en annexe E

b]: Segm_Ohta

c]: Segm_vect_RVB a]

d]: Segm_Miyawaki

e]: Segm_TL/S

b] c]

2922 régions 2642 régions

d] e]

2386 régions 1697 régions


Figure II.39: Résultats de segmentation de l’image “Claire”

Page 93
Segmentation couleur par fusion numérique

a]: Originale
image couleur en annexe E

b]: Segm_Ohta

c]: Segm_vect_RVB a]

d]: Segm_Miyawaki

e]: Segm_TL/S ❸

b] c]

3251 régions 3736 régions

d] e]

2800 régions 2788 régions


Figure II.40: Résultats de segmentation de l’image “Maison”

Page 94
Segmentation couleur par fusion numérique

a]

Originale a]: Originale filtrée


image couleur en annexe E image couleur en annexe E

b] c]

b]: Segm_Ohta 850 régions c]: Segm_vect_RVB 466 régions

d] e]

d]: Segm_Miyawaki 758 régions e]: Segm_TL/S 413 régions


Figure II.41: Résultats de segmentation de l’image “Canarie”

Page 95
Segmentation couleur par fusion numérique

a]

Originale a]: Originale filtrée


image couleur en annexe E image couleur en annexe E

b] c]

b]: Segm_Ohta 5732 régions c]: Segm_vect_RVB 2963 régions

d] e]

d]: Segm_Miyawaki 3681 régions e]: Segm_TL/S 2791 régions


Figure II.42: Résultats de segmentation de l’image “Cellules”

Page 96
Segmentation couleur par fusion numérique

a]: Extraction après Segm_Ohta b]: Extraction après Segm_vect_RVB

c]: Extraction après Segm_Miyawaki d]: Extraction après Segm_TL/S

Figure II.43: Extractions des noyaux de l’image «Cellule»

3.7 - Conclusion

Nous avons présenté dans ce paragraphe une méthode générale de segmentation sur des
images couleur basée sur une coopération entre les composantes Teinte et Luminance, sous le
contrôle de la Saturation. En définissant un critère composite entre deux couleurs, on est alors
ramené au problème classique d’une segmentation selon un critère d’homogénéité.

Nous avons étudié l’influence des paramètres de notre méthode en utilisant un indicateur de
performances. Ceci nous a permis de déterminer une stratégie d’ajustement et des plages de
réglage pour le choix des valeurs de ces paramètres.

Notre approche a été comparée quantitativement à diverses méthodes de segmentation sur


des images synthétiques bruitées artificiellement. Elle présente une bonne résistance vis-à-vis
d’un bruit additif surtout dans le cas ou celui-ci est corrélé entre les composantes R,V et B.

Page 97
Segmentation couleur par fusion numérique

Nous avons également comparé les résultats obtenus sur des images couleur réelles et
montré ainsi que l’utilisation implicite de l’information de Teinte permet de s’affranchir des
faibles variations d’éclairage.

La méthode proposée était testée en association avec un algorithme usuel de croissance de


régions. Elle est utilisable avec tout algorithme de segmentation basé sur un critère
d’homogénéité.

4 - Conclusion

Dans ce chapitre nous avons vu qu’il était possible d’étendre des techniques de
segmentation niveau de gris (détection de contours à l’aide d’un masque de Sobel, croissance
de régions) basées sur des critères différentiels à des images couleur représentées dans la base
Teinte-Luminance-Saturation.

Le critère utilisé est alors un critère mixte mélangeant numériquement les informations
complémentaires apportées par les diverses composantes, en tenant compte de la non
pertinence de la Teinte lorsqu’elle n’est pas suffisamment saturée. Cette situation est
malheureusement relativement courante dans les images naturelles, en général pauvres en
couleurs pures. Néanmoins, les performances de la méthode proposée sont globalement:

❏ supérieures à celles obtenues par des méthodes travaillant sur d’autres bases
de représentation (RVB, Ohta,...).

❏ voisines ou supérieures à celles obtenues par des méthodes travaillant


également dans la base TLS mais avec une stratégie de coopération inter-
composantes différente de celle proposée.

Cette méthodologie pose malgré tout un problème, notamment pour la segmentation en


régions. Le mélange, dans un même prédicat numérique, de grandeurs de natures différentes,
comme des écarts de Teinte et des écarts de Luminance, est délicat. Pour remédier à ce
problème nous allons présenter dans le chapitre suivant des techniques de fusion des
composantes Teinte, Luminance et Saturation faisant appel à la logique floue. L’idée de base
consiste à effectuer le mélange des informations de natures différentes par l’intermédiaire de
leur représentation symbolique.

Page 98
CHAPITRE III

Segmentation couleur par


fusion symbolique

Page 99
Segmentation couleur par fusion symbolique

1 - Introduction

Les ensembles flous (en Anglais “Fuzzy Sets”) ont été introduits en 1965 par Lotfi Zadeh
comme étant une nouvelle méthode pour modéliser les connaissances vagues du langage
naturel, tels que “personne âgé”, “température élevée”, “écart grand” [ZAD 65]. Ils
permettent alors de prendre en compte la gradualité des concepts utilisés.

Depuis leur introduction, les ensembles flous et la logique floue, qui permet de raisonner sur
de telles connaissances, ont été largement utilisés pour le contrôle et la prise de décision, et
plus récemment pour le traitement des images. En analyse d’images et reconnaissance de
formes, les ensembles flous sont en effet une représentation intéressante pour segmenter,
classifier ou fusionner des données, lorsque les régions ou les classes ne peuvent pas être
clairement définies. Prewitt, le premier, nota que les parties d’une image représentant des
objets peuvent être considérées comme floues. Plus tard, plusieurs contributions ont été
réalisées dans l’analyse des images, la segmentation et plus généralement le traitement des
images numériques. On peut d’ailleurs trouver un résumé des travaux les plus significatifs dans
[LEV 89] [PAL 92] [KRI 92] [ROS 92] et une présentation plus complète dans [BEZ 92].

Plus récemment, on retrouve également l’utilisation des ensembles flous dans les étapes de
filtrage avec l’introduction par exemple d’un filtre médian flou dans [RUS 94b] ou d’une
classe de filtre à réponse impulsionnelle finie appelée “Fuzzy one-mean derivative filters” dans
[CHE 95].

L’extension de la morphologie mathématique pour les ensembles flous a permis de définir


notamment des opérateurs d’érosion floue ou de dilatation floue [BLO 93]. L’utilisation des
éléments structurants flous sur les ensembles flous permet ainsi d’introduire une information
d’imprécision spatiale dans les processus de décision pour la fusion de données.

Dans le domaine de la segmentation des images, les algorithmes trouvés dans la littérature
font généralement intervenir l’algorithme de classification dit du “Fuzzy c-Means” (noté par la
suite FCM) développé par J.C. Bezdeck [BEZ 81] d’après les travaux de J.C. Dunn [DUN 74].

Une autre approche, plus récente, consiste à intégrer, dès l’étape de segmentation, les
connaissances humaines. Elle se révèle être un domaine de recherche très prometteur pour la
segmentation des images que ce soit pour la détection de contours ou la segmentation en
régions.

1.1 - Méthodes travaillant avec l’algorithme du Fuzzy C-Means

Page 101
Segmentation couleur par fusion symbolique

1.1.1 - Présentation de l’algorithme

Applicable sur des images mono ou multi spectrales, c’est un algorithme de réallocation
floue, dans lequel les classes sont représentées par un centre de gravité. Cet algorithme est basé
sur la minimisation sous contrainte d’une fonction de coût, formée d’une somme quadratique
des erreurs intra-classes entre les formes et les centres des classes. Ainsi, pour la classification
de l’ensemble fini X = {x1, x2,..., xn} de n donnés, scalaires ou vectorielles, la fonction de coût
est décrite par l’équation suivante:
n c

∑ ∑ µik ⋅
m 2
J m (U,v) = xk – vi (III.1)
k=1 i=1

où U est la partition floue de X en c classes à former, v = {v1, v2,..., vc} l’ensemble des centres
des classes; µik est le degrés d’appartenance de la forme xk à la classe i sous la contrainte
c

∑ µik = 1 , m est un paramètre de pondération appelé le facteur de flou et ||.|| une distance
i=1
quelconque entre la forme xk et le centre vi.

Les solutions pour une classification optimale sont obtenues lorsque Jm(U,v) est minimale.
Il a été montré que pour m supérieur à 1 et en supposant x k ≠ v j , le minimum de cette fonction
peut être déterminer à partir des équations III.2 et III.3
c –1
 x k – v i 2 ⁄ ( m – 1 )
=  ∑  -------------------- 
m
µ ik  (III.2)
 j = 1  xk – v j  
n

∑ ( µik ⋅ xk )
m

v i = k--------------------------------
=1
n
- (III.3)

m
µ ik
k=1

La partition optimale est obtenue par itérations successives jusqu’à convergence des
résultats. Après une initialisation des différents paramètres de l’algorithme notamment, le
nombre de classe c, la partition initiale, le facteur de flou “m” et le seuil de convergence désiré,
on détermine les centres des nouvelles classes par l’équation III.3, puis les degrés
d’appartenance des formes à ces classes par l’équation III.2. On répète ces deux phases tant
que l’écart entre deux vecteurs centres successifs n’est pas inférieur au seuil de convergence.
On peut trouver une explication plus approfondie de cet algorithme dans [WIN 82].

A l’issue de cette étape, on dispose d’une partition floue de X en c classes, et du vecteur des
c centres des classes. Cependant, cette classification floue ne conduit pas à la segmentation
finale de l’image. L’étape suivante, implicite lorsqu’on utilise un algorithme de classification
stricte, consiste à défuzzifier les résultats obtenus par l’algorithme du Fuzzy C-Means pour

Page 102
Segmentation couleur par fusion symbolique

définir les différentes régions de l’image ou mettre en évidence leurs contours. Bombardier
dans [BOM 92] utilise cette méthodologie pour mettre en évidence les contours d’une image
monochrome et compare les résultats obtenus à ceux des méthodes traditionnelles (Deriche).

1.1.2 - Quelques applications aux images couleur

Dans le domaine de la détection de contours dans les images couleur à l’aide d’une
classification floue, les travaux de T.L. Huntsberger sont les plus souvent cités. Notamment
dans [HUN 85] il définit ainsi un opérateur de détection de contours indépendant de
l’orientation du contour et surtout d’un choix, toujours critique, de seuil de détection. Après
l’étape de classification floue, les contours couleur sont localisés par le passage par zéro de la
fonction suivante:

EDGEk (µi, µj) = µi - µj, (III.4)


dans laquelle µi et µj sont les degrés d’appartenances associés pour le pixel k aux classes i et j.
Comme les degrés d’appartenance sont proches de 1 à l’intérieur d’une région homogène sur le
plan colorimétrique et tendent vers zéro en dehors de la région, la frontière entre deux régions
couleurs résulte d’un changement de signe du résultat donné par l’opérateur EDGEk.

Pour la segmentation en régions d’images couleur, l’algorithme le plus souvent cité est celui
de Y.W. Lim et S.U. Lee [LIM 90] qui est par ailleurs utilisé dans le logiciel “Image Magick de
E.I. du Pont De Nemours and Compagny”. La méthodologie utilise un concept de “grossier-
fin” pour réduire le temps de traitement induit par l’algorithme du FCM. Une première
segmentation “grossière”, dans le sens où seuls les pixels très proches d’un point de vue
colorimétrique sont regroupés, crée une première partition de l’image en utilisant une
technique de seuillage sur les histogrammes. L’analyse des histogrammes des trois
composantes couleur de l’image est réalisée à l’aide d’un outil développé par A.P. Witkin
(appelé “scale space filter”) [WIT 84] permettant de déterminer quels pics ou vallées sont
prédominants dans l’histogramme. L’étape suivante de segmentation “fine” fusionne les pixels
non encore classifiés avec la classe la plus proche en utilisant l’algorithme du FCM. La
première étape permet à la fois de diminuer le nombre d’informations à traiter et de ce fait le
temps de traitement. Elle sert également à déterminer le nombre de classes nécessaires pour
amorcer l’algorithme du FCM.

Ces différentes méthodes de segmentation des images couleur peuvent être utilisées dans la
plupart des bases de représentation de la couleur (RVB, YIQ, XYZ, I1I2I3,...) à l’exception de
la base TLS du fait de la circularité de l’information de Teinte.

1.2 - Intégration des connaissances dans l’étape de segmentation

L’utilisation de la logique floue dans la segmentation des images ne se limite cependant pas
à de la classification par l’algorithme du FCM. L’apport des connaissances humaines traduites
en termes de règles linguistiques peut facilement s’exprimer à l’aide de la logique floue.
L’expertise humaine est ainsi traduite selon une architecture de type Si - Alors - Sinon. Par
exemple, on peut définir un point contour dans une image gradient par la règle suivante:

Page 103
Segmentation couleur par fusion symbolique

Si le gradient du pixel courant est fort Alors


le pixel est un point de contour
Sinon
le pixel est l’intérieur d’une région
La théorie des sous-ensembles flous sont bien adaptés pour traduire cette description
linguistique des connaissances et peuvent ainsi être utilisés dans un nombre important de
tâches de traitement d’images, même pour les tâches de bas niveau comme la segmentation.
Par exemple, pour les images à niveaux de gris F. Russo a proposé une famille d’opérateurs
flous (les FIRE opérateurs pour “Fuzzy Inference Ruled by Else action”), permettant aussi bien
le rehaussement de contraste [RUS 94a], le filtrage [RUS 94b] que la détection de contours
[RUS 94c].

Nous avons adapté dans [CAR 95a] cette approche de détection de contours par des jeux de
règles floues au cas des images couleur traitées dans la base TLS. Le § 2 de ce chapitre
présente cette méthode intégrant l’expertise des propriétés propres à ces composantes pour
fournir un détecteur flou de contours couleur.

L’approche par règles linguistiques est également intéressante pour la segmentation en


régions. A. Moghaddamzadeh et N. Bourbakis dans [MOG 94] propose une méthode de
croissance de germes en définissant une région comme étant:

“une collection de pixels connexes ayant presque la même couleur et


un changement graduel dans celle-ci“.
Il débute son algorithme par une localisation des gros germes homogènes à l’aide d’une
méthode de croissance de régions contrôlée par une carte des contours obtenue avec un
opérateur très sensible aux variations. Ces germes sont ensuite étendus en utilisant deux règles
linguistiques basées sur des écarts de niveau entre le pixel candidat à la fusion et le germe, ceci
dans la base RVB. En dernier ressort, les pixels non encore classifiés sont fusionnés avec les
germes les plus proches ou, s’ils possèdent un fort contraste avec tous les germes environnants,
un nouveau germe est créé.

Dans [CAR 95b] nous avons proposé une autre utilisation de la logique floue en adaptant
l’algorithme de segmentation en régions par fusion numérique présenté au § 3 du chapitre II.
Cette méthode décrite dans le § 3 de ce chapitre utilise des ensembles flous pour modéliser les
grandeurs numériques associées à la technique de segmentation par croissance de régions. Des
jeux de règles appropriés permettent alors d’engendrer un prédicat d’homogénéité floue basé
sur une coopération symbolique entre les diverses composantes Teinte, Luminance et
Saturation de l’image couleur.

Pour les lecteurs non familiarisés avec la théorie des sous-ensembles flous, ils trouveront les
notions de base nécessaires à la compréhension de ce chapitre dans l’ANNEXE C.

Page 104
Segmentation couleur par fusion symbolique

2 - Détection de contours couleur par jeux de règles floues

Dans ce paragraphe nous proposons d’utiliser la théorie des ensembles flous associée à un
jeu de règles d’inférences pour définir un nouveau détecteur de contours couleur associant les
informations de Teinte, Luminance et Saturation. Cette approche est fondée sur la même
stratégie de fusion des informations T, L et S que celle utilisée dans l’approche “numérique”
(cf. § 2.4.1 du chapitre II). Par contre, l’opérateur mettant en évidence les contours est
fondamentalement différent. Il est issue d’une technique en niveaux de gris présentée dans le
paragraphe suivant. La généralisation de cette technique au cas des images couleur
représentées dans la base TLS est décrite dans le § 2.2. Nous évaluerons ensuite les
performances de ce nouvel opérateur avant de présenter quelques applications à des images
réelles.

2.1 - Présentation d’un opérateur flou pour les images monochromatiques

Nous présentons ici l’approche proposée dans [TAO 93] [RUS 94c] et utilisée par
[LEM 94] pour obtenir un opérateur de détection de contours adaptable à différents types de
contour. Cette approche combine des règles floues de type Si-Alors assignant un niveau
d’appartenance aux contours pour chaque pixel de l’image et générant ainsi un ensemble de
pixels potentiellement points de contour.

2.1.1 - Principe de base

Cet opérateur basé sur l’utilisation de règles floues s’appuie sur la définition linguistique
suivante d’un contour:

“Un contour représente une transition plus ou moins forte voisine d’une zone homogène”
Ainsi, autour du pixel courant, on va rechercher une zone z_t présentant une transition par
rapport à ce pixel et une zone z_h homogène par rapport à ce pixel. Si cette situation est mise
en évidence, le pixel courant est alors potentiellement un point de contour. Pour rechercher ces
zones, plusieurs masques de dimension 3x3 sont envisagés. Les termes linguistiques de
transition et d’homogénéité sont des sous-ensembles flous symboliques obtenus, à partir de
sous-ensemble flous numériques relatifs aux différences de niveaux entre le pixel courant et ses
voisins, en suivant une approche par opérateur logique. Dans le § 1 de l’ANNEXE D, nous
présentons cet opérateur en suivant une approche par inférence.

2.1.2 - Partition de la différence de niveaux

La différence absolue de niveaux de gris entre le pixel central et un pixel voisin est
caractérisée par deux symboles flous petite et grande qui sont antagonistes. Les sous-
ensembles flous numériques associés à ces symboles sont respectivement caractérisés par des
fonctions d’appartenance µ M ( petite ) ( δg ) (notée µpetite) et µ M ( grande ) ( δg ) (notée µgrande)
complémentaires (µpetite = 1 - µgrande). La figure III.1 montre un exemple de choix de ces
fonctions d’appartenance sur l’univers de discours continu qu’est la différence absolue de
niveaux de gris (noté δg). Cet univers est défini entre 0 et 255.

Page 105
Segmentation couleur par fusion symbolique

Nous utilisons des fonctions linéaires par morceaux pour des raisons de simplicité. Le
premier paramètre (arbitrairement fixé à 5) n’est pas égal à zéro pour permettre d’atténuer la
sensibilité aux bruits. Le second, fixé à 128, permet de donner une dynamique plus importante,
aux différences de niveaux de gris moyennes. En contre partie les différences de niveaux de
gris de grande amplitude (>128) auront toutes la même importance.

Degrés d’appartenance
µpetite µgrande
1

0.5

0 5 128 255 δg

Figure III.1: Exemple de partition de la différence de niveaux de gris

2.1.3 - Jeux de règles symboliques et potentiel contour du pixel (PCP)

Plusieurs masques 3x3 sont utilisés pour caractériser géométriquement les formes de
contours envisagés. Tao utilise 16 masques présentés en figure III.2 tandis que Russo définit un
opérateur moins sensible au bruit à l’aide des 8 masques de la figure III.3. Chaque masque ne
prend en considération que 6 des 8 voisins du pixels central X dont on cherche le potentiel
contour.

z_h z_h z_t z_h z_t z_t z_t z_t z_h z_h z_h z_h

z_h X z_t z_h X z_t z_t X z_h z_h X z_h

z_h z_h z_t z_h z_h z_h z_h z_h z_h z_t z_t z_t
M1 M2 M3 M4

z_h z_t z_t z_h z_h z_h z_t z_t z_h z_t z_t z_t

z_h X z_t z_t X z_h z_t X z_h z_t X z_h

z_h z_h z_t z_t z_t z_t z_t z_h z_h z_h z_h z_h
M5 M6 M7 M8

z_t z_t z_t z_h z_h z_h z_h z_h z_t z_t z_h z_h

z_h X z_t z_h X z_t z_h X z_t z_t X z_h

z_h z_h z_h z_t z_t z_t z_h z_t z_t z_t z_t z_h
M9 M10 M11 M12

z_h z_h z_t z_t z_t z_t z_t z_h z_h z_t z_t z_t

z_h X z_t z_h X z_t z_t X z_h z_t X z_h

z_t z_t z_t z_h z_h z_t z_t z_t z_t z_t z_h z_h
M13 M14 M15 M16

Figure III.2: Les 16 masques de Tao

Page 106
Segmentation couleur par fusion symbolique

z_t z_t z_h z_h z_h z_h z_t z_t

z_h X z_t z_h X z_t z_t X z_h z_t X z_h

z_h z_h z_t z_t z_t z_t z_h z_h


M1 M2 M3 M4

z_t z_t z_t z_h z_t z_h z_h z_h z_t z_h

X z_h X z_t X z_t X z_h

z_h z_h z_h z_h z_t z_t z_t z_t z_t z_h
M5 M6 M7 M8

Figure III.3: Les 8 masques de Russo

2.1.3.1 - Fuzzification des différences de niveaux


Pour chaque masque Mi, Dz_h (respectivement Dz_t) représente la différence absolue de
niveaux de gris entre le pixel central (X) et un pixel marqué par z_h (respectivement marqué
par z_t). Toutes ces différences sont caractérisées par les symboles précédents, c’est-à-dire
petite pour les différences Dz_h et grande pour les différences Dz_t. Une description floue,
caractérisée par µ h ( petite ) (notée µDz_h (petite)), est ainsi associée à chaque
D ( Dz_h )

différence Dz_h (respectivement µ ( grande ) notée µDz_t (grande) est associée à


D ( Dz_t )
t

Dz_t).

2.1.3.2 - Combinaison logique entre les caractérisations des différences


Pour chaque masque, un jeu de deux règles du type Si-Alors est utilisé pour définir les sous-
ensembles flous symboliques homogène_Mi et transition_Mi caractérisant les zones z_h et z_t
de ce masque:

❏ Si toutes les différences Dz_h du masque sont petites Alors


z_h est une région homogène_Mi pour ce masque
❏ Si toutes les différences Dz_t du masque sont grandes Alors
z_t est une zone de transition_Mi pour ce masque

Pour chaque masque Mi, on peut alors obtenir les fonctions d’appartenance µhomogéne_Mi et
µtransition_Mi, associées respectivement aux symboles homogène_Mi et transition_Mi, en
utilisant un opérateur de conjonction entre les différents sous-ensemble flous numériques
décrivant les différences Dz_h et Dz_t. Si T désigne une t-norme on aura alors:

µ M ( homogène_Mi ) ( Dz_h ) = T toutes les Dz_h ( µ M ( petite ) ( Dz_h ) ) (III.5)

µ M ( transition_Mi ) ( Dz_t ) = T toutes les Dz_t ( µ M ( grande ) ( Dz_t ) ) (III.6)

Page 107
Segmentation couleur par fusion symbolique

2.1.3.3 - Combinaison logique entre les caractérisations des zones


Pour chaque masque, la règle symbolique suivante est appliquée pour déterminer si le pixel
X est potentiellement un point de contour pour ce masque:

❏ Si z_h est une zone homogène_Mi Et z_t est une zone de transition_Mi Alors
le pixel central de la structure est potentiellement un point de contour
pour ce masque

Le résultat de cette règle est donc un sous-ensemble flou symbolique noté PCP_Mi. La
fonction d’appartenance µPCP_Mi pour ce symbole est obtenue par la formule suivante:

µ M ( PCP_Mi ) ( X ) = T {µ M ( homogène_Mi ) ( X ), µ M ( transition_Mi ) ( X )} (III.7)

l’opérateur de conjonction agissant ici entre les sous-ensembles flous homogène_Mi et


transition_Mi obtenus pour un masque.

2.1.3.4 - Agrégation des potentiels contours entre les différents masques


Ayant ainsi obtenu les PCP_Mi pour chaque masque Mi, il reste à les agréger en utilisant un
opérateur de disjonction floue pour obtenir le sous-ensemble flou symbolique final noté PCP,
caractérisant le potentiel contour du pixel X. Si ⊥ désigne une t-conorme la fonction
d’appartenance µPCP est donnée par:

µ M ( PCP ) ( X ) = ⊥ tous les PCP_Mi ( µ M ( PCP_Mi ) ( X ) ) (III.8)

Dans la pratique, la t-norme utilisée est la fonction “Min”, et la t-conorme est la fonction
“Max”.

2.1.4 - Création de l’image gradient

Un niveaux de gris 255 ⋅ µ PCP ( X ) est assigné au pixel “X”. Ce niveau sera interprété
comme le module du gradient. La direction de celui-ci pourra être définie par la direction
associée au masque correspondant au PCP_Mi sélectionné selon un codage de type Freeman.

Une des propriétés importantes d’un détecteur de contours est la finesse qu’il apporte aux
contours (largeur de 1 pixel). Pour cela, une étape d’affinage, proposée dans [TAO 93],
éliminant les pixels ayant un potentiel contour redondant, est nécessaire.

Cette étape peut être réalisée à l’aide de la règle suivante appliquée sur les 8 masques de la
figure III.4:

❏ Si tous les degrés d’appartenance à PCP des pixels marqués par un “x” sont
supérieurs au degré d’appartenance à PCP du pixel “X” Alors
le potentiel contour du pixel “X” est éliminé.

Page 108
Segmentation couleur par fusion symbolique

x x x x x
X X x X X x
x x x x x

x x x x
x X X x x X X x
x x x x

Figure III.4: Structures éliminant les pixels contours redondant

2.1.5 - Remarques

Bien qu’il existe de nombreuses autres fonctions de t-norme et de t-conorme, l’utilisation


des fonctions “Min” et “Max” est une nécessité si l’on veut maintenir une dynamique assez
importante dans l’image gradient. Cet opérateur sera alors fortement sensible au bruit, même
pour l’opérateur travaillant sur les 8 masques puisqu’il n’y a pas d’effet de lissage, comme
c’est le cas dans l’opérateur de Sobel par exemple. Une étape préalable de filtrage sera donc
nécessaire avant d’appliquer un tel opérateur.

2.2 - Généralisation aux images couleur

2.2.1 - principe de base

La méthodologie précédente appliquée indépendamment sur chaque composante de l’image


couleur va fournir trois sous-ensembles flous de symboles PCP_T, PCP_L, et PCP_S,
caractérisant le potentiel contour du pixel X dans chaque composante. Puis ces trois sous-
ensembles flous seront fusionnés par inférence d’un jeu de règles pour donner un sous-
ensemble flou PCP_TLS caractérisant le potentiel contour couleur associé à ce pixel. Le
synoptique de ce traitement est présenté dans le § 2 de l’ANNEXE D.

Si pour les potentiels contours en Luminance et en Saturation la méthode précédente est


directement exploitable et fournit les fonctions d’appartenance aux symboles (µPCP_L et
µPCP_S), il n’en va pas de même pour la composante Teinte. Les caractéristiques spécifiques de
cette information, notamment sa pertinence variable, devront être prises en considération pour
évaluer une fonction d’appartenance µPCP_T cohérente.

2.2.2 - Potentiel contour en Teinte (PCP_T)

Les deux caractéristiques spécifiques de la composante Teinte sont d’une part une
représentation circulaire reposant sur un choix arbitraire des relations entre les couleurs et leur
valeurs numériques et d’autre part une fiabilité variable que l’on peut, comme nous l’avons fait
précédemment, lier au niveau de Saturation.

La circularité de la Teinte n’est pas un réel handicap. En effet, nous avons vu au § 2.2.1 du
chapitre II, que l’on peut facilement calculer une différence absolue circulaire modulo 256.

Page 109
Segmentation couleur par fusion symbolique

L’univers de discours de la différence de Teinte (noté ∆T) est alors compris entre 0 et 128.
Comme dans le cas de la différence de niveaux de gris, deux symboles faible et forte vont
caractériser cette grandeur. Les sous-ensembles flous numériques associés à ces symboles sont
définis à partir de fonctions d’appartenance µ M ( faible ) ( δt ) (notée µfaible) et µ M ( forte ) ( δt )
(notée µforte) dont un exemple est donné en figure III.5.

Degrés d’appartenance
µfaible µforte
1

0.5

0 2 41 128 δt

Figure III.5: Exemple de partition de la différence absolue circulaire de Teinte

Comme pour la partition de la différence de niveaux de gris, le premier paramètre


(arbitrairement fixé à la valeur 2) permet d’atténuer l’influence du bruit sur l’opérateur. Le
second paramètre est fixé à la valeur 41 qui correspond à l’écart maximal, dans notre base de
représentation sur 256 niveaux, entre 2 Teintes situées aux sommets du cube des couleurs (par
exemples Rouge et Jaune ou Vert et Cyan).

La fiabilité de l’information de Teinte peut être décrite par un sous-ensemble flou


numérique associé au symbole pertinente dont l’univers de discours est la Saturation (S). La
figure III.6 donne un exemple de fonction d’appartenance µ M ( pertinente ) ( s ) (notée
µpertinente) de ce sous-ensemble flou.

Degrés d’appartenance
µpertinente
1 θ

0.5

0 S0 255 s

Figure III.6: Exemple de fonction d’appartenance liée à la fiabilité de la Teinte

Cette fonction d’appartenance est très proche de la fonction α(s) définie dans le paragraphe
2.1 du chapitre 2. Nous avons choisi ici une fonction linéaire par morceaux pour des raisons de
simplicité

L’évolution de cette fonction d’appartenance est contrôlée par le paramètre S0 qui


correspond au niveau de Saturation entraînant une pertinence moyenne de l’information de
Teinte, et par θ qui permet de modifier la pente autour de S0. Le rôle et l’influence de ces deux
paramètres sont identiques à ceux tenus par S0 et β dans la fonction α(S).

Page 110
Segmentation couleur par fusion symbolique

Pour caractériser la différence absolue pertinente de Teinte entre deux pixels p1(t1, l1, s1) et
p2(t2, l2, s2), nous allons utiliser deux sous-ensembles flous de symboles petite et grande qui
sont le résultat du jeu de règles suivants:
❏ Si les Teintes de p1 Et de p2 sont pertinentes Et la différence absolue de
Teinte entre ces deux pixels est faible Alors
la différence absolue pertinente de Teinte est petite.

❏ Si les Teintes de p1 Et de p2 sont pertinentes Et la différence absolue de


Teinte entre ces deux pixels est forte Alors
la différence absolue pertinente de Teinte est grande.
Les fonctions d’appartenance µpetite et µgrande sont obtenues par une combinaison logique
entre les symboles. On a:
µ M ( petite ) ( s 1, s 2, ∆ ( t 1 ,t 2 ) ) = T ( µ pertinente ( s 1 ) ,µ pertinente ( s 2 ) ,µ faible ( δ ( t 1 ,t 2 ) ) ) , (III.9)

µ M ( grande ) ( s 1, s 2, ∆ ( t 1 ,t 2 ) ) = T ( µ pertinente ( s 1 ) ,µ pertinente ( s 2 ) ,µ forte ( δ ( t 1 ,t 2 ) ) ) , (III.10)

T désignant comme précédemment une t-norme.

Une fois ces deux sous-ensembles flous définis, le potentiel contour du pixel en Teinte
PCP_T est obtenu de la même manière que pour les images en niveaux de gris et est caractérisé
par sa fonction d’appartenance µPCP_T.

Il est à noter que cette fonction d’appartenance, qui dépend des niveaux de Saturation et de
Teinte des pixels, ne pourra avoir une valeur non nulle que dans le cas ou l’information de
Teinte des deux pixels est pertinente. Autrement dit, dans la composante Teinte, les seuls pixels
ayant un potentiel contour sont les pixels indiquant un contour entre deux régions saturées.

2.2.3 - Potentiel contour couleur (PCP_TLS)

Pour obtenir le potentiel contour couleur, il faut combiner les trois potentiels PCP_T,
PCP_L et PCP_S. La démarche qui nous a guidés dans la construction de cette combinaison
est basée sur l’idée principale suivante:

Le poids (donc la valeur du PCP_TLS) d’un contour sera bien-sûr lié à la valeur des
potentiels contours de chaque composante, mais aussi à la fréquence d’apparition de ce
contour dans les différentes composantes.

Dans un premier temps les trois potentiels contours (PCP_T, PCP_L et PCP_S) sont
combinés suivant trois règles afin de caractériser, à l’aide de trois symboles flous
L(PCP_I) = {PCP_1, PCP_2, PCP_3}, trois types de point contour dans l’espace TLS. La
signification de ces trois symboles est la suivante:

❏ PCP_1: le pixel courant X est un point potentiel contour dans une des

Page 111
Segmentation couleur par fusion symbolique

trois composantes de la base TLS.


❏ PCP_2: le pixel courant X est un potentiel contour dans deux des trois
composantes de la base TLS.
❏ PCP_3: le pixel courant X est un potentiel contour dans les trois
composantes de la base TLS.

Le jeu de règles symboliques de type Si-Alors permettant de générer ces significations à


partir des potentiels contours définis dans chaque composante est:

❏ Si le potentiel contour de X est {PCP_T Ou PCP_L Ou PCP_S} Alors


le potentiel contour de X est de type PCP_1
❏ Si le potentiel contour de X est { (PCP_T Et PCP_L)
Ou (PCP_T Et PCP_S)
Ou (PCP_L Et PCP_S)} Alors
le potentiel contour de X est de type PCP_2
❏ Si le potentiel contour de X est {PCP_T Et PCP_L Et PCP_S} Alors
le potentiel contour de X est de type PCP_3

Les trois nouveaux sous-ensembles flous de symboles sont tels que celui associé à PCP_3
est inclus dans celui associé à PCP_2 qui est également inclus dans celui associé à PCP_1.
Autrement dit, et c’est une évidence, un pixel ayant un potentiel contour dans les trois
composantes Teinte, Luminance et Saturation a forcément un potentiel dans deux des trois et a
fortiori dans une composante.

Les fonctions d’appartenances associées à ces trois symboles sont obtenues en utilisant les
opérateurs logiques de conjonction et de disjonction. On a alors:

µ PCP_1 ( x ) = ⊥ [µ PCP_T ( x ),µ PCP_L ( x ), µ PCP_S ( x )] (III.11)

µ PCP_2 ( x ) = ⊥ [ T (µ PCP_T ( x ),µ PCP_L ( x )), (III.12)


T (µ PCP_T ( x ),µ PCP_S ( x )),
T (µ PCP_L ( x ),µ PCP_S ( x ))]
µ PCP_3 ( x ) = T [µ PCP_T ( x ),µ PCP_L ( x ), µ PCP_S ( x )] (III.13)

Pour permettre la combinaison et de ce fait la prise en considération des informations


provenant des trois symboles, la t-norme utilisée est la fonction produit. Pour la t-conorme,
nous prendrons la fonction “Max” dans le but de ne retenir que le degrés d’appartenance
maximum (correspondant au potentiel maximum) de chaque symbole.

La définition des significations flous de ces trois symboles permet de calculer la


caractérisation linguistique de x:
∀ W ∈ L(PCP_I), µD(x) (W) = µM(W) (x)

Page 112
Segmentation couleur par fusion symbolique

Le potentiel contour couleur du pixel courant est décrit par un symbole noté PCP_TLS.
Pour donner une signification plus importante aux contours présents dans les trois
composantes (contours décrits par PCP_3) par rapport à ceux présents dans deux ou dans une
des trois composantes (contours décrits respectivement par PCP_2 et PCP_1), un coefficient
est ajouté pour pondérer la “force” de la relation entre les symboles. Le symbole PCP_TLS est
alors obtenu en calculant l’image de la description de x sur L(PCP_I) par le jeu de règles
caractérisé par une relation floue entre les symboles PCP_1, PCP_2, PCP_3 et le symbole
PCP_TLS. Le jeu de règles est alors le suivant:
❏ Si le potentiel contour de X est PCP_1 Alors
le potentiel contour couleur de X est PCP_TLS à CPCP_1

❏ Si le potentiel contour de X est PCP_2 Alors


le potentiel contour couleur de X est PCP_TLS à CPCP_2

❏ Si le potentiel contour de X est PCP_3 Alors


le potentiel contour couleur de X est PCP_TLS à CPCP_3

On a alors un jeu de trois coefficients CPCP_1, CPCP_2 et CPCP_3 qui sont choisis tels que:
CPCP_3 > CPCP_2 > CPCP_1 et CPCP_3 + CPCP_2 + CPCP_1 = 1

Le graphe flou associé à ce jeu de règles est construit sur le produit cartésien des ensembles
L(PCP_I) et L(PCP_TLS) dont les éléments seront respectivement notés W et W’. Ainsi le jeu
de règles est représenté par le graphe flou µΓ (W, W’) suivant:

W ∈ L(PCP_I)
µΓ (W, W’) PCP_1 PCP_2 PCP_3

W’ ∈ L(PCP_TLS) PCP_TLS CPCP_1 CPCP_2 CPCP_3

Tableau III.1: Graphe flou associé au jeu de règles

En réalisant l’inférence de ce jeu de règles à l’aide du principe de combinaison-projection,


on peut exprimer le degré d’appartenance de tout élément W’ à la partie floue F par:

∀ W’ ∈ L(PCP_TLS), µF(W’) = ⊥ W ∈ L(PCP_I) T [µD(x)(W), µΓ(W, W’)] (III.14)

En posant que le résultat obtenu est la description de x sur le langage L(PCP_TLS)


( µ F ( W′ ) = µ D ( x ) ( W′ ) ), l’expression précédente devient:

∀ W’ ∈ L(PCP_TLS), µ D ( x ) ( W′ ) = ⊥ W ∈ L ( PCP_I ) T [ µ D ( x ) ( W ), µ Γ ( W, W ′ ) ] (III.15)

La relation fondamentale entre la signification et la description floue d’un symbole (cf. § 4


de l’ANNEXE C) nous permet d’obtenir l’expression de la fonction d’appartenance au
symbole final PCP_TLS en fonction des fonctions d’appartenance aux symboles associés au
type de point contour dans l’espace TLS:

Page 113
Segmentation couleur par fusion symbolique

∀ W’ ∈ L(PCP_TLS),
µ M ( W′ ) ( x ) = ⊥ W ∈ L ( PCP_I ) T [ µ M ( W ) ( x ), µ Γ ( W, W ′ ) ] (III.16)

En utilisant le produit comme t-norme et la somme bornée comme t-conorme dans


l’équation précédente, la fonction d’appartenance µPCP_TLS définissant le sous-ensemble flou
symbolique associé à PCP_TLS est obtenue par:
µPCP_TLS (x) = CPCP_3 . µPCP_3(x) + CPCP_2 . µPCP_2(x) + CPCP_1 . µPCP_1(x)(III.17)

Nous avons fixés CPCP_3 = 1/2, CPCP_2 = 1/3 et CPCP_1 = 1/6, ces valeurs étant choisies
pour accroître le poids des contours les plus souvent présents.

2.2.4 - Création de l’image gradient couleur

Comme pour le cas de l’opérateur monochromatique, un niveaux de gris 255.µPCP_TLS (x)


est assigné à chaque pixel de l’image. Ce niveau sera interprété comme le module de
l’opérateur gradient couleur floue.
La direction du gradient n’est pas aussi facilement définissable qu’en niveaux de gris. Une
solution pourrait être de choisir la direction indiquée par le masque correspondant au
maximum de tous les potentiels contours définis sur les trois composantes.

A l’aide des deux séries de masques présentées, on obtient deux opérateurs flous de
détection de contours, que nous appellerons par la suite Gradient Flou Couleur 8 (GFC 8) ou
16 (GFC 16) suivant les masques utilisés.

2.2.5 - Remarques

Une étape d’affinage des contours est également nécessaire pour réduire la largeur du
contour à 1 pixel. De plus comme aucun filtrage n’est inclus dans la détection des potentiels
contours des pixels, l’opérateur couleur ainsi défini sera, pour les mêmes raisons qu’en niveaux
de gris, vraisemblablement très sensible aux bruit et demandera donc un lissage préalable.

Par contre, un avantage de ce type d’approche est de prendre en compte n’importe quelle
configuration de masque et par conséquent, si cela est utile, la forme prédéfinie de l’objet à
retrouver.

2.3 - Evaluation des performances

Comme nous l’avons fait pour le détecteur de contours couleur présenté au chapitre 2, nous
allons maintenant étudier quantitativement le comportement des deux opérateurs Gradient
Flou Couleur en présence de bruit additif corrélé ou non entre les composantes de la base
RVB. Le critère retenu pour l’évaluation de la robustesse des contours est, comme
précédemment, la probabilité de détection (PD) en fonction de la probabilité de fausse alarme
(PF). Puis, de manière qualitative, nous observerons la définition des contours détectés. Ces
résultats seront comparés avec ceux obtenus par la méthode Sobel TLS.

Page 114
Segmentation couleur par fusion symbolique

2.3.1 - Evaluation de la robustesse des contours détectés

Les courbes opérationnelles donnant la probabilité de détection (PD) en fonction de la


probabilité de fausse alarme (PF) sont obtenues avec les images synthétiques et les conditions
de tests présentées au paragraphe 2.6.1 et 2.6.2 du chapitre II. Les figures III.7 à III.9
présentent les résultats sur les images suivant le niveau de Saturation du contour et la
corrélation du bruit.
PD PD PD
1 1 1

0.8 0.8 0.8

0.6 0.6 0.6

0.4 0.4 0.4

0.2 0.2 0.2

0 0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
PF PF PF
a: bruit non corrélé b: bruit moyennement corrélé c: bruit totalement corrélé
GFC 8 GFC16 Sobel TLS

Figure III.7: PD(PF) pour des Saturations faibles


PD PD PD
1 1 1

0.8 0.8 0.8

0.6 0.6 0.6

0.4 0.4 0.4

0.2 0.2 0.2

0 0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
PF PF PF
a: bruit non corrélé b: bruit moyennement corrélé c: bruit totalement corrélé
GFC 8 GFC16 Sobel TLS

Figure III.8: PD(PF) pour des Saturations moyennes


PD PD PD
1 1 1

0.8 0.8 0.8

0.6 0.6 0.6

0.4 0.4 0.4

0.2 0.2 0.2

0 0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
PFf PF PF
a: bruit non corrélé b: bruit moyennement corrélé c: bruit totalement corrélé
GFC 8 GFC16 Sobel TLS

Figure III.9: PD(PF) pour des Saturations fortes

Page 115
Segmentation couleur par fusion symbolique

On constate sur ces différentes courbes que les opérateurs de Gradient Flou sont, comme
nous l’avions pressenti, plus sensibles aux bruits que l’opérateur Sobel TLS et cela quelles que
soient les conditions de test envisagées. De la même manière que pour le Sobel TLS les
opérateurs flous sont moins sensibles au bruit lorsque celui ci est corrélé. Ce phénomène est
amplifié lorsque la détection du contour s’effectue entre deux régions à forte Saturation, c’est-
à-dire lorsque la pertinence de la composante Teinte est forte. En effet nous avons vu au
premier chapitre que cette composante est alors moins perturbée par ce type de bruit.

On constate également que l’opérateur GCF 8 est très légèrement moins sensible au bruit
que l’opérateur GFC 16. L’utilisation des 8 masques de Russo, définis pour obtenir un
opérateur protégeant du bruit, n’apporte pas une solution satisfaisante au problème de la forte
sensibilité au bruit de cette méthode. Cette sensibilité provenant essentiellement de l’utilisation
des fonctions “Max” et “Min”.

2.3.2 - Observation de la définition des contours

Nous avons cherché également à estimer la qualité de la localisation spatiale des contours
détectés. Pour cela, nous avons observé les contours obtenus par les différents opérateurs sur
l’image synthétique Test (présentée au paragraphe 3.5.3 du chapitre II) qui reproduit une
diversité importante de formes de contours à détecter.

Le principe du test est le suivant:

❏ superposition d’un faible bruit non corrélé sur l’image originale,


❏ obtention des images gradients suivant les opérateurs GFC 8, GFC 16 et
Sobel TLS,
❏ affinage des contours par la méthode présentée au paragraphe 2.1.4,
❏ seuillage de l’image gradient pour obtenir l’image contour.

Le fait d’introduire un bruit faible sur l’image originale permet d’éviter la création de faux
contours dans des zones homogènes. Dans ces zones, l’amplitude du bruit n’est pas assez
grande pour que les masques utilisés détectent un contour. Le choix du seuil pour la dernière
étape du traitement est ainsi facilité et n’influence en rien la localisation des contours.

La figure III.10 présente les contours détectés par les différents opérateurs envisagés ainsi
que les contours originaux de l’image Test.

On s’aperçoit alors, que l’opérateur GFC 16 fournit une meilleure définition que l’opérateur
Sobel TLS ou que l’opérateur GFC 8, notamment au niveau du carré et des cercles. Cette
performance est due au nombre important de structures de masque utilisées. Les contours sont
mieux définis, mais le nombre de masques étant double, le temps de traitement sera
pratiquement deux fois plus grand.

Page 116
Segmentation couleur par fusion symbolique

Contours originaux Contours détectés par Sobel TLS

Contours détectés par GFC 8 Contours détectés par GFC 16

Figure III.10: Contours obtenus sur l’image Test

2.4 - Application à des images réelles

Nous présentons dans ce paragraphe les résultats des deux opérateurs de Gradient Flou
appliqués sur les images “Agriculture”, “Maison” et “Métal” utilisées au paragraphe 2.7 du
chapitre II. Les conditions d’obtention des contours sont par ailleurs identiques.

L’image “Agriculture” numérisée par un scanner couleur est faiblement bruitée. De ce fait
la forte sensibilité au bruit des opérateurs GFC 8 et GFC 16, qui se traduit par la détection de
faux contours, ne sera pas très marquée sur cette image. C’est d’ailleurs ce que l’on constate
sur les images b] et c] de la figure III.11. En ce qui concerne la définition des contours, si l’on
effectue un zoom sur une partie de l’image, on observe alors que les contours obtenus en
utilisant les 16 masques (zoom ❷) sont ici plus réguliers que ceux obtenus avec les 8 masques
(zoom ❶) ou avec l’opérateur Sobel TLS (zoom ❸).

Les résultats obtenus sur l’image “Maison” (figure III.12) confirment la forte sensibilité des
opérateurs flous au bruit qui correspond dans cette image à de la texture au niveau de la façade
de la maison constituée de briques. Nous avons donc effectué un filtrage non linéaire sur cette
image. Les paramètres du filtre de rang vectoriel utilisant un masque de taille 5x5 sont réglés
pour produire un effet de filtrage important et de ce fait un faible rehaussement des transitions.
Le nombre de faux contours détectés décroît alors fortement (cf. images b] et c] de la figure

Page 117
Segmentation couleur par fusion symbolique

III.13). Si la méthode Sobel TLS reste toujours moins sensible au bruit (cf. image d] de la
figure III.13), on constate également toujours que l’opérateur GFC 16 permet une meilleure
définition des contours dans certaines zones de l’image comme la cheminée (flèche ❶) ou la
bordure du toit (flèche ❷).

Nous avons également appliqué les algorithmes sur l’image “Métal filtrée” utilisée au
chapitre II. Dans cette image (figure III.14), nous avions privilégié le rehaussement des
transitions par rapport à l’effet de lissage pour rendre plus facile la différenciation entre
certaines zones de l’image (flèche ❶ par exemple). De ce fait, l’effet de filtrage n’est pas
suffisant pour les opérateurs GFC 8 et GFC 16 et le nombre de faux contours détectés (image
c] et d] de la figure III.14) est important par rapport au résultat obtenu avec l’opérateur
Sobel TLS (image d]).

Les temps de calculs du gradient couleur sur image de dimension 256x256 en utilisant une
station SUN SPARC 20 sont de 6,2 secondes pour GFC 16, 14,7 secondes pour GFC 8, et
seulement 2 secondes pour Sobel TLS.

2.5 - Conclusion

Nous avons présenté dans ce paragraphe une approche par jeux de règles floues pour la
détection de contours dans des images couleur. Les deux points importants liés à cette méthode
sont:

❏ La définition d’un potentiel contour en Teinte d’un pixel prenant en


considération la pertinence variable de cette information. L’utilisation de la
théorie des sous-ensembles flous a permis de rendre cette définition très
naturelle.

❏ La définition d’un potentiel contour couleur d’un pixel associant les


potentiels obtenus dans les trois composantes de la base TLS. Là encore, la
représentation linguistique à l’aide de la théorie des sous-ensembles flous
facilite la fusion des différentes grandeurs.

Les opérateurs de Gradient Couleur Flou obtenus ont une sensibilité au bruit évidente, mais
leurs performances en terme de définition des contours sont intéressantes, tout du moins en ce
qui concerne l’opérateur utilisant les 16 masques pour la définition du contours (GFC 16). La
possibilité d’utiliser différents masques permettant d’introduire une connaissance a priori de la
forme du contours à détecter, est d’ailleurs un autre point fort de cette méthode grâce, une fois
de plus, à la souplesse d’utilisation introduite par la représentation symbolique des différentes
grandeurs. Néanmoins, il faut reconnaître que ces méthodes sont plus coûteuses en temps de
calcul que les méthodes purement numériques.

Page 118
Segmentation couleur par fusion symbolique

a]: Originale
image couleur en annexe E

b]: GFC 8
a]
c]: GFC 16

d]: Sobel TLS

b] c]

➊ ➋

d]

➌ ➊ ➋ ➌
zoom

Figure III.11: Image “Agriculture”

Page 119
Segmentation couleur par fusion symbolique

a]: Originale
image couleur en annexe E

b]: GFC 8
a]
c]: GFC 16

d]: Sobel TLS

b] c]

d]

Figure III.12: Image “Maison”

Page 120
Segmentation couleur par fusion symbolique

a]: Originale filtrée


image couleur en annexe E

b]: GFC 8
a]
c]: GFC 16

d]: Sobel TLS

❷ ❷
❶ ❶

b] c]


d]

Figure III.13: Image “Maison filtrée”

Page 121
Segmentation couleur par fusion symbolique

a]: Originale filtrée


image couleur en annexe E

b]: GFC 8
a]
c]: GFC 16

d]: Sobel TLS ❶

b] c]

d]

Figure III.14: Image “Métal filtrée”

Page 122
Segmentation couleur par fusion symbolique

3 - Segmentation en régions par fusion symbolique

Nous avons élaboré au § 3 du chapitre II une méthode de segmentation en régions par


coopération pondérée entre la Teinte et la Luminance suivant le niveau de Saturation. Cette
méthode fournit, comme nous l’avons constaté, de bons résultats. Mais malgré tout, le
mélange, dans un même prédicat numérique, de grandeurs de natures différentes comme la
Teinte et la Luminance peut poser un problème.

Le travail exposé dans ce paragraphe propose de définir, en reprenant les principes de la


méthode par coopération pondérée, des ensembles flous sur les trois grandeurs numériques
nécessaires à la segmentation, c’est-à-dire les niveaux de Saturation de deux pixels voisins
ainsi que leurs différences de Teinte et de Luminance. Puis, plusieurs règles floues sont
définies pour développer un critère d’homogénéité floue dans le but de réaliser une agrégation
floue de ces pixels.

Dans ce paragraphe, nous commencerons par une description générale de la méthode


proposée (§ 3.1). Puis nous effectuerons une analyse détaillée de cette méthode en suivant son
déroulement dans un cas particulier. Nous évaluerons ensuite les performances de cette
nouvelle méthode avant de présenter quelques applications sur des images réelles.

3.1 - Schéma de principe de l’agrégation floue

La technique de segmentation par croissance de régions utilisée reste celle définie au


paragraphe 3.2 du chapitre II. Elle nécessite dans un premier temps la prise en considération
des informations colorimétriques provenant d’un couple de pixels p1 (t1, l1, s1) et p2(t2, l2, s2),
pour lesquels on évalue le prédicat d’homogénéité.

Les différents univers de discours utilisés par la suite sont définis de la manière suivante:

❏ L(S): ensemble des symboles associés à la Saturation (univers de


discours S) caractérisant la pertinence de la Teinte.

❏ L(∆L): ensemble des symboles associés aux distances entre Luminances


(univers de discours ∆L).

❏ L(∆T): ensemble des symboles associés aux distances entre Teintes


(univers de discours ∆T).

❏ M: ensemble des symboles représentant les diverses méthodes de


coopération.

❏ Q: ensemble des symboles qualifiant l’homogénéité entre 2 pixels.

Si φ est un de ces ensembles, l’ensemble des sous-ensembles flous définis sur φ est noté
F(φ).

Page 123
Segmentation couleur par fusion symbolique

Le schéma de principe de l’agrégation floue est le suivant:

FUZZIFICATION INFERENCE 1 CLASSIFICATION 1

S1 ∈ F(L(S)) Règles pour sous-ensemble flou


s1 de symboles relatif à
l’agrégation de C ∈ F(M)
N/S deux descriptions la méthode de
s2 basiques de la coopération entre la
S2 ∈ F(L(S)) Saturation Teinte et la
Luminance

Règles pour
H ∈ F(L(∆T)) l’agrégation des sous-ensemble flou
δt N/S descriptions des P ∈ F(Q) de symboles relatif à
écarts de Teinte l’homogénéité entre
et de Luminance deux pixels
I ∈ F(L(∆L))
δl selon la méthode
N/S
de coopération

FUZZIFICATION INFERENCE 2 CLASSIFICATION 2

Figure III.15: Schéma de principe de l’agrégation floue

❏ Les valeurs numériques s1 et s2 de Saturation des deux pixels sont fuzzifiées.


Ceci permet d’obtenir deux sous-ensembles flous de symboles, notés S1 et S2 caractérisant les
valeurs numériques s1 et s2.

❏Un jeu de règles linguistiques est appliqué pour agréger ces descriptions
symboliques de la Saturation. L’inférence réalisée conduit à la définition d’un sous-ensemble
flou de symboles (noté C) relatifs à la méthode de coopération envisagée entre les composantes
Teinte et Luminance.

❏ Les écarts numériques de niveaux en Teinte (noté δt) et en Luminance (noté δl)
sont fuzzifiés pour obtenir des descriptions symboliques de ces mesures par l’intermédiaire de
sous-ensembles flous notés respectivement H et I.

❏Pour chaque méthode de coopération envisagée entre les composantes Teinte et


Luminance, une règle de type Si-Alors-Sinon va agréger les descriptions symboliques des
écarts de niveaux en Teinte et en Luminance. L’inférence ainsi réalisée conduit à la définition
d’un sous-ensemble flou de symboles (noté P) relatif à l’homogénéité entre deux pixels. Ce
sous-ensemble correspond à un critère d’homogénéité flou entre ces deux pixels.

❏ La décision d’agrégation floue est alors prise suivant le degré d’homogénéité


prépondérant.

On trouvera dans le § 3 de l’ANNEXE D le synoptique détaillé de l’ensemble des


traitements réalisés. Les différentes étapes de cette méthode de segmentation floue sont
détaillées par la suite.

Page 124
Segmentation couleur par fusion symbolique

3.2 - Segmentation en régions par agrégation floue

Avant de définir les règles linguistiques utilisées pour définir une méthode de segmentation
floue fusionnant les informations de Teinte et de Luminance suivant la Saturation nous allons
présenter les diverses partitions des domaines numériques.

3.2.1 - Partition floue des domaines numériques

3.2.1.1 - Partition de la Saturation


Comme nous l’avons déjà fait pour les opérateurs Gradient Flou au paragraphe 2.2.2 de ce
chapitre, la fiabilité de la Teinte peut être caractérisée par un sous-ensemble flou numérique
associé au symbole générique pertinente dont l’univers de discours est la Saturation. La figure
III.16 donne un exemple de fonction d’appartenance µ M ( pertinente ) ( s ) (notée µpertinente)
construite avec les mêmes paramètres S0 et θ.

Degré d’appartenance
µpertinente
1 θ

0.5

0 S0 255 s

Figure III.16: Exemple de fonction d’appartenance liée à la fiabilité de la Teinte

Dans notre démarche, suivant sa pertinence, le rôle tenu par la Teinte dans la décision
d’agrégation des pixels sera soit nul, soit inférieur au rôle tenu par la Luminance, soit
identique, soit privilégié.

On va donc moduler cette description linguistique de la pertinence de la Teinte en utilisant


des modificateurs linguistiques qui permettent, à partir de toute caractérisation floue, de
produire une nouvelle caractérisation floue.

Nous allons ainsi, dans notre cas, utiliser quatre modificateurs linguistiques qui sont
absolument pas, faiblement, suffisamment et complètement.

On dispose alors de 4 nouveaux symboles pour décrire la fiabilité de la Teinte qui sont
absolument pas pertinente, faiblement pertinente, suffisamment pertinente et complètement
pertinente que l’on renommera respectivement pour des raison de commodité par gris, pastel
faible, pastel fort et pure.

La partition de la Saturation est ainsi réalisée à l’aide de ces 4 symboles et on a:

L(S) = {gris, pastel faible, pastel fort, pure}

Page 125
Segmentation couleur par fusion symbolique

En résumé, la signification des symboles partitionnant la Saturation est la suivante:

❏ gris:
La Teinte n’est absolument pas pertinente et elle ne doit pas être
utilisée dans le processus de segmentation.

❏ pastel faible:
La Teinte est faiblement pertinente. Le processus de segmentation
utilisera conjointement la Teinte et la Luminance en privilégiant
cette dernière information.

❏ pastel fort:
La Teinte est suffisamment pertinente. La segmentation s’effectuera
suivant les deux composantes.

❏ pure:
La Teinte est complètement pertinente. En privilégiant alors cette
information, le processus de segmentation n’utilisera pas la
composante Luminance.

Les fonctions d’appartenance µ M ( gris ) ( s ) , µ M ( pastel faible ) ( s ) , µ M ( pure ) ( s ) et


µ M ( pastel fort ) ( s ) (notées respectivement µgris, µpastel faible, µpure et µpastel fort) sont obtenues à
partir de la fonction µpertinente en appliquant des transformations mathématiques attachées aux
modificateurs linguistiques. Ces transformations ne sont pas détaillées ici mais l’exemple
suivant permet de comprendre facilement la méthode de construction de ces fonctions.

Degré d’appartenance
µgris µpastel faible µpastel fort µpure
1

µpertinente
0.5

0 25 50 75 100 125 150 175 200 225 250


s
(avec S0 = 100 et θ = 0,01 comme paramètres pour µpertinente)

Figure III.17: Exemple de partition floue de la Saturation

Ces fonctions d’appartenance ainsi définies décrivent une partition floue stricte de la
composante Saturation. Ceci signifie que ( ∑ µi ( s ) = 1 ).
i

On peut définir la description floue d’un niveau de Saturation en considérant le degré


d’appartenance à chaque symbole. On a ainsi:

∀ W ∈ L(S), µ D ( s ) ( W ) = µ M ( W ) ( s ) (III.18)

Page 126
Segmentation couleur par fusion symbolique

3.2.1.2 - Distance floue en Luminance et en Teinte


La différence absolue δl entre deux niveaux de Luminance évolue entre 0 et 255. Elle est
classiquement caractérisée par trois symboles:
L(∆L) = {petite, moyenne, grande}.
La figure III.18a montre un exemple des fonctions d’appartenance associées à ces symboles.
Elle sont construites à partir de deux paramètres: δlmin et δlmax.

La différence absolue δt entre deux Teintes doit prendre en compte, comme nous l’avons
déjà signalé, la représentation circulaire de cette information en calculant une différence
modulo 256. Ainsi cette différence évolue entre 0 et 128. Nous avons également caractérisé
cette différence par trois symboles:
L(∆T) = {petite, moyenne, grande}.
La figure III.18b montre un exemple de fonctions d’appartenance associées à ces symboles.
Elles sont également construites à partir de deux autres paramètres: δtmin et δtmax.

Les deux univers de discours, ∆L et ∆T forment des partitions floues strictes.

Degrés d’appartenance Degrés d’appartenance


µpetite µmoyenne µgrande µpetite µmoyenne µgrande
1 1

0.5 0.5
δl δt
0 δlmin δlmax 255 0 δtmin δtmax 128
fig. a fig. b

Figure III.18: Exemple de partition floue des différences de Luminance et de Teinte

Comme précédemment, on peut définir des descriptions floues des écarts de Luminance et
de Teinte:

∀ WI ∈ L(∆L), µ D ( δl ) ( W I ) = µ M ( W I ) ( δl ) et (III.19)

∀ WH ∈ L(∆T), µ D ( δt ) ( W H ) = µ M ( W H ) ( δt ) . (III.20)

3.2.2 - Règles linguistiques de segmentation TL/S

Dans notre processus de segmentation, nous avons deux jeux de règles qui, après inférence,
produisent une classification des méthodes de coopération entre la Teinte et la Luminance pour
l’inférence dénotée 1 dans le schéma de la figure III.15 et une classification de l’homogénéité
entre deux pixels pour l’inférence 2. Ce sont ces deux jeux de règles qui vont être détaillés
maintenant.

Page 127
Segmentation couleur par fusion symbolique

3.2.2.1 - Jeu de Règles déterminant la méthode de coopération


En utilisant deux sous-ensembles flous (S1 et S2) associés à la Saturation, l’inférence 1
génère un sous-ensemble de symboles (C) caractérisant les différentes méthodes de
coopération possibles entre la Teinte et la Luminance. Nous avons choisi d’utiliser six
symboles pour classifier ces méthodes:
M = {LUM, LUM_Tei, LUM_TEI, Lum_TEI, TEI, SEP}
dont les significations sont les suivantes:

❏ LUM:
le processus de segmentation utilise uniquement l’information
apportée par la Luminance,

❏ LUM_Tei:
l’information de Luminance est privilégiée par rapport à l’information
apportée par la Teinte,

❏ LUM_TEI:
les informations de Teinte et de Luminance sont utilisées
conjointement par le processus de segmentation,

❏ Lum_TEI:
l’information de Teinte est privilégiée par rapport à l’information
apportée par la Luminance,

❏ TEI:
le processus de segmentation utilise uniquement l’information
apportée par la Teinte,

❏ SEP:
les niveaux de Saturation des deux pixels sont si différents qu’ils
imposent une séparation des deux pixels en deux régions différentes, et
ce, quels que soient les niveaux en Teinte et en Luminance.

Le tableau suivant présente le jeu de seize règles nettes reliant les symboles attachés aux
niveaux de Saturation des deux pixels traités et les types de coopération à mettre en oeuvre.

W S 1 ∈ L(S)
gris pastel faible pastel fort pure
W S 2 ∈ L(S)

gris LUM LUM SEP SEP

pastel faible LUM LUM_Tei LUM_Tei SEP

pastel fort SEP LUM_Tei LUM_TEI Lum_TEI

pure SEP SEP Lum_TEI TEI

Tableau III.2: Règles de l’inférence 1

Page 128
Segmentation couleur par fusion symbolique

Pour chaque couple de sous-ensembles flous de symboles S1 et S2, il est inféré une partie
floue symbolique (C) sur l’ensemble M des types de coopération possibles. Soit Γ1 le graphe
net défini sur le produit cartésien des ensembles L(S)xL(S)xM. L’inférence de ce jeu de
règles, réalisée suivant le principe de combinaison-projection, conduit à la relation suivante:

∀ W M ∈ M,
µC ( W M ) = ⊥ T { T { µ D ( s ) ( W S ), µ D ( s ) ( W S ) }, µ Γ ( W S , W S , W M ) } (III.21)
1 1 2 2 1 1 2
(W S , W S ) ∈ L (S) × L (S)
1 2

Comme on est en présence d’un graphe net, l’équation peut s’écrire sous la forme suivante:

∀ W M ∈ M,
µC ( W M ) = ⊥ T { µ D ( s ) ( W S ), µ D ( s ) ( W S ) } (III.22)
1 1 2 2
( W S , W S ) ∈ L ( S ) × L ( S )| µ Γ ( W S , W S , W M )=1
1 2 1 1 2

En posant que le résultat obtenu est la description d’un couple (s1,s2) sur le langage M
(c.à.d. µC ( W M ) = µD ( s 1, s 2 ) ( W M ) ), et en utilisant l’équation III.18 (c.à.d.
M

µD ( s 1, s 2 ) ( W M ) = µM (W ( s 1, s 2 ) ), on peut ainsi relier directement le degré d’appartenance à un


M M)

symbole de la partie floue inférée, aux valeurs numériques s1 et s2. On a la relation suivante:

∀ W M ∈ M,
µD ( s 1, s 2 ) ( W M ) = µM (W ( s 1, s 2 ) = µ C ( W M ) (III.23)
M M)

L’intérêt de cette équation réside dans le fait que l’on va pouvoir observer l’évolution des
fonctions d’appartenance aux symboles inférés en faisant parcourir aux entrées numériques s1
et s2 l’univers de discours S. Cette équation sera illustrée dans l’exemple cité en p. 133.

Le degré d’appartenance d’une méthode donnée à la partie floue engendrée correspond à un


degré d’applicabilité attribué à la méthode.

3.2.2.2 - Jeu de Règles déterminant l’homogénéité entre deux pixels selon


la méthode de coopération
En utilisant un sous-ensemble flou relatif aux méthodes de coopération (C) ainsi que deux
sous-ensembles flous caractérisant les écarts en Teinte et en Luminance (H et I), l’inférence
dénotée 2 dans le schéma de figure III.15 produit un sous-ensemble flou de symboles (P)
caractérisant l’homogénéité entre deux pixels. Deux symboles sont utilisés pour classifier cette
homogénéité:
Q = {homogène, hétérogène}
Pour chacun des 6 symboles caractérisant la méthode de coopération, une règle floue (notée
Ri) du type Si-Alors-Sinon, est développée. Chaque règle combine de manière différente les
symboles associés aux écarts de Teinte et de Luminance suivant la place que l’on veut faire
tenir à ces informations dans le critère d’homogénéité flou ainsi créé.

Page 129
Segmentation couleur par fusion symbolique

Les règles linguistiques choisies sont les suivantes:


❏ Si la méthode est LUM Alors:
Si δl est petite Alors
les deux pixels sont homogènes pour cette règle
Sinon
les deux pixels sont hétérogènes pour cette règle.
❏ Si la méthode est LUM_Tei Alors:
Si δl est petite Et δt est (petite Ou moyenne) Alors
les deux pixels sont homogènes pour cette règle
Sinon
les deux pixels sont hétérogènes pour cette règle.
❏ Si la méthode est LUM_TEI Alors:
Si δl est petite Et δt est petite Alors
les deux pixels sont homogènes pour cette règle
Sinon
les deux pixels sont hétérogènes pour cette règle.
❏ Si la méthode est Lum_TEI Alors:
Si δl est (petite Ou moyenne) Et δt est petite Alors
les deux pixels sont homogènes pour cette règle
Sinon
les deux pixels sont hétérogènes pour cette règle.
❏ Si la méthode est TEI Alors:
Si δt est petite Alors
les deux pixels sont homogènes pour cette règle
Sinon
les deux pixels sont hétérogènes pour cette règle.
❏ Si la méthode est SEP Alors:
quelques soient δl et δt
les deux pixels sont hétérogènes pour cette règle.
Pour chaque triplet de sous-ensembles flous de symboles C, H et I, il est inféré une partie
floue symbolique (P) sur l’ensemble Q caractérisant l’homogénéité entre deux pixels. Soit Γ2
le graphe net défini sur le produit cartésien des ensembles MxL(∆T)xL(∆L)xQ. L’inférence
de ce jeu de règles, toujours réalisée suivant le principe de combinaison-projection, conduit a
l’expression de la fonction d’appartenance à un symbole de la partie inférée (µP):

∀ W Q ∈ Q,
µP ( W Q ) = ⊥ T { µ E ( W M , W H , W I ), µ Γ ( W M , W H , W I , W Q ) } (III.24)
( W M , W H , W I ) ∈ M × L ( ∆T ) × L ( ∆L )
2

avec µ E ( W M , W H , W I ) = T {µ C ( W M ), T {µ D ( δt ) ( W H ), µ D ( δl ) ( W I )}}

Page 130
Segmentation couleur par fusion symbolique

En suivant la même démarche que dans le § 3.2.2.1, c’est-à-dire en posant que le résultat
obtenu est la description d’un quadruplet (s1,s2,δt,δl) sur le langage Q
( µP ( W Q ) = µD (s
1, s 2, δt, δl ) ( W Q ) ), on peut relier directement le degré d’appartenance à un symbole
de la partie floue finale aux valeurs numériques s1 s2, δt et δl:
∀ W Q ∈ Q,
µ M ( W Q ) ( s 1, s 2, δt, δl ) = µ D ( s1, s2, δt, δl ) ( W Q ) = µ P ( W Q ) (III.25)

3.2.3 - Définition de la segmentation TL/S par agrégation floue

Les deux sous-ensembles flous (homogène et hétérogène) vont permettre la construction du


prédicat d’homogénéité flou entre les deux pixels candidats à la fusion. La décision
d’agrégation est alors prise suivant le maximum entre les degrés d’appartenance aux
symboles homogène et hétérogène.

La méthode de segmentation floue proposée peut être implantée avec différents opérateurs
de conjonction et de disjonction. Pour notre part, nous avons choisi d’étudier deux couples de
fonction. Le premier couple, ayant la fonction “Min” comme t-norme et la fonction “Max”
comme t-conorme, définit une segmentation que nous appellerons par la suite Segmentation
Floue par Min et Max (SFMM). Le second utilise le produit comme t-norme et la somme
bornée à 1 comme t-conorme. Cette segmentation sera appelée Segmentation Floue par
Produit et Somme ou encore SFPS.

L’intérêt d’utiliser le produit et la somme bornée comme opérateurs de conjonction et


disjonction floue est qu’ils permettent de conserver la partition floue stricte sur les conclusions.
Ceci garantit l’existence d’un résultat (existence d’au moins un degré d’appartenance non nul)
et l’absence de conclusions contradictoires [BEN 94] (2 conclusions ayant un degré
d’appartenance égal à 1). Or comme toutes les partitions sont effectuées au sens strict,
lorsqu’on utilise ces deux opérateurs on peut noter que µhonogène et µhétérogène sont
complémentaires (µhonogène = 1 - µhétérogène). Dans ce cas, il n’est pas nécessaire d’évaluer
µhétérogène pour prendre la décision d’agrégation des pixels, ce qui permet un gain non
négligeable en temps de traitement. De plus, toujours grâce au fait que les partitions sont
réalisées au sens strict, on peut remplacer la somme bornée par une simple somme, les valeurs
traitées étant toujours inférieures à 1.

Néanmoins les opérateurs de conjonction/disjonction Min/Max sont très souvent employés


en logique floue. Aussi, nous appliquerons également ces opérateurs à notre méthode, à titre
comparatif.

3.3 - Déroulement de l’algorithme pour un cas particulier

Pour faciliter la compréhension de l’algorithme précédent, nous allons maintenant


développer un exemple de segmentation entre un pixel courant PC et ses deux voisins (gauche
PG et haut PH) en utilisant la méthode SFPS.

Page 131
Segmentation couleur par fusion symbolique

Les caractéristiques colorimétriques des trois pixels pC(tC, lC, sC), pG(tG, lG,sG) et
pH(tH, lH, sH) sont les suivantes:
tC = 40, lC = 100, sC = 60; tG = 32, lG = 109, sG = 60; tG = 47, lH = 110, sH = 90;
donnant:
❏ des écarts de Teinte: δtCG = 8 et δtCH = 7
❏ des écarts de Luminance de: δlCG = 9 et δlCH = 10.

En prenant une valeur S0 = 60 et une pente θ = 1/90 les fonctions d’appartenance aux
symboles partitionnant la Saturation sont données par la figure suivante:

Degré d’appartenance
µgris µpastel faible µpastel fort µpure
1

µpertinente S0 = 60
0.5 θ = 1/90

s
0
0 15 30 45 60 75 90 105 120 250

Figure III.19: Fonctions d’appartenance sur la Saturation

Pour les trois pixels, les descriptions floues des Saturations sont réalisées en considérant les
degrés d’appartenance à chaque symbole:
gris pastel faible pastel fort pure

sC = 60 0 0,50 0,50 0

sG = 60 0 0,50 0,50 0

sH = 90 0 0 0,50 0,50

Tableau III.3: Descriptions floues des Saturations des trois pixels

Les univers de discours ∆T et ∆L sont partitionnés à l’aide des fonctions d’appartenance


suivantes:

Degré d’appartenance Degré d’appartenance


µ petite µ moyenne µ grande µ petite µ moyenne µ grande
1 1

0.5 0.5
δl δt

0 8 12 16 255 0 6 8 10 128

Figure III.20: Partitions associées à ∆L et ∆T

Page 132
Segmentation couleur par fusion symbolique

Les tableaux suivant donnent les descriptions floues des écarts de niveaux:
petite moyenne grande

µ(δlG = 9) 0,75 0,25 0

µ(δlH = 10) 0,50 0,50 0

Tableau III.4: Descriptions floues associées à ∆LG et ∆LH

petite moyenne grande

µ(δtG = 8) 0 1 0

µ(δtH = 7) 0,50 0,50 0

Tableau III.5: Descriptions floues associées à ∆TG et ∆T

Une fois ces données initiales établies, nous allons suivre le passage de ces informations
dans les deux jeux de règles des inférences 1 et 2 (cf schéma de la figure III.15).

L’inférence 1 permet, à partir des descriptions floues précédentes, de générer pour chaque
couple (sC,sG) et (sC,sH) une description floue de la méthode de coopération entre les
composantes Teinte et Saturation. A l’aide de l’équation III.23 et en utilisant les opérateurs
précédents, on obtient les fonctions d’appartenances suivantes:

❏ µLUM (x,y) = µgris(x) * µgris(y) +


µgris(x) * µpastel faible(y) +
µpastel faible(x) * µgris(y)

❏ µLUM_Tei (x,y) = µpastel faible(x) * µpastel_faible(y) +


µpastel faible(x) * µpastel fort(y) +
µpastel fort(x) * µpastel faible(y)

❏ µLUM_TEI(x,y) = µpastel fort(x) * µpastel fort(y)

❏ µLum_TEI(x,y) = µpure(x) * µpastel fort(y) +


µpastel fort(x) * µpure(y)

❏ µTEI(x,y) = µpure(x) * µpure(y)

La partition floue de la composante Saturation étant effectuée au sens stricte, on aura alors:

❏ µSEP(x,y) = 1 - µLUM(x,y) - µLUM_Tei(x,y) - µLUM_TEI(x,y) - µLUM_TEI(x,y) - µTEI(x,y)

En extension à notre exemple, mais pour bien comprendre le fonctionnement de notre


méthode, dans la situation correspondant à cet exemple nous avons tracé (figure III.21)
l’évolution des domaines d’applicabilité accordés à chaque méthode en faisant varier les
valeurs s1 et s2 qui sont ensuite fuzzifiées à l’aide des partitions de la figure III.19.

Page 133
Segmentation couleur par fusion symbolique

µ µ µ
1 1 1

0 0 0
250 250 250 250 250 250

s1 s2 s1 s2 s1 s2

0 0 0
Méthode: LUM Méthode: LUM_Tei Méthode: LUM_TEI

µ µ
1 1

1 µ
0 0
0 250 250
250 250
250 250

s1 s2 s1 s2 s1 s2

0 0 0
Méthode: Lum_TEI Méthode: TEI Méthode: SEP

Figure III.21: Domaines d’applicabilité des méthodes

Pour les deux couples de Saturation envisagés, les descriptions obtenues sont représentées
dans le tableau suivant:
LUM LUM_Tei LUM_TEI Lum_Tei TEI SEP

µC(60, 60) 0 0,75 0,25 0 0 0

µC(60, 90) 0 0,25 0,25 0,25 0 0,25

Tableau III.6: Description floue des méthodes de coopération


suivant les couples de Saturation

Ainsi, pour le premier couple envisagé, seules deux règles seront applicables (degrés
d’appartenance non nuls) pour fusionner les informations de Teinte et de Luminance alors que
dans l’autre cas, quatre règles seront utilisées. De plus dans le premier cas, le degré
d’appartenance à la méthode LUM_Tei étant supérieur à celui de la méthode LUM_TEI, le poids
des conclusions obtenues avec cette règle de coopération sera plus important que celui des
conclusions obtenues avec la seconde méthode activée.

Pour la seconde inférence nous allons, dans un premier temps, évaluer le sous-ensemble
flou associé à un symbole élémentaire homogène_Mi issu de l’inférence entre les distances en
Teinte et en Luminance, ceci pour chaque méthode de coopération. En construisant le graphe
flou conjonctif à partir des règles définies au paragraphe 3.2.2.2 de ce chapitre, on obtient les
fonctions d’appartenance suivantes:

Page 134
Segmentation couleur par fusion symbolique

❏ LUM: µhomogène_Mi(δl,δt) = µpetite(δl)

❏ LUM_Tei: µhomogène_Mi(δl,δt) = µpetite(δl) * (µpetite(δt) + µmoyenne(δt))

❏ LUM_TEI: µhomogène_Mi(δl,δt) = µpetite(δl) * µpetite(δt)

❏ Lum_TEI: µhomogène_Mi(δl,δt) = (µpetite(δl) + µmoyenne(δl)) * µpetite(δt)

❏ TEI: µhomogène_Mi(δl,δt) = µpetite(δt)

❏ SEP: µhomogène_Mi(δl,δt) = 0

Pour chaque méthode, la fonction d’appartenance au symbole hétérogène_Mi est la


négation de ces fonctions d’appartenance. Ceci ce traduit par la relation suivante:
µhétérogène_Mi(δl,δt) = 1 - µhomogène_Mi(δl,δt)

Dans le même souci pédagogique, on peut ainsi tracer (figure III.22) le graphe de ces
fonctions d’appartenance, suivant chaque méthode, pour une entrée numérique (δl,δt) fuzzifiée
à l’aide des partitions de la figure III.20. Les graphes associés au symbole hétérogène_Mi étant
les compléments à 1 de ceux-ci, ils ne seront donc pas tracés.

µHomogène_Mi(δl, δt) µHomogène_Mi(δl, δt)

1 1
0.5 0.5
0 0

16 16
10 8 12 10 8 12
6 8 δt 6 8 δl
δt 0 0 δl 0 0
Méthode LUM Méthode LUM_Tei

µHomogène_Mi(δl, δt) µHomogène_Mi(δl, δt)


1 1
0.5 0.5
0 0

16 16
10 8 12 10 8 12
8 δt 8 δl
δt 6 δl 6
0 0 0 0
Méthode LUM_TEI Méthode Lum_Tei
µHomogène_Mi(δl, δt) µHomogène_Mi(δl, δt)
1 1
0.5 0.5
0 0

16 16
10 8 12 10 8 12
δt 8 δl 8
6 δt 6 δl
0 0 0 0
Méthode TEI Méthode SEP

Figure III.22: Graphes flous associés au symbole homogène_Mi suivant δl et δt


pour chaque méthode de coopération

Page 135
Segmentation couleur par fusion symbolique

Ces graphes mettent bien en évidence l’évolution de la notion d’appartenance au symbole


élémentaire homogène_Mi (et réciproquement à hétérogène_Mi) suivant la règle floue de
coopération entre les informations de Luminance et de Teinte.

Dans l’exemple traité, les descriptions floues obtenues à partir des couples (δlG, δtG) et
(δlH, δtH) selon chaque méthode de coopération sont les suivantes:

LUM LUM_Tei LUM_TEI Lum_Tei TEI SEP

µhomogène_MI (δlG, δtG) 0,75 0,75 0 0 0 0

µhétérogène_MI (δlG, δtG) 0,25 0,25 1 1 1 1

µhomogène_MI (δlH, δtH) 0,50 0,50 0,25 0,50 0,50 0

µhétérogène_MI (δlH, δtH) 0,50 0,50 0,75 0,50 0,50 1

Tableau III.7: Descriptions floues associées au symbole homogène_Mi


En un second temps, l’inférence 2 permet d’agréger la contribution des règles de fusion des
informations de Teinte et de Luminance qui sont réellement applicables entre les deux pixels
traités. Le degré d’appartenance au symbole homogène est alors obtenu en effectuant la somme
des produits entre le degré d’applicabilité de la règle et le degré d’appartenance au symbole
homogène_Mi pour cette règle (cf. équation III.25). Dans les deux cas traités ici, seules les
contributions grisées dans le tableau précédent seront utilisées donnant ainsi:

µhomogène (PC,PG) = 0,75*0,75 + 0,25*0 = 0,562

µhètèrogène(PC,PG) = 0,75*0,25 + 0,25*1 = 0,438

et
µhomogène (PC,PH) = 0,25*0,50 + 0,25*0,25 + 0,25*0,50 + 0,50*1 = 0,312

µhètèrogène(PC,PH) = 0,25*0,50 + 0,25*0,75 + 0,25*0,50 + 0,50*1 = 0,688

Les pixels PC et PG ayant un degré d’homogénéité supérieur au degré d’hétérogénéité, ils


seront agrégés à la même région alors que dans le second cas les pixels seront déclarés
appartenir à deux régions différentes.

3.4 - Evaluation des performances

Nous avons cherché à situer les deux méthodes de segmentation floue (SFMM et SFPS) par
rapport à la segmentation Segm_TL/S définie au paragraphe 3.3 du précédent chapitre. Pour
cela, nous avons repris le test de mesure de dissimilarité sur les résultats de la segmentation de
l’image synthétique “Test” bruitée par un bruit gaussien non corrélé avec une variance variant
de 0 à 49. La figure III.23 présente l’évolution de cette mesure de dissimilarité suivant la
variance du bruit pour les différentes méthodes envisagées. L’étude montre que les résultats
obtenus avec la méthode SFPS sont plus proches de l’image de référence que ceux obtenus
avec les méthodes SFMM ou Segm_TL/S dont les performances sont très voisines.

Page 136
Segmentation couleur par fusion symbolique

mesure de dissimilarité
250

200 “Segm_TL/S”
150
“SFMM”
100 “SFPS”
50

0
0 1 4 9 16 25 36 49
variance du bruit
Figure III.23: Evolution de la mesure de dissimilarité suivant la variance du bruit

Cette mesure de dissimilarité est un critère numérique global à toute l’image. On peut
également, pour affiner cette étude, observer le comportement des méthodes suivant les
différentes régions de l’image pour une variance donnée. On a alors une vision plus fine, mais
subjective car visuelle, du comportement des différentes méthodes.

La figure III.24 montre les frontières des régions obtenues avec un bruit gaussien décorrélé
de variance 25.

❸ ❷ ❶

❹ ❺ ❻

❶: niveau de Saturation faible


Régions originales “Segm_TL/S”
❷: niveau de Saturation élevé
3067 régions
❸,❹,❺,❻: niveau de Saturation moyen

“SFMM” “SFPM”
2483 régions 2107 régions

Figure III.24: Frontières des régions obtenues avec une variance de 25

On constate dans ce cas que la méthode Segm_TL/S est plus sensible au bruit lorsque le
niveau de Saturation est faible (région ❶). Ceci est la conséquence de la prise en compte,
même pour une part peu importante de la Teinte, qui est alors très sensible au bruit, dans le
critère d’agrégation.

Page 137
Segmentation couleur par fusion symbolique

A l’inverse, quand la Saturation est moyenne, (régions ❸,❹,❺ et ❻), cette méthode est
moins sensible au bruit que les deux méthodes floues. C’est là la conséquence de la
pondération qui diminue les mesures de différence de Teintes et de Luminances lors de la
création du critère d’agrégation.

Enfin, la méthode SFMM est naturellement plus sensible au bruit que la méthode SFPS, en
particulier dans les régions ❸,❹,❺ et ❻. C’est dans ces régions, à niveau de Saturation moyen,
que s’effectue la coopération entre les composantes Teinte et Luminance. En utilisant les
fonctions “Min” et “Max” comme opérateurs de conjonction et de disjonction, on a en fait un
fonctionnement de type “soit l’une soit l’autre” plutôt qu’une réelle fusion les informations
comme cela se produit avec les opérateurs produit et somme pour la méthode SFPS, ou mieux
encore dans la segmentation par pondération Segm_TL/S.

3.5 - Application à des images réelles

Dans cette partie, nous présentons les résultats de segmentation sur trois images réelles:
“Maison”, “Cellules” et “Acier”. Cette dernière représente des grains d’une structure d’acier
spécial observés au microscope en lumière polarisée. Elle nous a été fournie par le Centre de
Recherche de la société Ugine Savoie.

Les segmentations floues SFMM et SFPS sont ici comparées avec la méthode numérique
Segm_TL/S élaborée au chapitre précédent et avec la méthode développée par Y.W. Lim et
S.U. Lee [LIM 90]. Cette dernière méthode, présentée en introduction de ce chapitre, utilise
un algorithme à base de seuillage sur les histogrammes suivi d’une réallocation par FCM
(Fuzzy C-Mean) des pixels non classifiés. Il est exécutable sur différentes bases de
représentation de la couleur, notamment la base RVB et la base de OHTA.

Pour effectuer le FCM, le nombre de classes valides est déterminé par le nombre de
“clusters” significatifs (c.à.d. ceux ayant un nombre de pixels supérieur à un nombre donné)
engendré par l’étape initiale de seuillage. On a ainsi une élimination des petites régions qui
n’est pas effectuée dans les algorithmes que nous présentons, rendant délicate la comparaison
des résultats. Pour remédier à cet inconvénient, le nombre de pixels validant un “cluster” sera
fixé à une valeur très faible (0,005% du nombre total de pixels de l’image, soit 3 pour une
image de dimension 256*256 et 13 pour une image 512*512) et un algorithme de suppression
des petites régions de tailles 3 ou 13 (détaillé au § 3 de l’ANNEXE B) sera appliqué aux
résultats des segmentations SFMM, SFPS et Segm_TL/S.

Comme pour les segmentations en régions par fusion numérique des composantes Teinte et
Luminance, il nous faut étudier l’histogramme de la Saturation pour permettre de déterminer
les valeurs des paramètres S0 et θ des méthodes floues. Les autres paramètres de la
segmentation seront, comme précédemment, réglés par essais successifs.

Page 138
Segmentation couleur par fusion symbolique

3.5.1 - Présentation des images

3.5.1.1 - Image “Maison”


Les caractéristiques de cette image ont été présentées au paragraphe 3.6.1.2 du chapitre III.
Elles ont permis de déterminer une valeur de S0 = 30 et un coefficient β= 0,08 donnant la
fonction de pondération α(S) de la figure III.25. Le paramètre θ est alors choisi égal à 0,02
pour donner une fonction d’appartenance au symbole pertinence (µpertinence) se rapprochant au
mieux de cette fonction.
µgris µpastel faible µpastel fort µpure
1

α(S)
µpertinence
0.5

0
0 10 20 30 40 50 60 70 80 90 100
Saturation

Figure III.25: Partition de la Saturation pour l’image “Maison”

Pour cette image, les paramètres généraux de la méthode Segm_TL/S étaient: un nombre
d’itérations de 5, et un seuil d’agrégation final de 10 en Teinte et en Luminance. Nous
prendrons comme valeur ∆Tmin = ∆Lmin = 10 et également ∆Tmax = ∆Lmax = 20.

3.5.1.2 - Image “Cellules”


Les caractéristiques de cette image présentée au paragraphe 3.6.1.4 du chapitre III, ont
permis de déterminer une valeur de S0 = 70 et un coefficient β= 0,07. Le paramètre θ est alors
fixé à 1,25% pour donner la partition suivante de la Saturation:
µgris µpastel faible µpastel fort µpure
1

α(S)
µpertinence
0.5

0
0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150
Saturation

Figure III.26: Partition de la Saturation pour l’image “Cellules”

Les paramètres de la méthode Segm_TL/S pour cette image étaient les mêmes que ceux de
l’image précédente “Maison”. On prendra ainsi ∆Tmin = ∆Lmin = 10 et ∆Tmax = ∆Lmax = 20.

Page 139
Segmentation couleur par fusion symbolique

3.5.1.3 - Image “Acier”


Pour pouvoir segmenter correctement cette image, nous avons préalablement effectué un
filtrage vectoriel non linéaire (dimension de la fenêtre d’analyse 7x7) permettant un
rehaussement des contrastes entre certaines zones de l’image. L’histogramme de la Saturation
est alors le suivant:

5000 1

4000 α(S)

3000
0,5
2000
µpertinence
1000

0 0
0 40 50 100 150 200 250
Saturation

Figure III.27: Histogramme de la Saturation

Cette histogramme présentant un premier mode bien marqué, la valeur choisie pour S0 est la
valeur correspondant au minimum local après ce mode, c’est-à-dire ici la valeur 40. Pour
permettre une coopération efficace entre les composantes de Teinte et de Luminance, la valeur
de β sera faible (β=0.04) et θ sera pris égal à 1,25%. La partition de la Saturation pour cette
image est donnée par la figure III.28.

µgris µpastel faible µpastel fort µpure


1

α(S)
µpertinence
0.5

0
0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150
Saturation

Figure III.28: Partition de la Saturation pour l’image “Acier”

Pour la méthode Segm_TL/S, le nombre d’itérations est fixé à 5 avec un seuil d’agrégation
initiale de 1 et un pas de 1 sur ce seuil, ceci aussi bien en Teinte qu’en Luminance. Pour les
méthodes floues, on fixe ∆Tmin = ∆Lmin = 4 et ∆Tmax = 8 et ∆Lmax = 12 permettant ainsi une
plus grande sensibilité aux variations de Teinte.

Les méthodes de segmentation sont très différentes et le niveau du seuil d’agrégation n’est
pas forcément toujours identique, ce qui rend les comparaisons délicates. Néanmoins, les
tendances qui se profilent avec la segmentation de ces différentes images sont révélatrices du
comportement de chaque méthode.

Page 140
Segmentation couleur par fusion symbolique

3.5.2 - Résultats de la segmentation des images

Les figures suivantes (figure III.29 à III.31) présentent les frontières des régions obtenues
avec les méthodes de segmentation Segm_TL/S, SFMM, SFPS et la méthode à base de FCM
dans l’espace RVB ou dans la base de Otha, que nous appellerons respectivement FCM dans
RVB et FCM dans OTHA.

3.5.2.1 - Résultat sur l’image “Maison” (figure III.29)


Les résultats obtenus sur cette image avec la méthode FCM montrent clairement que le
choix de la base de représentation de la couleur est très important pour le processus de
segmentation. Dans RVB, on constate une très forte sensibilité au bruit engendré par la texture
de la façade de la Maison (flèche ❶ de l’image b). Cette sensibilité est fortement atténuée en
utilisant la base de Otha, mais il persiste néanmoins des erreurs de segmentation sur les régions
fléchées ❷, ❸ et ❹ de l’image c. Le temps de traitement avec cette méthode sur une image
256x256 est de l’ordre de 15 secondes sur une station SUN SPARC 20.

Sur les images d, e et f résultant respectivement des méthodes de segmentation Segm_TL/S,


SFMM et SFPS, on constate que le nombre total de régions obtenues est plus grand avec la
méthode de fusion numérique qu’avec la méthode de fusion floue SFMM et plus grand encore
avec la méthode floue SFPS. Il est difficile de cibler les zones sur-segmentées par Segm_TL/S,
mais on peut penser que c’est l’utilisation globale des sous-ensembles flous dans cette image
qui permet une plus large agrégation des pixels (∆Lmax = ∆Tmax = 20). A titre indicatif, les
temps de traitement sur cette image sont de 14 secondes pour SFMM, 7 secondes pour SFPS
et 4 secondes pour Segm_TL/S.

Après fusion des régions de taille inférieures à 3 pixels (images g, h et i), il apparaît que
certains contours (flèche ➎ par exemple) semblent visuellement mieux définis avec la méthode
SFPS. Le fait de privilégier l’information de Teinte se traduit par l’élimination de certaines
zones ombragées (flèche ❹). La partie de la façade fléchée ➐, qui est fortement ombragée, est
fusionnée avec le reste de la façade en utilisant SFMM, alors qu’elle est séparée en utilisant
SFPS ou Segm_TL/S. On voit ici apparaître l’influence des opérateurs “Min” et “Max”, qui au
lieu d’effectuer une réelle coopération entre les informations de Teinte et de Luminance, créent
un fonctionnement uniquement suivant l’information prépondérante sans tenir compte de
l’autre. Enfin, on constate (flèche ➏) que la méthode Segm_TL/S crée une confusion entre
deux régions, confusion qui n’apparaît pas dans les méthodes floues. On peut attribuer ceci à la
pondération des informations qui diminue les mesures de différence de Teinte et de Luminance
lors de la création du critère d’agrégation.

3.5.2.2 - Résultat sur l’image “Cellules” (figure III.30)


Sur cette image, on constate que la méthode FCM est inadaptée quelle que soit la base de
représentation choisie. En fait ce n’est pas tant l’algorithme du “Fuzzy C-Mean” lui même qui
est mis cause, mais plus l’étape de “clustering” qui n’arrive pas à faire de différence
significative entre les diverses parties de cette image fortement texturée et présentant une forte
corrélation entre composantes.

Page 141
Segmentation couleur par fusion symbolique

Avec notre approche dans la base TLS, on obtient des segmentations (images d, e et f) de
l’image qui permettent d’extraire plus ou moins convenablement les noyaux. Les cellules ont
tendance à être sur-segmentées avec les méthodes SFMM et SFPS alors que c’est l’inverse
pour les noyaux (flèches ➊ et ➋ sur les images d, e et f) par rapport au résultat de la méthode
Segm_TL/S. Ces régions correspondent à des niveaux de Saturation moyens et comme nous
l’avons déjà constaté dans l’étude des performances des méthodes floues, la méthode
Segm_TL/S est alors moins sensible au bruit. Le noyau indiqué par la flèche ➌ n’est retrouvé
qu’après segmentation par SFPS tandis que des erreurs d’extractions se produisent après
Segm_TL/S (flèche ➍) et que le noyau indiqué par la flèche ➊ n’est pas extrait après SFMM.
Globalement, la segmentation SFPS permet donc une meilleur extraction des noyaux que les
deux autres méthodes.

3.5.2.3 - Résultat sur l’image “Acier” (figure III.31)


L’algorithme FCM dans RVB (image b) est bien adapté à cette image, la sur-segmentation
dans certaines zones pouvant être réduite en augmentant le nombre de pixels validant une
classe (passé de 13 à 100 ou 200 par exemple). Le temps de traitement est de l’ordre de 5
minutes pour une image 512x512. L’utilisation de la base de Otha dans cette image entraîne
des agrégations erronées conduisant à la confusion de grains (flèche ➊ sur l’image c).

Comme pour l’image “Maison”, on obtient avec la méthode Segm_TL/S beaucoup plus de
régions (350 à 400 régions supplémentaires) qu’avec les méthodes floues (images d, e et f),
traduisant ainsi une plus grande sensibilité au bruit pour cette image. De plus, certains grains
sont mal isolés, flèche ➍ par rapport à SFMM et flèches ➌ et ➍ par rapport à la méthode SFPS
(images d, e et f).

Cependant, pour toutes ces méthodes, la distinction entre les trois grains formant la zone ➄
n’a pu être effectuée. Ceci provient du fait qu’ils possèdent des caractéristiques très voisines en
Teinte et en Luminance. Seuls leurs niveaux de Saturation différent, mais du fait que ces
niveaux sont élevés, cette différence n’est pas pris en compte par l’algorithme. Il faudrait alors
modifier le jeu de règles pour que, lorsque la pertinence de la Teinte est forte, l’information de
Saturation soit également prise en compte.

Les temps de traitement sont pour cette image de l’ordre de la minute avec SFMM, 21
secondes avec SFPS et 11 secondes avec Segm_TL/S,. Tous ces temps, donnés à titre indicatif,
sont mesurés sur une station SUN SPARC 20.

Page 142
Segmentation couleur par fusion symbolique

❷ ❷

❹ ❸ ❹
❸ ❸
a]: Originale b]: FCM dans RVB c]: FCM dans OTHA
image couleur en annexe E 1544 régions 867 régions

d]: Segm_TL/S e]: SFMM f]: SFPS

2833 régions 2574 régions 2425 régions

après fusion des régions de taille inférieure à 3 pixels, on obtient:

➎ ➎ ➎

❻ ❻ ❻
➐ ➐ ➐

❹ ❸ ❹ ❸ ❹ ❸
g]: Segm_TL/S h]: SFMM i]: SFPS
400 régions 361 régions 323 régions

Figure III.29: Résultats de segmentation de l’image “Maison”

Page 143
Segmentation couleur par fusion symbolique


a]: Original filtrée b]: FCM dans RVB c]: FCM dans OTHA
image couleur en annexe E 1 région 172 régions

après fusion des régions de taille inférieure à 3 pixels, on obtient:

➋ ➋ ➋

➊ ➊ ➊

d]: Segm_TL/S e]: SFMM f]: SFPS

771 régions 865 régions 884 régions

après extraction des régions ayant certaines caractéristiques géométriques, on obtient:

➌ ➌ ➌
➋ ➋ ➋

➊ ➊ ➊

g]: Segm_TL/S h]: SFMM i]: SFPS


400 régions 361 régions 323 régions

Figure III.30: Résultats de segmentation de l’image “Cellules”

Page 144
Segmentation couleur par fusion symbolique




➄ ➄ ➄

a]: Originale filtrée b]: FCM dans RVB c]: FCM dans OTHA
image couleur en annexe E 4402 régions 2342 régions

➄ ➄ ➄

d]: Segm_TL/S e]: SFMM f]: SFPS

6879 régions 8479 régions 7100 régions

après fusion des régions de taille inférieure à 13 pixels, on obtient:

➌ ➌ ➌

➍ ➍ ➍
➋ ➄ ➋ ➄ ➋ ➄

g]: Segm_TL/S h]: SFMM i]: SFPS


525 régions 637 régions 604 régions

Figure III.31: Résultats de segmentation de l’image “Acier”

Page 145
Segmentation couleur par fusion symbolique

3.6 - Conclusion

Nous avons présenté dans ce paragraphe une méthode générale de segmentation par
croissance de régions basée sur l’utilisation de sous-ensembles flous associés à des règles
linguistiques. Dans le cas des images couleur, ces règles permettent d’intégrer, d’une manière
très naturelle, les connaissances spécifiques liées à l’utilisation de la base de représentation
TLS.

Le choix des opérateurs de conjonction et de disjonction utilisés dans l’algorithme est


important. Le processus de segmentation est moins sensible au bruit inhérent quand la t-norme
choisie est le produit et la t-conorme la somme bornée à 1. De plus, avec ces opérateurs, il y a
une réelle fusion et coopération entre les informations apportées par la Teinte et la Luminance
alors qu’en utilisant les fonctions “Min” et “Max” on assiste à un fonctionnement suivant
l’information prédominante, ce qui se traduit par une plus grande sensibilité au bruit. Avec les
tests et les essais réalisés, les opérateurs “Min” et “Max” ne semblent pas adaptés au problème
de la segmentation d’images.

Au travers des études qui ont été menées sur une image synthétique ainsi que sur des images
réelles, il apparaît que la segmentation par agrégation floue utilisant le produit et la somme
bornée produit une meilleure détection des régions que la méthode de segmentation par fusion
numérique présentée au chapitre précédent.

En revanche, si les temps de traitement sont très inférieurs à la méthode utilisant les FCM
avec des résultats similaires voire supérieurs, ils sont beaucoup plus importants qu’en utilisant
la méthode de segmentation par pondérations antagonistes des informations de Teinte et de
Luminance suivant la Saturation (Segm_TL/S).

4 - Conclusion

Dans ce chapitre, nous avons utilisé une représentation symbolique permettant de fusionner
des informations de nature différente dans le but de segmenter, soit par une approche contours,
soit par une approche régions, des images couleur représentées dans la base TLS.

Habituellement, l’utilisation de la théorie des sous-ensembles flous dans la chaîne de


traitement d’image est réalisée dans le but de retarder la prise de décision jusqu’à la phase
d’interprétation de l’image et de remédier ainsi à l’imprécision ou la déficience des
informations.

Nous avons proposé ici d’utiliser la théorie des sous-ensembles flous dans un contexte
d’intégration des connaissances spécifiques du comportement des composantes Teinte,
Luminance et Saturation. Ces connaissances, traduites sous forme linguistique, restent très
explicites pour l’utilisateur et la logique floue est bien adaptée à la transcription de ces règles.

Un autre intérêt de la logique floue vient du fait que l’utilisation de sous-ensembles flous
pour la description de grandeurs numériques permet d’agréger ces grandeurs sans altérer leur
signification, même si leur contenu sémantique est différent.

Page 146
CONCLUSION

Page 147
Conclusion

Dans ce mémoire nous nous sommes intéressés à la segmentation des images couleur. Pour
éviter d’aboutir à des temps de traitement importants, la stratégie envisagée a consisté à
étendre les approches monochromes basées sur des critères différentiels. La réussite de cette
stratégie repose sur le choix judicieux de la base de représentation de la couleur de manière à
exploiter pleinement cette information multi-spectrale. Nous avons décidé de l’utilisation
d’une base de représentation du type Teinte-Luminance-Saturation, qui permet de faire
apparaître explicitement l’information de couleur, tout en assurant une indépendance et une
complémentarité entre les différentes informations colorimétriques.

L’étude des caractéristiques spécifiques du comportement de cette base nous a permis de


conclure que l’information de Teinte possède une pertinence variable qui peut être reliée au
niveau de Saturation. Lorsque celui-ci est faible, l’information apportée par la Teinte n’est pas
fiable et de ce fait elle ne doit pas être utilisée dans le processus de segmentation. A l’inverse,
lorsque le niveau de Saturation est élevé, les caractéristiques physiques traduites par la Teinte
(absorption ou réflexion de certaines longueurs d’ondes) sont alors plus stables et plus
pertinentes que celles traduites par la Luminance (essentiellement l’énergie moyenne).

L’exploitation de ces résultats nous a permis d’envisager deux modes possibles d’utilisation
de la Teinte:

❏ soit comme un complément d’information à la Luminance et à la Saturation,


❏ soit comme une information privilégiée lorsqu’elle est pertinente.
C’est tout naturellement l’information de Saturation qui est utilisée pour apprécier cette
pertinence.

Nous avons ensuite présenté et analysé des algorithmes de segmentation (contours ou


régions) utilisant un critère basé sur une fusion numérique des informations complémentaires
apportées par les diverses composantes. La prise en compte de la pertinence de la Teinte
s’effectue à l’aide d’un coefficient pondérateur lié à la Saturation. Les opérateurs, contours et
régions, ainsi définis se sont révélés performants, avec un temps de traitement relativement
faible. La méthode de fusion employée pose malgré tout le problème délicat d’un mélange
dans un même prédicat numérique de grandeurs sémantiquement différentes.

Afin de contourner ce problème, nous avons proposé d’utiliser des sous-ensembles flous
symboliques pour décrire les différentes informations apportées par les composantes TLS.
L’introduction, dans un traitement de bas-niveau, de la logique floue a permis de prendre très
facilement en compte les caractéristiques spécifiques de la base TLS, et notamment
l’imprécision de la pertinence de l’information de Teinte. Les approches contours et régions

Page 149
Conclusion

ont été envisagées conduisant à la définition de nouveaux opérateurs pour les images couleur.
L’opérateur de détection de contours utilisé permet éventuellement d’introduire une
connaissance a priori de la forme du contour à détecter. Cependant, n’intégrant pas d’étape de
filtrage, il reste très sensible au bruit. La méthode de segmentation en régions par agrégation
floue, en utilisant des jeux de règles pour la coopération entre la Teinte et la Luminance suivant
la Saturation, produit une meilleure détection des régions que la méthode de segmentation par
fusion numérique. Ces jeux de règles, établis par expertises, sont facilement modifiables pour
prendre en compte d’autres critères symboliques. Cependant les temps de traitement de ces
méthodes symboliques sont plus importants qu’en utilisant la fusion numérique.

Les domaines d’application des méthodes proposées sont très variés, comme nous avons pu
le constater au travers des différentes images utilisées dans ce mémoire. On trouve, en
particulier, l’imagerie biomédicale où l’adjonction de réactif coloré facilite la mise en évidence
de certaines cellules. On trouve également des exemples d’utilisation de la couleur dans des
contextes plus industriels, notamment en métallurgie où l’observation au microscope optique
sous lumière polarisée permet de mieux distinguer la structure de l’élément. D’autres
applications, moins spécifiques, sont également envisageables comme celle que nous avons
développé en collaboration avec l’Ecole National de Ski et d’Alpinisme. L’E.N.S.A.
s’intéresse à l’analyse de la trajectoire de grimpeurs. Des expérimentations ont été faites au
cours desquelles des grimpeurs ont été filmés évoluant dans une pénombre partielle, leur centre
de gravité étant matérialisé par une lampe attachée dans le dos. L’objectif de notre travail,
présenté dans [CAR 93b], a été de valider l’utilisation d’un macaron de couleur permettant la
localisation et le suivi du grimpeur dans le but de s’affranchir des contraintes d’éclairage.

Les perspectives de recherche envisagées, pour l’amélioration des techniques proposées, se


situent essentiellement au niveau de l’utilisation de la représentation symbolique et de la
logique floue, soit dans un contexte d’intégration des connaissances spécifiques liées à la
couleur, soit dans le domaine de la fusion de données de nature différente:

❏ Pour la détection de contours on pourrait envisager d’intégrer une étape de


filtrage permettant de réduire la sensibilité au bruit de l’opérateur utilisé.
❏ Pour la segmentation en régions par agrégation floue, on a vu dans certaines
situations qu’il serait intéressant de prendre en compte directement
l’information de Saturation pour permettre de différencier des Teintes
identiques et pertinentes mais de Saturations différentes.
❏ On peut envisager de pondérer les différentes règles utilisées en passant par
une relation floue entre les symboles.
❏ On peut également envisager une étape supplémentaire ajoutée à notre
algorithme de segmentation en régions permettant la prise en compte d’une
information symbolique apportée par le gradient couleur. La coopération
entre segmentation en régions et segmentation en contours s’effectuerait
alors au cours de la segmentation.

Page 150
Conclusion

Plus généralement, maintenant que la faisabilité d’une coopération T, L, S a été prouvée sur
des techniques de segmentation simples, il serait intéressant d’envisager l’application de cette
coopération à des techniques plus sophistiquées (séparation/fusion, analyse
d’histogrammes,...) en utilisant, par exemple, des symboles pour caractériser non plus des
différences entre pixels, mais des distances entre régions.

Page 151
Conclusion

Page 152
ANNEXE A

Bruits vectoriels

Page 153
ANNEXE A - Bruits vectoriels

1 - Génération de bruits vectoriels corrélés

Pour pouvoir évaluer quantitativement les performances des opérateurs proposés vis-à- vis
du bruit, il est nécessaire de savoir générer des bruits vectoriels additifs ayant une corrélation
inter-composante paramétrable et des densités de probabilité différentes.

1.1 - Modélisation et génération des bruits

Pour modéliser ceci, nous pouvons décomposer le bruit présent dans chaque composante
RVB en la somme d’un bruit indépendant BI et d’un bruit corrélé BC. Un coefficient noté “c”,
identique pour des raisons de simplicité entre les trois plans R,V et B, va alors permettre
d’envisager des corrélations différentes entre les composantes. Les bruits altérant les trois
composantes Rouge, Verte et Bleue de l’image couleur, notées BR, BV, et BB ont alors comme
expression:
C I
 BR = c ⋅ B + ( 1 – c ) ⋅ BR

B = c ⋅ B C + ( 1 – c ) ⋅ B I (Eq. A.1)
 V V
 C I
 BB = c ⋅ B + ( 1 – c ) ⋅ BB

Le coefficient réel “c” est compris entre 0 et 1. Lorsqu’il aura la valeur 0, le bruit généré
dans l’image sera composé uniquement du bruit indépendant. A l’inverse, lorsqu’il vaudra 1, le
bruit sera totalement corrélé entre les différentes composantes R, V, et B de l’images. Les
valeurs intermédiaires du coefficient “c” permettront la prise en considération de bruits plus ou
moins corrélés.

La synthèse de bruits blancs gaussiens ne pose pas de problème car il existe en effet
plusieurs techniques bien connues permettant la génération d’un tel bruit. A partir des bruits
gaussiens corrélés, il est alors possible d’engendrer des bruits vectoriels de loi quelconque
(notamment exponentielle ou uniforme) en effectuant une spécification d’histogramme pour
remplacer le bruit gaussien en un bruit de loi conforme à la loi désirée.

1.2 - Relation entre le paramètre “c” et le coefficient de corrélation du bruit

Alshatti a montré dans [ALS 94] que si l’on suppose que les bruits indépendants et le bruit
2
commun ont même variance σ 0 on obtient bien évidemment des variances identiques pour les
bruits sur les composantes R,V et B:
2 2 2 2 2
σ R = σ V = σ V = ( 1 – 2c + 2c ) ⋅ σ 0 (Eq. A.2)

Page 155
ANNEXE A - Bruits vectoriels

Avec ces hypothèses, le coefficient de corrélation entre les bruits a alors pour expression:
2
c
ρ = -----------------------------2 (Eq. A.3)
1 – 2c + 2c

La courbe suivante montre l’évolution du coefficient de corrélation en fonction du


paramètre “c”. On constate que pour:

c=0 -> ρ=0


c = 0.5 -> ρ = 0.5
c= 1 -> ρ=1

1
0.9
0.8
0.7
ρ 0.6
0.5
0.4
0.3
0.2
0.1
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
paramètre «c»
Figure A.1: Evolution du coefficient de corrélation en fonction du paramètre “c”

2
1.3 - Relation entre la variance du bruit vectoriel et la variance initial σ 0

2
En définissant la variance du bruit vectoriel couleur σ couleur comme la somme des
variances de chacun des plans, on obtient:

2 2 2
σ couleur = 3σ 0 ( 1 – 2c + 2c ) (Eq. A.4)

On constate, avec notre démarche, que la variance globale va dépendre du coefficient “c”,
c’est-à-dire de la corrélation entre les composantes du bruit. En particulier pour:

❏ c = 0 (bruits indépendants) ou c = 1 (bruits totalement corrélés)


2 2
σ couleur = 3σ 0

❏ c = 0,5 (bruits moyennement corrélés)


2 2
σ couleur = ( 3 ⁄ 2 )σ 0

La figure A.2 donne l’évolution de la variance du bruit vectoriel couleur en fonction du


2
paramètre “c” pour une variance σ 0 unitaire.

Page 156
ANNEXE A - Bruits vectoriels

3
2.5
2
2
σ couleur 1.5
1
0.5
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
paramètre “c”
2 2
Figure A.2: Evolution de σ couleur en fonction du paramètre “c” pour σ 0 = 1

On peut exprimer le paramètre “c” en fonction du coefficient de corrélation ρ:

2
ρ– ρ–ρ
c = ---------------------------- (Eq. A.5)
2ρ – 1
La variance du bruit vectoriel couleur devient alors en reprenant l’équation A.4:

2
2 2 1–2 ρ–ρ
σ couleur = 3σ 0 -------------------------------
2ρ – 1

2
Si comme précédemment on trace l’évolution de cette variance pour une variance σ 0
unitaire, on obtient la courbe ci-dessous:
3
2.5
2
2
σ couleur 1.5
1
0.5
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
coefficient de corrélation ρ
2 2
Figure A.3: Evolution de σ couleur en fonction de ρ pour σ 0 = 1

1.4 - Rapport signal sur bruit RSB

Le rapport signal sur bruit (RSB) est défini pour une image en niveaux de gris (NG) par:
2
h
RSB NG = -----2- (Eq. A.6)
σ

où h est l’amplitude de la transition, s est l’écart type du bruit. Pour une image couleur, ce
rapport à pour expression (avec hR, hV et hB les amplitudes des échelons en R, V et B):
2 2 2 2 2 2
hR + hV + hB hR + hV + hB
RSB Coul = ----------------------------------------
2 2
-
2
= --------------------------------------
2
- (Eq. A.7)
σR + σV + σB σ Coul

Page 157
ANNEXE A - Bruits vectoriels

2 - Quelques résultats analytiques sur l’étude de l’influence du bruit sur les


composantes TLS

2.1 - Influence sur la Luminance

La Luminance est obtenue par la moyenne des trois composantes R,V et B. La composante
Luminance bruitée Lb s’exprime avec les notations précédentes par la formule suivante:

Rb + Vb + Bb R+V+B C 1–c I I I
- = ------------------------- + c ⋅ B + ----------- ⋅ ( B R + B V + B B )
L b = ------------------------------- (Eq. A.8)
3 3 3

La Luminance bruitée Lb est ainsi la somme de trois termes:

❏ le premier correspondant à la composante Luminance non bruitée.


❏ le second correspondant au bruit commun aux trois plans R,V,B.
❏ le troisième correspondant au bruit indépendant sur chaque composante.
2
La variance de la Luminance bruitée (notée σ Lb ) est classiquement obtenue par:

2 2
σ Lb = E [ ( Lb – Lb ) ] (Eq. A.9)

avec L b : valeur moyenne de la Luminance bruitée.

Or les bruits étant par hypothèse non biaisés, la valeur moyenne de la Luminance est égale à
la composante Luminance non bruitée. Ainsi, la variance de la Luminance bruitée va
s’exprimer en fonction du paramètre “c” par:

2
2 2 2 (1 – c) 2 2 2
σ Lb = c ⋅σ B
C + ------------------- ⋅ ( σ BIR + σ BIV + σ BIB ) (Eq. A.10)
9

2 2 2 2
avec σ B
C la variance du bruit commun et σ BR ,
I σ I
BV et σ I
BB les variances des bruits
indépendants.
2
Dans le cas où les variances des bruits indépendants sont identiques (noté σ B
I ), on obtient:

2
2 2 2 (1 – c) 2
σ Lb = c ⋅σ B
C + ------------------- ⋅ σ BI (Eq. A.11)
3
En prenant comme hypothèse supplémentaire que la variance du bruit commun et la
2
variance du bruit indépendant sont identiques ( σ 0 ), il est possible de déterminer la formule
théorique reliant la variance de la composante Luminance bruitée et la variance du bruit sur les
composantes R,V et B en fonction du paramètre “c”. On a:

2 1 2 2
σ Lb = --- ⋅ ( 4c – 2c + 1 )σ 0 (Eq. A.12)
3

Page 158
ANNEXE A - Bruits vectoriels

2 2
Puis à l’aide de l’équation A.4 on en déduit la relation entre σ Lb et σ couleur en fonction
du paramètre “c”:

2
2 1 ( 4c – 2c + 1 ) 2
σ Lb = --- ⋅ ---------------------------------
-σ couleur (Eq. A.13)
3 ( 2c 2 – 2c + 1 )

Avec ces hypothèses, cette relation peut alors s’exprimer en fonction de la corrélation entre
les composantes:

2 2
2 1 ( 2ρ – 4ρ ρ – ρ + 2 ρ – ρ + 1 ) 2
σ Lb = --- ⋅ -----------------------------------------------------------------------------------σ couleur (Eq. A.14)
3
2
(1 – 2 ρ – ρ )

2.2 - Influence sur la Saturation

Dans le cas d’un bruit additif totalement corrélé entre les composantes R,V et B, on a
constaté un rejet total de la perturbation sur la composante Saturation. On peut vérifier ce
résultat de manière théorique en calculant la composante Saturation bruitée On utilise pour
cela les définitions des composantes R,V, et B bruitées (Rb, Vb, et Bb) définis dans les
équations A.1, avec un paramètre “c” égal à 1.

En reprenant la définition de la Saturation dans cette base (cf. Eq. I.12 et Eq. I.14), cette
composante peut s’exprimer, en fonction des composantes R, V et B, de la manière suivante:

R – V +B 2 3
--------------  + --- ( V – B )
2
S = (Eq. A.15)
 2  4

Dans le cas bruité avec un coefficient de corrélation de 1, il y aura compensation du bruit


dans les deux termes de l’équation précédente. La composante Saturation bruitée Sb sera
équivalente à la Saturation non bruitée:
Sb = S (avec un bruit de type additif, non corrélé dans l’espace RVB).

2.3 - Influence sur la Teinte

De la même manière que pour la composante Saturation, on a constaté que dans le cas d’un
bruit additif totalement corrélé entre les composantes R,V et B, il y a un rejet total de la
perturbation sur la composante Teinte. Kender avait déjà mis en évidence les deux identités
suivantes:

❏ T(R,V,B) = T(αR,αV,αB), ce qui est en accord avec les lois fondamentales


de la colorimétrie qui stipulent que la Teinte est indépendante de la
Luminance.

Page 159
ANNEXE A - Bruits vectoriels

❏ T(R - k, V - k, B - k) = T(R,V,B), en particulier si k= Min(R,V,B)=B (par


exemple) on obtient T(R - B, V - B, 0) = T(R,V,0).
(R - B, V - B, 0) sont les valeurs des tristimuli de la couleur pure la plus
proche en Teinte de la couleur (R,V,B). Ceci caractérise l’indépendance de la
teinte et de la Saturation.

C’est cette dernière identité qui est vérifiée dans le cas d’un bruit additif totalement corrélé.

En reprenant la définition de la Teinte dans cette base, cette composante peut s’exprimer (à
2π près) en fonction des composantes R, V et B, de la manière suivante:

T = acos  -------- ⋅ --------------------------- 


3 2R – B – V
(Eq. A.16)
 2 S 

Nous avons vu précédemment que, dans le cas d’un bruit totalement corrélé, la composante
Saturation rejetait ce type de bruit. Le bruit sur la composante Teinte sera alors celui apporté
par le numérateur. Or au numérateur on effectue la différence entraînant une compensation du
bruit commun aux trois composantes, d’où un rejet total de ce type de bruit.

Page 160
ANNEXE B

Définitions et algorithmes

Page 161
ANNEXE B - Définitions et algorithmes

1 - Calcul sur la Teinte

1.1 - Définition d’une moyenne circulaire

Le codage numérique de la Teinte s’effectue de manière cyclique en partant du Rouge, pour


aller vers le jaune, le Vert, le Cyan, le Bleu, le magenta et enfin, retrouver le Rouge. Ces
différentes couleurs sont codées, dans cet ordre, de 0 à 255 comme le montre la figure B.1.

La couleur Rouge a ainsi une répartition distribuée de part et d’autre de l’origine.

Rouge

Magenta 0 Jaune
213 42

170 85
Bleu Vert
128

Cyan

Figure B.1: Représentation numérique circulaire des couleurs

Pour effectuer le calcul de la Teinte moyenne pour un nombre N de pixels, une solution
consiste à effectuer, pour les valeurs de Teinte encadrant l’origine (valeurs numériques de
Teinte comprises entre 0 et 64 ou 192 et 256), un décalage de 128 modulo 256 avant
d’effectuer l’addition.

Lorsque toutes les additions sont réalisées, on annule les décalages effectués en soustrayant
à cette somme le produit du nombre de décalage réalisé par 128. La Teinte moyenne
correspond alors à la valeur moyenne modulo 256.

Ainsi, par exemple, des valeurs 250 et 2, qui ont une moyenne arithmétique de 126, donnent
une moyenne circulaire de 254. En effet, la somme décalée par 128 modulo 256 de ces deux
valeurs est de 252. En annulant les décalages par une soustraction de 2 x 128 on obtient une
somme corrigée de -4. Pour obtenir la moyenne circulaire, il reste à prendre le modulo par 256
du quotient entre la somme corrigée et le nombre de point traité, donnant alors dans notre
exemple -2 modulo 256 soit 254.

Page 163
ANNEXE B - Définitions et algorithmes

250 2 254
0 0

192 64 +128 modulo 256 192 64 -128 modulo 256

128 128
130 122 126

Figure B.2: Détail du calcul de la moyenne circulaire pour les valeurs proches de zéro

La formule générale de la moyenne circulaire de la Teinte (notée T )est ainsi donné par la
formule suivante:

N
1  
T = ---- ⋅  ∑ [ ( T i + k i )modulo 256 ] – d ⋅ 128 modulo 256 (Eq. B.1)
N  
i=1

dans laquelle ki est un décalage qui dépend de la valeur numérique de la Teinte. Il prend la
valeur 0 si Ti est compris entre 64 et 192 sinon il est égal à 128. Le paramètre d correspond au
nombre de fois ou le décalage est égal à 128, c’est-à-dire au nombre de décalages réalisés lors
du calcul de la somme.

1.2 - Définition d’une variance circulaire

Pour effectuer le calcul de la variance, il nous faut définir une mesure de différence sur la
composante Teinte prenant en compte la cyclicité du codage. Ainsi, les valeurs 250 et 2 de
l’exemple précédent doivent avoir une différence absolue de 8 et non de 248. Ce problème ce
résout facilement en prenant la différence modulo 256. Cette différence entre deux Teinte T1 et
T2 sera notée par T1 - T2256 dans tout le document. La variance circulaire de la Teinte (notée
2
σ T ) est ainsi définie par la formule suivante:

N
1
∑(
2 2
σT = ------------- ⋅ Ti – T 256 ) (Eq. B.2)
N–1
i=1

Page 164
ANNEXE B - Définitions et algorithmes

2 - Détermination du Pseudo-Centroïd d’une image

Ce paramètre appelé Pseudo-Centroïd a été présentée dans [TAO 93] pour déterminer la
valeur du seuil à appliquer à une image gradient pour obtenir l’image des contours. Si cette
méthode ne donne pas, de manière systématique, une valeur optimale, elle a l’avantage de
fournir une valeur liée aux caractéristiques de l’image gradient sans nécessiter le choix d’un
paramètre de réglage. Deux étapes sont nécessaires pour déterminer le Pseudo-Centroïd.

On se place dans le cas d’un codage des niveaux de gris sur 256 niveaux (codage sur 8 bits
de 0 à 255).

2.1 - Détermination du nombre de pixels bruités

Dans un premier temps il faut déterminer un facteur traduisant le degré de turbulence de


l’image. Une zone est dite turbulente si il y a plus de deux niveaux de gris différents dans les
pixels qui la compose. La zone est constituée par un pixel et ces huit voisins qui l’entourent.

Le facteur de turbulence (noté FT) est calculé en comptant le nombre de pixels ayant une
zone turbulente (noté ZT) autour d’eux que l’on divise ensuite par le nombre total de pixels de
l’image (noté N). On a ainsi:

1
FT = ----
N ∑ ZT (Eq. B.3)

2.2 - Calcul de la valeur du Pseudo-Centroïd

Dans un second temps, on calcule l’histogramme de l’image (noté HISTO). La valeur du


Pseudo-Centroïd (notée PC) est alors donnée par la formule suivante:
255

∑ q ⋅ H ISTO [ q ]
q=1
PC = ---------------------------------------------------------------------------------------------------
8
- (Eq. B.4)
HISTO [ 0 ] ( 1 – FT ) + ( N – HISTO [ 0 ] )

3 - Algorithme d’élimination des petites régions

Une des techniques les plus élaborées pour l’élimination des petites régions résultant de la
segmentation des images est celle construisant un graphe d’adjacence des régions [MON 87].
L’inconvénient de cette technique est qu’elle est relativement complexe et coûteuse en temps
de calcul.

Comme dans notre application se sont des régions de très petites tailles (3 à 13 pixels
maximum) que nous cherchons à fusionner, nous avons choisie d’appliquer un algorithme de
suppression locale des petites régions utilisant le masque de la figure B.3. Il est beaucoup
moins coûteux en temps de calcul, mais sensible au sens de parcours de l’image.

Page 165
ANNEXE B - Définitions et algorithmes

x-1 x x+1
y-1 H
masque de taille 3x3
y D X G appliqué au pixel de
coordonné x,y
y+1 B

Figure B.3: Masque utilisé pour la suppression des petites régions

Au départ de l’algorithme on dispose des composantes en Teinte, Luminance et Saturation


de l’image ainsi que de l’image des étiquettes des régions. On fixe également une taille
minimum des régions (Dmin).

3.1 - Principe de l’algorithme

L’algorithme se décompose en deux étapes. Dans un premier temps on calcule pour toutes
les régions de l’image les caractéristiques suivantes:

étape 1:

❏ la valeur moyenne en Teinte de la région T R

❏ la valeur moyenne en Luminance de la région L R

❏ la valeur moyenne en Saturation de la région S R

❏ la surface de la région de la région (DR)

étape 2:
on parcourt l’image des étiquettes des régions de haut en bas et de gauche à droite
et
Si le pixel courant (X) appartient à une région (notée RX) telle que
DR <= Dmin alors

on calcul les indices d’écart colorimétrique entre RX et les


autres régions voisines, c’est-à-dire la région RH contenant le
pixel H, la région RB contenant le pixel B, idem avec G et D.

on fusionne ensuite la région RX avec la région ayant l’écart


colorimétrique le plus faible par un ré-étiquetage de tous les
pixels de cette région RX avec l’étiquette de l’autre région.

Page 166
ANNEXE B - Définitions et algorithmes

Dans cet algorithme on n’effectue pas de modification des caractéristiques des régions après
une fusion comme c’est le cas en utilisant un graphe d’adjacence, ceci dans le but de ne pas
obtenir un nombre trop important de régions dont la surface est égale à la surface minimum
demandée. En conséquence, pour ne pas introduire d’erreur trop importante, cet algorithme ne
doit pas être utilisé pour éliminer des régions de dimension trop importante.

Il reste encore à déterminer l’indice d’écart colorimétrique.

3.2 - Indice d’écart colorimétrique

Pour construire cet indice, nous avons utilisé le principe élaboré pour la construction d’un
opérateur gradient marginal (§ 2 du chapitre II).

Le principe de calcul de cette indice d’écart colorimétrique (noté IC) repose sur une fusion
numérique des écarts de Luminance de Saturation et de Teinte. Cet indice devant tenir compte,
bien évidemment, de la pertinence de l’écart de Teinte.

Cet indice, entre la région RX et la région RH par exemple, est évalué par la formule
suivante:

I C ( R X, R H ) = p ( S X, S H ) T X – T H 255 + LX – LH + SX – SH (Eq. B.5)

dans laquelle
TX – TH 255 représente la différence absolue modulo 255 entre les Teintes et

p ( S X, S H ) représente la pertinence de la différence de Teintes en fonction des


niveaux de Saturation des deux régions.

Page 167
ANNEXE B - Définitions et algorithmes

Page 168
ANNEXE C

Quelques notions de base


relatives à la théorie des
sous-ensembles flous

Page 169
ANNEXE C - Quelques notions de base relatives à la théorie des sous-ensembles flous

1 - Introduction

Il s’agit dans cette annexe d’exposer quelques résultats fondamentaux de la théorie des
sous-ensembles flous présentée par Zadeh en 1965 [ZAD 65]. On peut également se référer à
l’ouvrage de Kaufman [KAU 73] ou plus récemment à celui de B. Bouchon-Meunier
[BOU 93] ou encore au rapport de synthèse du groupe “Logique Floue” organisé par
l’Observatoire Français des Techniques Avancées (OFTA) [OFT 94].

Cette présentation n’a pas la prétention d’être exhaustive mais elle définit les notions
élémentaires à la présentation théorique des classifieurs flous utilisés dans ce mémoire. Le
lecteur familier du contrôle flou notera que la structure de ces classifieurs est similaire à celle
utilisée pour les contrôleurs flous. On retrouve une étape de conversion numérique-symbolique
(fuzzification) et un mécanisme d’inférence floue à base de règles. Dans le cas d’un contrôleur
flou, une étape supplémentaire de conversion symbolique-numérique (défuzzification) est
nécessaire pour élaborer la grandeur de sortie qui sera la commande à appliquer au système.

2 - Définition d’un sous-ensemble flou

Un sous-ensemble net (ou partie) A d’un ensemble de référence E est défini par une
application XA, appelée fonction caractéristique telle que:
XA: E → {0,1}
x → XA(x) = 1 si x ∈ A
0 si x ∉ A
En conséquence, XA(x) ne peut prendre que les valeurs 0 ou 1.

Un sous-ensemble flou (ou partie floue) A d’un ensemble de référence E est défini par une
application µA, appelée fonction d’appartenance définie par:
µA: E → [0,1]
x → µA(x)
Au contraire des ensembles nets, la fonction d’appartenance peut prendre ces valeurs dans
l’intervalle [0,1], permettant ainsi d’introduire une notion de gradualité dans l’appartenance
d’un élément à un ensemble.

Par exemple on peut définir la classe des personnes “jeunes” par:


degrés d’appartenance µjeunes(x)
1 Fonction d’appartenance µjeunes

âge
0 15 50 120

Page 171
ANNEXE C - Quelques notions de base relatives à la théorie des sous-ensembles flous

Dans cet exemple, l’ensemble de référence E est l’âge définissant un univers de discours
numérique, continu et borné [0,120]. Le sous-ensemble flou A est celui des personnes jeunes.
Il est mathématiquement défini par la fonction d’appartenance µA = µjeunes. Cette fonction
d’appartenance appliquée à un élément x ∈ E, retourne un degré d’appartenance µA (x) de x
à A. µA (x) = 1 et µA (x) = 0 correspondent respectivement à l’appartenance et la
non-appartenance de x à A.
Le sous-ensemble flou A est un sous-ensemble net de E dans le cas particulier où µA ne
prend que des valeurs égales à 0 ou 1. Les sous-ensembles nets ne sont donc que des cas
particuliers des sous-ensembles flous.
Le terme “jeunes” correspond à un terme linguistique, appelé symbole, associé à
l’ensemble E.

3 - Les opérateurs flous

Les opérateurs de la logique floue sont liés aux opérateurs ensemblistes. On retrouve ainsi
des opérations complémentaire (négation), d’intersection (conjonction), d’union (disjonction)
et d’inclusion (implication).

3.1 - La négation floue

L’opérateur doit être involutif, décroissant et vérifier les propriétés aux bornes. On utilise
classiquement la négation forte:
❏ n(u) = 1- u (Eq. C.1)

3.2 - La conjonction floue

C’est une application notée T: [0,1]x[0,1] → [0,1]. Cet opérateur doit avoir les propriétés
suivantes: commutativité, associativité, 1 comme élément neutre, 0 comme élément absorbant,
non décroissance par rapport à chacun de ses arguments.
Il existe une famille d’opérateurs, les normes triangulaires (t-normes) qui satisfont ces
propriétés. Les principales t-normes sont:
❏ T1(u,v) = Min(u,v) (c’est la plus grande des t-normes) (Eq. C.2)

❏ T2(u,v) = u*v (appelée produit dans le document) (Eq. C.3)

❏ T3(u,v) = Max(u+v-1,0) (Eq. C.4)

❏ T4(1,v) = v (appelée produit drastique, c’est la plus petite des t-normes) (Eq. C.5)
T4(u,1) = u
T4(u,v) = 0 sinon

3.3 - La disjonction floue

C’est une application notée ⊥ : [0,1]x[0,1] → [0,1]. Cet opérateur doit avoir les propriétés
suivantes: commutativité, associativité, 0 comme élément neutre, 1 comme élément absorbant,
non décroissance par rapport à chacun de ses arguments.

Page 172
ANNEXE C - Quelques notions de base relatives à la théorie des sous-ensembles flous

Il existe une famille d’opérateurs, les co-normes triangulaires (t-conormes) qui satisfont
ces propriétés. Les principales t-conormes sont:
❏ ⊥ 1 (u,v) = Max(u,v) (c’est la plus petite des t-conormes) (Eq. C.6)

❏ ⊥ 2 (u,v) = u+ v- u*v (Eq. C.7)

❏ ⊥ 3 (u,v) = Min(u+v,1) (appelée somme bornée dans le document) (Eq. C.8)

❏ ⊥ 4 (0,v) = v (appelée somme drastique, c’est la plus grande des t-conormes) (Eq. C.9)
⊥ 4 (u,0) = u
⊥ 4 (u,v) = 1 sinon

4 - Fuzzification symbolique

Nous noterons F(E) l’ensemble des sous-ensembles flous de E. On définit un ensemble


L(E) qui est un ensemble de symboles associé à l’univers de discours E.

La conversion numérique-symbolique (fuzzification) transforme la mesure x en un sous-


ensemble flou (ou partie floue) de L(E), c’est-à-dire un élément de F(L(E)). Cette partie floue
permet de caractériser à quel point la mesure peut être décrite par les symboles de L(E).

Le sens des symboles linguistiques est relié au domaine numérique à l’aide d’une
application M qui est généralement un intervalle flou. Cette information est appelée la
signification floue (fuzzy meaning) du symbole et sera caractérisée pour tout x ∈ E par sa
fonction d’appartenance.
M: L(E) ➙ F(E)
µME (L)( x )

La figure C.1 fournit un exemple des significations floues pour chacun des symboles d’un
ensemble:
L(E)={froide, bonne, chaude}.
degrés d’appartenance

µM(froide) (x) µM(bonne) (x) µM(chaude) (x)


1

0 x1 24 x2 37 50 x en ˚C

Figure C.1: Exemples de signification floue

Dans la littérature on confond souvent µM(froide) avec µfroide.

Page 173
ANNEXE C - Quelques notions de base relatives à la théorie des sous-ensembles flous

Les significations floues peuvent maintenant être utilisées pour construire la représentation
symbolique de la mesure, appelée la description floue (fuzzy description) de la mesure qui
peut être abordée de plusieurs manières. Une solution possible consiste à considérer qu’un
symbole appartient avec un certain degré à la description floue de la mesure si cette mesure
appartient, au même degré, à la signification floue du symbole. Une autre manière d’exprimer
ceci consiste à dire que la description floue représente, pour chaque symbole, le degré de
possibilité que la mesure soit caractérisée par ce symbole. On note D cette application qui est
caractérisée pour tout symbole L ∈ L(E) par:
D: E ➙ F(L(E))
µ DL (E ) ( x ) ( L )

La figure C.2 représente les descriptions floues des mesures x1 = 20˚ C et x2 = 35˚ C
obtenue à partir des significations floues de la figure C.1.

1
0,77
X1 ∈ F(L(E)) = {froide}
X2 ∈ F(L(E)) = {froide, bonne}
0,23
0
froide bonne chaude

Figure C.2: Description floue des mesures x1 = 20˚ C et x2 = 35˚ C

Si x appartient à la signification d’un symbole L sur l’univers de discours E alors le


symbole L appartient à la description de x:
x ∈ M(L) ⇔ L ∈ D(x) (Eq. C.10)
Dans le cas flou, cette relation liant la signification et la description d’une mesure devient:
µ M E ( L ) ( x ) = µ DL (E ) ( x ) ( L ) (Eq. C.11)

Cette relation traduit le fait que si un symbole appartient à la description de la mesure avec
un niveau d’appartenance µ DL ( E ) ( x ) ( L ) , alors la mesure appartient à la signification de ce
symbole avec le même niveau d’appartenance.

L(E) D(x1) E

froide ❏
M (froide) .x1

M (bonne)
.x2
bonne ❏

chaude ❏ D(x2)

Figure C.3: Exemple de signification et de description floue

Page 174
ANNEXE C - Quelques notions de base relatives à la théorie des sous-ensembles flous

5 - Inférence

L’inférence transforme, à l’aide d’un jeu de règles, la partie floue issue de la fuzzification
symbolique en une nouvelle partie floue. Cette partie floue issue de l’inférence peut être soit
une partie floue de l’ensemble de sortie (noté U), soit une partie floue de l’ensemble des
symboles linguistiques utilisés dans les conclusions des règles, c’est-à-dire un élément de
F(L(U)). Toutes les inférences réalisées dans ce document sont de ce second type.

L’inférence est effectuée en utilisant le principe de combinaison-projection. Ce principe,


proposé par Zadeh, est l’extension, au cas flou, du calcul de l’image d’une partie d’un
ensemble par une relation dont on connaît le graphe Γ. Dans le cas flou, pour l’entrée
symbolique P issue de la fuzzification, la fonction d’appartenance de la partie floue Q inférée
est donnée par:
∀ L’ ∈ L(U)
µQ(L’) = supL ∈ L(E) T (µP(L), µΓ(L,L’)) (Eq. C.12)

où le graphe Γ est un graphe net ou un graphe flou défini sur le produit cartésien des
ensembles de symboles L(E)xL(U).

Dans le cas où le graphe est construit à partir d’une implication floue, ce principe de
combinaison-projection est appelée Modus Ponens généralisé.

Dans le cas où les sous-ensembles flous sont finis, la borne supérieure peut alors être
remplacée par la t-conorme “Max”. Cette t-conorme étant la plus petite des t-conormes, la
borne supérieure peut en fait être remplacée par n’importe quelle t-conorme. L’expression du
degré d’appartenance de tout élément à la partie floue inférée est alors:
µQ(L’) = ⊥ L ∈ L(E) T (µP(L), µΓ(L, L’)) (Eq. C.13)

6 - Jeu de règles et graphes flous

La forme générale d’une règle est:


Si prémisse alors conclusion

On peut distinguer deux types de règles selon que la conclusion est numérique ou qu’elle est
symbolique. Nous nous contenterons de présenter la conclusion symbolique qui nous intéresse
tout particulièrement dans ce document.

Cette vision du jeu de règle dans laquelle les prémisses et les conclusions sont symboliques
est certainement la plus simple. Elle conduit à l’écriture suivante du jeu de règles:
Si A est Ai alors B est Bj ⇔ Si A = Ai alors B = Bi

Le jeu de règles est caractérisé par une relation nette ou floue entre les éléments L(E) et
ceux de L(U). Le graphe net ou flou associé à cette relation s’obtient directement à partir du
jeu de règles.

Page 175
ANNEXE C - Quelques notions de base relatives à la théorie des sous-ensembles flous

Exemple 1: Soient deux ensembles de symboles tels que L(E)={froide, bonne, chaude} et
L(U)={gauche, centre, droite} et le jeu de règles suivant:
Si l’eau est froide alors tourner le mitigeur à gauche,
Si l’eau est bonne alors tourner le mitigeur au centre,
Si l’eau est chaude alors tourner le mitigeur à droite.
Exemple 2: on part des mêmes ensembles de symboles et du jeu de règles suivant:
Si l’eau est froide alors tourner le mitigeur à gauche à 0,8,
Si l’eau est bonne alors tourner le mitigeur au centre à 0,4,
Si l’eau est chaude alors tourner le mitigeur à droite à 0,5,
Si l’eau est chaude alors tourner le mitigeur au centre à 0,2.

Dans ce second exemple, un coefficient a été ajouté pour traduire la confiance que l’expert a
dans la règle. Il va servir à pondérer la “force” de la relation entre les symboles.

Les graphes associés à ces jeux de règles sont construits sur le produit cartésien des
ensembles L(E) et L(U), dont les éléments seront respectivement notés L et L’. Ainsi, le
premier jeu de règles sera représenté par un graphe net (c.à.d. µΓ(L, L’) ∈ {0,1}), et le second
par un graphe flou.

L’ ∈ L(U)
µΓ(L, L’) gauche centre droite

froide 1 0 0
L ∈ L(E) bonne 0 1 0

chaude 0 0 1

Tableau 1 : Graphe net associé à l’exemple 1

L’ ∈ L(U)
µΓ(L, L’) gauche centre droite

froide 0,8 0 0
L ∈ L(E) bonne 0 0,4 0

chaude 0 0,2 0,5

Tableau 2 : Graphe flou associé à l’exemple 2

Page 176
ANNEXE D

Synoptique des traitements


réalisés en fusion symbolique

Page 177
ANNEXE D - Synoptique des traitements réalisés en fusion symbolique

1 - Approche par inférence de l’opérateur flou de détection de contours pour les images
monochromatiques

Le synoptique du traitement que l’on cherche à effectuer sur le pixel “x” d’une image “X”
est le détaillé en figure D.1.
δz_h L1 (∆Z_H) L4 (Z_H)

.1 D1 .
petite

T1’ L2 (∆Z_H)
R1
.
2 D1
.
petite
.
homogène

L3 (∆Z_H)
P1 (X) D1
X T1’ .
3
.
petite L1 (PC_M)

T1’ R3
PCP_R1
T1
T1’’
δz_t L1 (∆Z_T) L4 (Z_T) .
.1
D2
.
grande

T1’’
L2 (∆Z_T)
R2 L (PC)
.
2 D2
.
grande
.
transition

T1’’
L3 (∆Z_T) R4
.
x
.3 D2
.
grande
.
PCP

Tn
Pn (X)
Ln (PC_M)

PCP_Rn
.

Figure D.1: Synoptique du traitement sur un Pixel

Page 179
ANNEXE D - Synoptique des traitements réalisés en fusion symbolique

On cherche à effectuer directement la description flou du sous-ensemble flou symbolique


associé au potentiel contour d’un pixel de l’image. Ce sous-ensemble flou est le résultat de
modifications linguistiques élémentaires de différents sous-ensembles flous symboliques.
Les différents univers de discours utilisés dans le traitement sont les suivants:

❏ L(∆Z_H) = {petite}: ensemble de symboles associé à une différence de niveaux


dans une zone homogène.

❏ L(∆Z_T) = {grande}: ensemble de symboles associé à une différence de


niveaux dans une zone de transition.

❏ L(Z_H) = {homogène}: ensemble de symboles associé à une zone homogène.

❏ L(Z_T) = {transition}: ensemble de symboles associé à une zone de transition.

❏ L(PC_M) = {PCP_Ri}: ensemble de symboles associé au potentiel contour


pour le masque considéré.

❏ L(PC) = {PCP}: ensemble de symboles associé au potentiel contour pour le


pixel traité.

Les différentes étapes du traitement sont les suivantes:

❏ T1 à Tn: X ➙ P(X)
Traitement numérique sur le pixel “x” de l’image “X” consistant à définir les
différents masques utilisés ainsi que les zones de transition et les zones
homogènes.

❏ T1’ et T1’’: P(X) ➙ {δz_h} et P(X) ➙ {δz_t}


Traitement numérique entre le pixel “x” de l’image et un de ces voisins
consistant à calculer les différences de niveaux.

❏ D1: δz_h ➙ F(L(∆Z_H)) et D2: δz_t ➙ F(L(∆Z_T))


Applications définissant respectivement les descriptions floues des grandeurs
numériques de différence de niveaux dans une zone homogène et dans une zone
de transition.

❏ R 1: L1(∆Z_H) x L2(∆Z_H) x L3(∆Z_H) ➙ L4(Z_H) et


R 2: L1(∆Z_T) x L2(∆Z_T) x L3(∆Z_T) ➙ L4(Z_T)
Deux jeux de règles linguistiques caractérisés par une relation nette entre les
symboles associés aux différences de niveaux et les symboles associés aux
zones. Les deux graphes nets (Γ1 et Γ2) associés à ces jeux de règles sont
construits respectivement sur le produit cartésien des ensembles:

Page 180
ANNEXE D - Synoptique des traitements réalisés en fusion symbolique

L1(∆Z_H) x L2(∆Z_H) x L3(∆Z_H) x L4(Z_H),


L1(∆Z_T) x L2(∆Z_T) x L3(∆Z_T) x L4(Z_T).
Si F représente les parties floues d’un ensemble de symboles, T représente une
t-norme et ⊥ une t-conorme on a alors, en appliquant le principe de
combinaison-projection, pour le jeu de règle sur la zone homogène:
∀ L ∈ L1(∆Z_H), L’ ∈ L2(∆Z_H), L’’ ∈ L3(∆Z_H), L’’’ ∈ L4(Z_H),

T T µ D ( L ), µ Γ ( L, L , L , L )
′′′ ′ ″ ′ ″ ′′′
µF ( L ) = ⊥ ( L ), µ D ( L ), µ D
′ ′′
( L, L , L )  L 1 ( ∆Z_H ) ( δz_h ) L 2 ( ∆Z_H ) ( δz_h ) L 3 ( ∆Z_H ) ( δz_h )  1

et de même avec le jeu de règles sur la zone de transition (cf. ANNEXE C).

❏ R 3: L4(Z_H) x L4(Z_T) ➙ L1(PC_M)


Jeu de règles linguistiques caractérisés par une relation nette entre les symboles
associés aux zones et le potentiel contour pour ce masque. On a une relation
similaire à la précédente.

On définit alors la description floue DL(PC_M): X ➙ F(L(PC_M)) par la relation suivante:

D L ( PC_M ) ( x ) =
R 3 { R 1 ( D L 1 ( ∆Z_H ) ( x ), D L 2 ( ∆Z_H ) ( x ), D L 3 ( ∆Z_H ) ( x ) ),
R 2 ( D L 1 ( ∆Z_T ) ( x ), D L 2 ( ∆Z_T ) ( x ), D L 3 ( ∆Z_T ) ( x ) ) }

et la description floue finale DL(PC): X ➙ F(L(PC)) par la relation R 4 suivante :

D L ( PC ) ( x ) = R 4 { D L ( x ), ..., D L (x)} .
1 ( PC_M ) n ( PC_M )

On peut maintenant exprimer la relation fondamentale liant la signification et la description


flou d’un élément de l’image “X” par:

∀ L ∈ L(PC), µ M X ( L ) ( x ) = µ D (x)( L )
L ( PC )

On peut ainsi calculer directement le degré d’appartenance à un symbole final à partir des
valeurs numériques de l’entrée.

L’ensemble de ces traitements sera symbolisé par la suite par le schéma suivant:

x L (PC)

Figure D.2: Symbole représentant l’ensemble du traitement

Page 181
ANNEXE D - Synoptique des traitements réalisés en fusion symbolique

2 - Synoptique du détecteur flou de contours couleur


Le synoptique du traitement effectué pour étendre le principe du détecteur de contours flous
monochromatiques aux cas des images couleur est présenté en figure D.3.
DL(PCP_TLS) (x)

X L (PCP_I) L (PCP_TLS)

T DL(PCP_I) (x) .
PCP_1
R2
S
L

.
PCP_2
.
PCP_TLS

x
L L (X) .
PCP_3

.
PCP_L
R1
L S (X)

Prise en
compte de la
pertinence de la
.
PCP_S

Teinte

L T (X)

.
PCP_T

Figure D.3: Synoptique du détecteur flou de contours couleur

A partir des trois plans TLS de l’image, on applique, dans un premier temps, l’opérateur
monochromatique précédent. Pour la Teinte,la prise en compte de sa pertinence variable
s’effectue avant l’application de l’algorithme monochromatique. On obtient alors trois sous-
ensembles flous de symboles (LS (X), LL (X) et LT (X)) caractérisant le potentiel contour d’un
pixel dans chaque composante T, L et S. Un jeu de règles (R 1) permet, par une combinaison à
l’aide d’opérateurs logiques, de générer un sous-ensemble flou de symboles, L (PCP_I),
caractérisant le type de potentiel contour du pixel dans un espace tridimensionnel, c’est-à-dire
si le fait que le pixel soit potentiellement un point de contours dans une, deux, ou trois
composantes. Un second jeu de règles (R 2) caractérisé par une relation floue entre les
symboles, génère par inférence un sous-ensemble flou final, L (PCP_TLS), caractérisant le
potentiel contour couleur du pixel. L’introduction de “poids” sur les règles permet de
privilégier un type de potentiel contour vis-à-vis d’un autre.

Page 182
ANNEXE D - Synoptique des traitements réalisés en fusion symbolique

3 - Synoptique de la méthode de segmentation floue en régions

Les différents univers de discours utilisés pour réaliser la segmentation floue sont définis de
la manière suivante:

❏ L(S): ensemble des symboles associés à la Saturation (univers de


discours S) caractérisant la pertinence de la Teinte.

❏ L(∆L): ensemble des symboles associés aux distances entre Luminances


(univers de discours ∆L).

❏ L(∆T): ensemble des symboles associés aux distances entre Teintes


(univers de discours ∆T).

❏ M: ensemble des symboles représentant les diverses méthodes de


coopération.

❏ Q: ensemble des symboles qualifiant l’homogénéité entre 2 pixels.

Le synoptique du traitement effectué est le suivant:


∆T L (∆T)
δt
. DL(∆T) (δt) .
petite

.
moyenne

.
grande

∆L L (∆L)
X
δl DL(∆L) (δl)
.
petite Q
. .
moyenne

DM (s1, s2) .
grande

G
T
H L
H S
R2 .
homogène

G
G
H S L (S1) M
.
gris
.
hétérogène

.
s1 DL(S) (s1)
.
pastel faible
.
LUM

.
pastel fort
.
LUM_Tei

.
pure

R1 .
LUM_TEI

L (S2)
.
gris
.
Lum_TEI

s2
. DL(S) (s2)
.
pastel faible .
TEI

.
pastel fort
.
SEP

.
pure

DQ (s1, s2, δt, δl)

Figure D.4: Synoptique de la segmentation floue en régions

Page 183
ANNEXE D - Synoptique des traitements réalisés en fusion symbolique

Le jeu de règles R 1, caractérisé par une relation floue entre les symboles, permet à partir de
deux sous-ensembles flous caractérisant la Saturation de générer, par inférence, un sous-
ensemble flou de symboles caractérisant une méthode de coopération entre les composantes
Teinte et Luminance. En suivant le même principe qu’au § 1, on peut déterminer directement la
description floue des méthodes de coopération en fonction des valeurs numériques de la
Saturation, soit DM (s1, s2).

Le jeu de règles R 2, également caractérisé par une relation floue entre les symboles, permet
d’inférer un sous-ensemble flou caractérisant l’homogénéité entre deux pixels. Cette
information floue va nous servir à déterminer si les deux pixels doivent être agrégés ou non. On
peut également déterminer la relation directe entre les diverses informations numériques et le
sous-ensemble flou de symboles final Q.

Page 184
ANNEXE E

Images couleur

Page 185
ANNEXE E - Images couleur

Page 187
ANNEXE E - Images couleur

Image “Agriculture” ⊕ Image “Claire” 

Image “Maison”  Image “Maison filtrée” ⊕

Image “Métal” ⊕ Image “Métal filtrée” ⊕

⊕ disponibilité: LAMII / CESALP


 disponibilité: Center for Image Processing Research (http://ipl.rpi.edu/

Page 188
ANNEXE E - Images couleur

Page 189
ANNEXE E - Images couleur

Image “Canarie” ⊕ Image “Canarie filtrée”⊕

Image “Cellules” ⊕ Image “Cellules filtrée” ⊕

Image “Acier” ⊕ Image “Acier filtrée” ⊕

Page 190
BIBLIOGRAPHIE

Page 189
BIBLIOGRAPHIE

[ALS 93a]
W. ALSHATTI, P. LAMBERT, “Using eigenvectors of a vector field for deriving a
second directional derivative operator for color images’’, 5Th International conference
CAIP’93 - Budapest Sept. 1993.

[ALS 93b]
W. ALSHATTI, P. LAMBERT, “Un opérateur optimal pour la détection de contours
dans des images couleur”, 14ième GRETSI, Juan-les-Pins (France), 1993, pp. 679-682.
[ALS 94]
W. ALSHATTI, “Approches vectorielles du filtrage et de la détection de contours dans
des images multi-spectrales”, Thése Université de Savoie, 1994.

[BAL 82]
D.H. BALLARD, C.M. BROWN, “Computer vision”, Prentice Hall, 1982, pp 31-35.

[BEV 89]
J.R. BEVERIDGE, J. GRIFFITH, R.R. KOHLER, A.R. HANSON AND
E.M. RISEMAN, “Segmenting Images Using Localized Histograms and Region
Merging”, International Journal of Computer Vision, 2, 1989, pp. 311-347.

[BEN 94]
BENOIT E., G. MAURIS, L. FOULLOY, "Fuzzy sensor aggregation: application to
comfort measurement", Proc. of Int. Conf. IPMU, 4-8 July, Paris, France, 1994,
pp 721-726.

[BEZ 81]
J.C. BEZDECK, “Pattern recognition with fuzzy objective function algortims”, Plenum
Press Ed., New-York, 1981.

[BEZ 92]
J.C. BEZDEK, S.K. PAL, “Fuzzy models for pattern recognition”, IEEE Press, 1992.

[BLO 93]
I. BLOCH, H. MAÎTRE, “Constructing a fuzzy mathematical morphology: Alternative
ways“, Second International Conference on Fuzzy Systems, FUZZ-IEEE93, San
Diego, March, 1993, pp.1303-1308.

[BOM 92]
V. BOMBARDIER, E. LEVRAT, “Détection de contours par classification floue”, Acte
des 2emes journees nationales sur les applications des ensembles flous, Nimes,1992
[BON 91]
P. BONNIN, “Méthode systématique de conception et de réalisation d’applications en
vision par ordinateur“, Thése Université de Paris VII, 1991.

Page 191
BIBLIOGRAPHIE

[BOU 93]
B. BOUCHON-MEUNIER, “Que sais-je? La logique floue”, Presses Universitaires
de France, 1993.

[CAR 93a]
T. CARRON, P. LAMBERT, P. MOREL, “Analyse d’une segmentation en régions
utilisant conjoitement les informations de chrominance et d’intensité”, Quatorzième
Colloque GRETSI, Juan-Les-Pins (France),1993, pp. 719-722.

[CAR 93b]
T.CARRON, P. LAMBERT, “Recherche de la trajectoire d’un grimpeur par utilisation
d’une technique de segmentation d’image couleur”, Rapport Interne LAMII 93-6,
1993.

[CAR 94]
T. CARRON, P. LAMBERT, “Color edge detector using jointly Hue, Saturation and
Intensity”, ICIP 94, Austin, USA, 1994, pp. 977-981.

[CAR 95a]
T. CARRON, P. LAMBERT, “Fuzzy color edge extraction by inference rules,
Quantitative study and evaluation of performances”, ICIP 95, Washington, USA, 1995,
pp. -.

[CAR 95b]
T. CARRON, P. LAMBERT, S. GALICHET, “ A colour region growing segmentation
with fuzzy aggregation“, EUFIT’95, Aachen, Germany, 1995, pp. 1366-1372 .

[CEL 86a]
M. CELENK, S.H. SMITH, “Gross segmentation of color images of natural scenes for
computer vision systems”, SPIE Vol. 635 Applications of Artificial Inteligence III,
1986, pp. 333-344.

[CEL 86b]
M. CELENK, S.H. SMITH, “Color Image Segmentation by Clustering and Parametric-
Histogramming Technique”, Proc. Eight int. Conf. Pattern Recognition, 1986,
pp. 883-886.

[CEL 88]
M. CELENK, “A Recursive Clustering Technique for Color Picture Segmentation” ,
IEEE , 1988, pp. 437-444.

[CHA 84]
J.M. CHASSERY, C. GARBAY, “An iterative segmentation method based on a
contextual color and shape criterion”, IEEE Transactions on Pattern Analysis and
Machine Intelligence, Vol. PAMI-6, NO. 6,1984, pp. 794-800.

[CHA 91]
M.CHAPRON, P COQUEREZ, ‘‘La segmentation d’images couleur à partir d’un
nouveau détecteur de contours’’, 13e colloque GRETSI, Juan-les-Pins (France), Sept
1991, pp 1089-1093.

Page 192
BIBLIOGRAPHIE

[CHA 93]
M.M. CHANG, A.J. PATTI, M.I. SEZAN, A.M. TEKALP, “Segmentation of color
images using an adaptative bayesian approche”, Proc. of the IEEE 8th Workshop on
Image and Multidimensional Signal Processing, Cannes (France), 1993, pp. 186-187.

[CHE 95]
K.F. CHEUNG, W.K. CHAN, “Fuzzy One-Mean Algorithm on Edge Detection“, Fird
International Conference on Fuzzy Systems, FUZZ-IEEE95, San Diego, 1995, pp.
2039-2044.

[CIE 86]
“CIE Colorimetry, second edition”, Official recommendations of the International
Commission on Illumination, Publication 15.2, 1986

[COC 95]
Ourage collectif coordonné par J.P. COCQUEREZ & S. PHILIPP, “Analyse
d’images: filtragte et segmentation”, Ed. Masson, 1995.

[COU 89]
V. COUTANCE, T.BARON ET M. BRIOT, ‘‘Segmentation d’images couleur en
robotique’’, RFIA, Nov. 1989, pp. 1115-1122.

[COU 91]
V. COUTANCE, “La Couleur en vision par ordinateur. Application à la robotique”,
Thèse Université Toulouse 3, 1991.

[CUM 91]
A. CUMANI, ‘‘Edge detection in multispectral images”, Graphical Models and Image
Processing, vol. 53, No. 1, Jan. 1991, pp. 40-51.

[DAI 89]
M. DAILY, “Color image segmentation using markov random field”, In Proc. IEEE
CVPR, 1989,pp. 304-312.

[DER 87]
R. DERICHE, ‘‘Détection optimale de contours avec une mise en oeuvre récursive,’’
GRETSI-NICE, Juin 1987, pp. 483-486.

[DER 90]
R. DERICHE, ‘‘Fast algorithms for low-level vision’’, IEEE PAMI, vol. 12, No. 1, Jan
1990.

[DUN 74]
J.C. DUNN, “A fuzzy relative of the Isodata process and its use in detecting compact
well-separated clusters”, Journal of Cybern., vol 3, pp. 32-57, 1974.

[FAE 84]
W. FAEDO, “Color vision: an initial study”, PhD Electrical Engineering, University of
Rhode Island, 1984.

[FAU 76]
O. D. FAUGERAS, «Digital color image processing and psychophysics within the
framework of a human visual model», PH. D. Dissertation, University of Utha, 1976.

Page 193
BIBLIOGRAPHIE

[FAU 79]
O. D. FAUGERAS, “Application des modèles de vision au traitement numérique des
images», Thèse de Doctorat d’Etat ès Sciences Mathématiques, Université de
Paris VI, 1979.

[FOU 94]
L. FOULLOY, “Typologie des contrôleurs flous”, OFTA-Logique Floue, pp. 80-107,
Ed. Masson, 1994.

[GAR 79]
C. GARBAY, “Modélisation de la couleur dans le cadre de l’analyse d’images et de son
application à la cytologie automatique”, Thèse Institut National Polytechnique de
Grenoble, 1979.

[GER 84]
R. GERSHON, “Survey on color: Aspect of perception and computation”, Technical
Report, Dept. of Comp. Sc., University of Toronto, 1984, RGBV-TR-84-4.

[GER 87]
R. GERSHON, “The use of color in computational vision”, Technical Report, Dept. of
Comp. Sc., University of Toronto, 1987, RBCV-TR-87-15.

[HON 74]
S.L. HOROWITZ, T. PAVLIDIS, “Picture segmentation by a directed split-and-merge
procedure”, In Proc. of the Second International Join Conference on Pattern Recognition,
1974, pp. 424-433.

[HUN 85]
T.L. HUNTSBERGER, M.F. DESCALZI, “Color edge detection”, Pattern
recognition Letters, 3, 1985, pp. 205-209.

[KAR 95]
R.KARA-FALAH, «Segmentation d’images: coopération, fusion, évaluation», Thèse
de l’Université de Savoie, 1995.

[KAU 73]
A. KAUFEMAN, “Introduction à la théorie des sous-ensembles flous”, Tome I, Edition
Masson, 1973.

[KEN 77]
J. KENDER, “Saturation, hue, and normalized color: calculation digitization effects and
use”, Master’s Thesis, Dep. of Comp. Sc., Carnegie-Mellon University, 1976.

[KRI 92]
R. KRISHNAPURAM, J.K. KELLER, “Fuzzy set theoretic approach to computer
vision: An overview“, First International Conference on Fuzzy Systems,
FUZZ-IEEE92, San Diego, March 8-12, 1992, pp.135-142.

[LAM 91]
P. LAMBERT, H. ROTIVAL, T. CARRON, Ph BOLON, “ Segmentation d’image
couleur par coopération Teinte Intensité”, 13iéme colloque GRETSI, Juan-les-Pins
(France), 1991, pp. 1157-1160.

Page 194
BIBLIOGRAPHIE

[LEE 91]
H. C. LEE, D. COK, ‘‘Detection boundaries in a vector field’’, IEEE Trans. Sig. Proc.,
vol. 39, No 5, May 1991

[LEM 94]
B.LEMARQUIS, A.BUBEL. V. BOMBARDIER, E. LEVRAT& J. BREMONT,
“Intégration de connaissances linguistiques pour un opérateur de détection de contours
par règles floues”, 4éme journees nationales sur les applications des ensembles
flous,Lille, France,1994, pp. 1993-201

[LEV 89]
E. LEVRAT, “Application de la théorie des ensembles flous en amélioration et
segmentation d’images monochromes”, Thèse Univesrité de Nancy I, 1989.

[LIA 87]
L. LIANG, “Contribution à la segmentation chromatique des images. Applications à
l’identification d’objets colorés”, Thèse Institut National Polytechnique de Toulouse,
1987.
[LIM 90]
Y.W. LIM, S.U. LEE, “On the color image segmentation algorithm based on the
thresholding and the fuzzy c-Means techniques”, Pattern Recognition, Vol. 23, No 9,
1990, pp. 935-952.

[LUO 91]
Q.T. LUONG, “La couleur en vision par ordinateur: une revue”, Traitement du Signal,
Vol 8, NO 1, 1991, pp. 3-34.
[MAI 90]
H. MAITRE, “ La segmentation des images”, Rap. Int. Departement Images Telecom
Paris , 1990, 90 IMA 003.

[MIY 90]
T. MIYAWAKI, S. ISHIBASHI, F. KISHINO, “A region segmentation methode using
color information”, Actes 1er coll. sur les chaînes professionnelles de l’image.
IMAGECOM 90, Bordeaux (France), Nov 1990.

[MOG 94]
A. MOGHADDAMZADEH, N. BOUBAKIS, “A fuzzy technique for image
segmentation of color images” , FUZZ-IEEE 94, Orlando, USA, 1994, pp 83-88.

[MON 87]
O. MONGA, B. WROBEL, Segmentation d’images: vers une méthodologie”,
Traitement du Signal, vol. 4, no 3, 1987, pp. 169-193.

[NEV 77]
R. NEVATIA, ‘‘A color edge detector and its use in scene segmentation’’, IEEE Trans.
Syst., Man,Cybern., vol. SMC-7, 1977, pp. 820-826.

[NOV 87]
C. L. NOVAK, S. A. SHAFER, ‘‘Color edge detection’, Proc. DARPA Image
Understanding Workshop, Los Angeles (USA). Los Altos, CA: Morgan Kaufmann
Publishers, Inc., 1987, pp. 35-37.

Page 195
BIBLIOGRAPHIE

[OFT 94]
Observatoire Francais des Techniques Avancées, “ARAGO 14: Logique Floue”, Ed.
Masson, 1994.

[OHL 75]
R. OHLANDER, “Analysis of natural scenes”, Departement of C.S., Carnergie-Mellon
University, Ph. D. Thesis, 1975.

[OHL 78]
R. OHLANDER, K. PRICE, D. R. REDDY, “Picture segmentation using a recursive
region segmentation”, Computer Graphics and Image Processing 8, 1978,
pp. 313-333.

[OHT 80]
Y. OHTA, T.KANADE, T. SAKAI, “Color information for region segmentation”,
Computer Graphic and Image Processing 13, 1980, pp. 222-241.

[PAL 92]
S.K. PAL, “Fuzzy sets in image processing and recognition“, First International
Conference on Fuzzy Systems, FUZZ-IEEE92, San Diego, March 8-12, 1992,
pp. 119-126.

[PIE 86]
N. PIETAKEN, “Edge information in color images based on histograms of differences”,
IEEE Int. Conf. Pattern Recognition, Paris, 1986, pp. 594- 596.

[PRA 78]
W.K. PRATT, “Digital image processing”, John Wiley & Sons, 1978.

[ROS 92]
A. ROSENFELD, “Fuzzy geometry: An overview“, First International Conference
on Fuzzy Systems, FUZZ-IEEE92, San Diego, March 8-12, 1992, pp.135-142.

[ROT 90]
H.ROTIVAL, “Utilisation de la couleur en imagerie: Application à la segmentation”,
Rapport Interne LAMII, 1990.

[RUS 94a]
F. RUSSO, G. RAMPONI, “Combined FIRE filters for image enhancement” ,
FUZZ-IEEE 94, Orlando, USA, 1994, pp 260-264.

[RUS 94b]
F. RUSSO, G. RAMPONI, “Introducing the Fuzzy Median Filter”, Signal Processing
VII: Theories and Applications, pp. 963-966, 1994.

[RUS 94c]
F. RUSSO, G. RAMPONI, “Edge extraction using FIRE operators” , FUZZ-IEEE 94,
Orlando, USA, 1994, pp 249-253.

Page 196
BIBLIOGRAPHIE

[SAG 89]
D. SAGE, “Poursuite d’objets par analyse d’une séquence d’image couleur”, Thése
Institut National Polytechnique de Grenoble, 1989, pp 87-105.

[SAR 81]
A. SARABI, K. AGGARWALL, “Segmentation of chromatic image”, Pattern
Recognition vol. 13, 1981, pp. 417-427.

[SCH 93]
R. SCHETTINI, “A segmentation algorithm for color images”, Pattern Recognition
Letters 14, 1993, pp 499-506.

[TAO 93]
C.W. TAO, W.E. THOMPSON, “A fuzyy If-Then approach to edge detection”,
FUZZ-IEEE 93, San-Francisco, USA, 1993, pp. 1356-1360.

[TOM 86]
S. TOMINAGA, “Color image segmentation using three perceptual attributes”, In proc.
CVPR, 1986, pp. 628-630.

[VIN 91]
L. VINET, “Segmentation et mise en correspondance de régions de paires d’images
stéréoscopiques”, Thése Université de Paris IX Dauphine, 1991.

[WIN 82]
M.P. WINDHAM, “Cluster validity for the Fuzzy c-Means clustering algorithm”, IEEE
Trans. Pattern Anal. Machine Intell., vol. PAMI-4, no. 4, 1982, pp. 357-363.

[WIT 84]
A.P. WITKIN, “Scale space filtering: a new approach to multi-scale description”,
Image Understanding, S. Ullman and W. Richards, Eds, pp.79-95. Ablex Publishing,
1984.

[ZAD 65]
L.A. ZADEH, “ Fuzzy sets”, Inform, Control, Vol 8, pp.338-353, 1965

[ZAD 71]
L. ZADEH, “Quantitative fuzzy semantics”, Information Sciences, No 3, pp.159-176,
1971.

[ZEN 86]
S. Di ZENZO, ‘‘A note on the gradient of multi-image,’’ Computer Vision, Graphics,
and Image Processing, vol. 33, pp. 116-125, 1986.

[ZUC-76]
S. W. ZUCKER, “Survey, Region Growing: Chilhood and Adolescence”, Computer
Graphics and Image Processing, 5, 1976, pp. 382-399.

Page 197
BIBLIOGRAPHIE

Page 198

Vous aimerez peut-être aussi