Cours de Teledetection - Ist

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 63

COURS DE TELEDETECTION

Mai 2021

Touobèkourè Stanislas Aimé Désiré MEDA


Ingénieur géologue/ Géophysicien
meda.stanislas@yahoo.fr

1
Table des matières

INTRODUCTION ....................................................................................................................................... 5

OBJECTIFS DU COURS .............................................................................................................................. 6

I. FONDEMENTS DE LA TELEDETECTION.................................................................................................. 7

I.1. Rayonnement électromagnétique ................................................................................................ 7

I.2. Spectre électromagnétique ........................................................................................................... 8

I.3. Processus de télédétection ........................................................................................................... 9

I.4. Les interactions ........................................................................................................................... 11

I.5. Réflectance d’un corps ................................................................................................................ 12

I.6.Caractéristiques des images ......................................................................................................... 16

II. CAPTEURS .......................................................................................................................................... 17

II.1. Les capteurs au sol et les capteurs aéroportés .......................................................................... 17

II.2. Capteurs en orbite ...................................................................................................................... 17

II.2. Résolution spatiale ..................................................................................................................... 19

II.3. Résolution spectrale ................................................................................................................... 20

II.4. Résolution radiométrique .......................................................................................................... 20

II.5. Résolution temporelle ................................................................................................................ 21

III. IMAGERIE MULTISPECTRALE ............................................................................................................ 22

III.1. Landsat ...................................................................................................................................... 22

III.1.1. Landsat première série ....................................................................................................... 22

III.1.2. Landsat 2ème série............................................................................................................. 23

III.1.3. Landsat 3ème série............................................................................................................. 24

III.1.4. Landsat-8 / LDCM ............................................................................................................... 25

III.2. SPOT .......................................................................................................................................... 26

III.2.1. 1re génération : SPOT 1, 2, 3 ............................................................................................... 27

2
III.2.2. 2ème génération SPOT-4 ...................................................................................................... 27

III.2.3. 3ème génération SPOT-5 ...................................................................................................... 27

IV. TRANSFORMATIONS MULTISPECTRALES ......................................................................................... 29

IV.1. Les Indices ................................................................................................................................. 29

IV.1.1. Le principe .......................................................................................................................... 30

IV.2. Théorie des couleurs (colorimétrie) .......................................................................................... 32

IV.2.1. Rappels théoriques............................................................................................................. 32

IV.2.2. Le codage RGB .................................................................................................................... 34

IV.2.3. Application de la colorimétrie ................................................................................................ 34

Exemple ......................................................................................................................................... 36

V. TRAITEMENTS D’IMAGES .................................................................................................................. 43

V.1. Prétraitement: corrections ........................................................................................................ 43

V.1.1. Corrections géométriques ................................................................................................... 43

V.1.2. Les corrections radiométriques .............................................................................................. 44

V.1.3. Corrections atmosphériques ................................................................................................... 44

V.2. Rehaussements d’images ........................................................................................................... 45

V.2.1. Les rehaussements radiométriques. ................................................................................... 45

V.2.2. Les rehaussements géométriques ...................................................................................... 46

V.2.3. Les transformations d'images ................................................................................................ 49

V.3. Classification d’images ............................................................................................................... 50

V.3.1. Classification supervisée ..................................................................................................... 50

V.3.2. Classification non supervisée .............................................................................................. 50

V.4. Éléments d'interprétation visuelle ............................................................................................. 51

VI. L’IMAGERIE HYPERSPECTRALE APPLIQUEE A LA GEOLOGIE ............................................................ 52

VI.1. Les capteurs hyperspectraux .................................................................................................... 52

3
VI.2. Signatures spectrales des principaux éléments ........................................................................ 54

VI.2.1. Signature spectrale des minéraux: ..................................................................................... 54

VI.2.2. Signature spectrale des roches .......................................................................................... 55

VI.2.3. Signature spectrale des sols ............................................................................................... 55

VI.3. Analyse du signal hyperspectral ................................................................................................ 56

VI.3.1. Analyses statistiques .......................................................................................................... 57

VI.3.2. Utilisation d’algorithmes de correspondance .................................................................... 57

VII. APPLICATIONS DE LA TELEDETECTION ............................................................................................ 59

VII.1. La défense ................................................................................................................................ 59

VII.2. L’environnement ...................................................................................................................... 59

VII.2.1. Domaine atmosphérique ...................................................................................................... 59

VII.2.2. Hydrologie ............................................................................................................................. 59

VII.3. Agriculture ................................................................................................................................ 60

VII.4. Géologie et géomorphologie ................................................................................................... 60

VII.4.1. La géomorphologie ........................................................................................................... 60

VII.4.2. La géologie ........................................................................................................................ 61

BIBLIOGAPHIE ........................................................................................................................................ 63

LIENS INTERNET ..................................................................................................................................... 63

4
INTRODUCTION
La télédétection (remote sensing, en anglais) est la technique qui, par
l'acquisition d'images, permet d'obtenir de l'information sur la surface de la terre
sans contact direct avec celle-ci. L'acquisition d'information à distance implique
l'existence d'un flux d'informations entre l'objet observé et le capteur. La
télédétection englobe tout le processus qui consiste à capter et à enregistrer
l'énergie d'un rayonnement électromagnétique émis ou réfléchi, à traiter et à
analyser l'information.
Les systèmes de télédétection, en particulier ceux qui sont situés sur des
satellites offrent une vision répétitive et synoptique de la terre. Les données
multi temporelles permettent la détection des changements. Ceci permet le suivi
et l'analyse de l’impact des activités humaines sur l’environnement.
La télédétection intervient également dans l'exploration des ressources non
renouvelables (minéraux, pétrole, gaz naturel), la cartographie, l’agriculture
etc… D’où son intérêt sans cesse croissant.

5
OBJECTIFS DU COURS

Le présent cours s’articule autour des objectifs suivants :

 Apprécier la place de la télédétection dans notre monde moderne.

 Comprendre les différents processus physiques mis en jeux, les lois qui les
régissent et le comportement spectral des objets.

 Comprendre les différentes sources de données disponibles pour


l'imagerie.

 Acquérir des compétences et des aptitudes pour générer des produits et


des services de télédétection.

 Etre en mesure d'appliquer la télédétection dans différents domaines


dont la géologie, l’hydrographie, l’environnement…

6
I. FONDEMENTS DE LA TELEDETECTION

I.1. Rayonnement électromagnétique


Le rayonnement électromagnétique est la propagation d’un champ électrique et
d’un champ magnétique orthogonaux entre eux et orthogonaux à la direction de
propagation. Il s’agit d’une onde dont la vitesse de propagation est C=3.108m/s.

Les champs électrique et magnétique peuvent être représentés par des


fonctions sinusoïdales.

En notant E l’énergie électromagnétique, la longueur d’onde et C la vitesse de


la lumière, on a les relations suivantes :

E mC2 ; C

La longueur d’onde et la fréquence sont deux notions dont la compréhension est


indispensable à la compréhension de la télédétection.

La longueur d'onde équivaut à la longueur d'un cycle d'une onde, ce qui


correspond à la distance entre deux crêtes successives d'une onde. Elle est
mesurée en mètres ou en l'un de ces sous-multiples tels que le nanomètre (nm,
10-9m) ; micromètre (μm, 10-6m) ou centimètre (cm, 10-2m).

La fréquence correspond au nombre d'oscillations par unité de temps. Elle est


mesurée en Hertz (Hz) correspondant au nombre d’oscillations par seconde ou
en multiples de Hertz.

NB : Tout corps de température supérieure à 0°K émet un rayonnement


électromagnétique.

7
I.2. Spectre électromagnétique
Le spectre électromagnétique s'étend des courtes longueurs d'onde (rayons
gamma et rayons X) aux grandes longueurs d'onde (micro-ondes et ondes radio).

On note que les domaines du spectre ont des utilisations spécifiques. Par
exemple les micro-ondes sont plus utilisées dans la télécommunication et
les rayons X dans l’imagerie médicale.

8
I.3. Processus de télédétection
Dans la plupart des cas, la télédétection implique une interaction entre l'énergie
incidente et les cibles. Le processus de la télédétection au moyen de systèmes
imageurs comporte les sept étapes ci-dessous :

1. Source d'énergie ou d'illumination (A) : à l'origine de tout processus de


télédétection se trouve nécessairement une source d'énergie pour illuminer la
cible (à moins que la cible n’émette une énergie propre à elle).

2. Rayonnement et atmosphère (B) : durant son parcours entre la source


d'énergie et la cible, le rayonnement interagit avec l'atmosphère. Une seconde
interaction se produit lors du trajet entre la cible et le capteur.

3. Interaction avec la cible (C) : une fois parvenue à la cible, l'énergie interagit
avec la surface de celle-ci. La nature de cette interaction dépend des
caractéristiques du rayonnement et des propriétés de la surface.

4. Enregistrement de l'énergie par le capteur (D) : Une fois l'énergie diffusée ou


émise par la cible, elle doit être captée à distance (par un capteur qui n'est pas
en contact avec la cible) pour être enfin enregistrée.

5. Transmission, réception et traitement (E) : L'énergie enregistrée par le


capteur est transmise, souvent par des moyens électroniques, à une station de
réception où l'information est transformée en images (numériques ou
photographiques).
9
6. Interprétation et analyse (F) : Une interprétation visuelle et/ou numérique de
l'image traitée est ensuite nécessaire pour extraire l'information que l'on désire
obtenir sur la cible.

7. Application (G) : La dernière étape du processus consiste à utiliser


l'information extraite de l'image pour mieux comprendre la cible, pour nous en
faire découvrir de nouveaux aspects ou pour aider à résoudre un problème
particulier.

10
I.4. Les interactions
Les principales propriétés d’un corps soumis à un rayonnement
électromagnétique incident sont : la réflexivité, l’absorption, la transmissivité et
la diffusion.

L'absorption (α) se produit lorsque l'énergie du rayonnement est absorbée par


la cible. La transmission (τ) lorsque l'énergie du rayonnement passe à travers la
cible. La réflexion (ρ) lorsque la cible redirige l'énergie du rayonnement. En
télédétection, on s’intéresse au rayonnement réfléchi par une cible.

La réflexion peut être spéculaire ou diffuse. La réflexion est spéculaire lorsque


toute l’énergie est redirigée dans une seule direction. C’est ce qui se produit
par une surface lisse comme un miroir. Lorsque l’énergie est redirigée dans
toutes les directions, on parle de réflexion diffuse.

11
Les particules contenues dans l’atmosphère constituent des cibles. En fonction
de la longueur d’onde incidente, de la taille des particules et de l’épaisseur de
l’atmosphère que constituent ces particules, on distingue trois types de
diffusion : la diffusion de Mie, la diffusion de Rayleigh et la diffusion non
sélective. La diffusion de Mie se produit lorsque les particules sont pratiquement
de même dimension que la longueur d’onde incidente. La diffusion de Rayleigh
se produit lorsque la taille des particules est inférieure à la longueur d'onde du
rayonnement. Il y’a diffusion non-sélective lorsque les particules sont de
dimensions supérieures à la longueur d'onde du rayonnement.
Ainsi, la réaction d’un corps soumit à un rayonnement électromagnétique
incident dépend essentiellement des propriétés de ce corps et de la longueur
d’onde du rayonnement

I.5. Réflectance d’un corps


La réflectance se définit comme le rapport entre l'énergie réfléchie et l'énergie
incidente sur une cible (Energie Réfléchie / Energie Incidente). Ainsi, une
réflectance de 20% indique que la surface en question réfléchit 20% dans
l'atmosphère et en absorbe 80%.

12
En mesurant l'énergie réfléchie ou émise par la cible sur une variété de longueurs
d'onde, on peut construire la signature spectrale de cette cible.
Le graphique ci-dessus montre que l’on a des réflectances très différentes selon
la composition de la cible et la longueur d'onde du rayonnement.
En comparant les signatures spectrales de différents objets, on peut les
distinguer les uns des autres ; chose qui est difficile sur une seule longueur
d’onde.

Par exemple, l'eau et la végétation peuvent avoir une signature spectrale


similaire aux longueurs d'onde visibles, mais sont presque toujours
différenciables dans l'infrarouge. Les signatures spectrales peuvent être très
variables pour la même sorte de cible et peuvent aussi varier dans le temps et
dans l'espace. Pour interpréter correctement l'interaction du rayonnement
électromagnétique avec la surface, il est important de savoir où regarder dans le
spectre et de comprendre les facteurs qui influencent la signature spectrale de
la cible.

Compte tenu de la présence des différentes molécules dans l’atmosphère, les


zones du spectre dans lesquelles des mesures sont prises en télédétection
spatiale sont: l’ultraviolet, le visible, l’infrarouge proche, l’infrarouge thermique,
les hyperfréquences. L’atmosphère est transparente aux radiations de ces
différentes parties du spectre. Ces zones portent le nom de fenêtres
atmosphériques.
Les plus petites longueurs d'onde utilisées pour la télédétection se situent dans
l'ultraviolet. Ce rayonnement se situe au-delà du violet de la partie du spectre
visible.

13
Certains matériaux de la surface terrestre, des roches et minéraux, entrent en
fluorescence ou émettent de la lumière visible quand ils sont illuminés par un
rayonnement ultraviolet.

La lumière que nos yeux peuvent déceler se trouve dans le "spectre visible". Le
spectre visible représente une petite partie de l'ensemble du spectre. Une
grande partie du rayonnement électromagnétique qui nous entoure est invisible
à l'œil nu, mais il peut cependant être capté par d'autres dispositifs de
télédétection. Les longueurs d'onde visibles s'étendent de 0,4 à 0,7 µm. La
couleur qui possède la plus grande longueur d'onde est le rouge, alors que le
violet a la plus courte.

 Violet : 0.4 - 0.446 μm


 Bleu : 0.446 - 0.500 μm
 Vert : 0.500 - 0.578 μm
 Jaune : 0.578 - 0.592 μm
 Orange : 0.592 - 0.620 μm
 Rouge : 0.620 - 0.7 μm

14
Le bleu, le vert et le rouge sont les couleurs
(ou les longueurs d'onde) primaires du
spectre visible. Une couleur primaire ne peut
être créée par deux autres couleurs, mais
toutes les autres couleurs peuvent être
créées en combinant les couleurs primaires.

L'infrarouge (IR) s'étend approximativement


de 0,7 à 100 µm. Ceci correspond à un
intervalle environ 100 fois plus large que
le spectre visible. L'infrarouge se divise
en deux catégories: IR réfléchi et IR
émis ou thermique. Le rayonnement dans la
région de l'infrarouge réfléchi est utilisé en
télédétection de la même façon que le
rayonnement visible. L'infrarouge réfléchi
s'étend approximativement de 0,7 à 3 µm.
L'infrarouge thermique est très différent du
spectre visible et de l'infrarouge réfléchi.
Cette énergie est essentiellement le
rayonnement qui est émis sous forme de
chaleur par la surface de la Terre et s'étend
approximativement de 3 à 100 µm.

15
I.6.Caractéristiques des images
L’énergie électromagnétique peut être enregistrée de façon photographique ou
de façon numérique ; ce qui engendre une image. L’image est dite numérique
lorsqu’elle est subdivisée en très petits « morceaux » de même taille appelés
pixels auxquels on attribue une valeur numérique. Chaque valeur numérique
représente le niveau de luminosité du pixel considéré. La valeur minimale est
attribuée au noir et la maximale au blanc. Ainsi, l’image est une combinaison de
teintes pouvant varier du noir au blanc. On parle de « teinte de gris ».

On remarque la possibilité de pouvoir effectuer des opérations mathématiques


sur les images numériques.

Les images sont codées dans le système binaire. Le nombre maximum de niveaux
d'intensité disponibles dépend du nombre de bits utilisés pour représenter
l'intensité enregistrée. Par exemple, un capteur utilisant 8 bits pour enregistrer
les données aura 28 = 256 niveaux d'intensité disponibles car il aura 256 valeurs
numériques disponibles allant de 0 à 255.

16
II. CAPTEURS
Les capteurs enregistrent l'énergie réfléchie par la surface terrestre pour une
surface donnée appelée pixel. Ils peuvent être passifs ou actifs. Un capteur est
dit passif lorsqu’il enregistre l’énergie produite par une source extérieure. Il est
dit actif lorsqu’il produit une source d’énergie électromagnétique et enregistre
l’énergie réfléchie sur la cible. Les capteurs peuvent être situés près de la surface
terrestre, dans un avion, ou même à l'extérieur de l'atmosphère terrestre, à
savoir sur un véhicule spatial ou un satellite.

II.1. Les capteurs au sol et les capteurs aéroportés


Ces capteurs sont utilisés pour enregistrer des informations détaillées. Ces
informations peuvent être par la suite comparées aux informations recueillies
par avion ou à partir d'un satellite. Ceci permet de mieux caractériser les cibles
observées par d'autres capteurs de manière à améliorer la compréhension de
l'information.

II.2. Capteurs en orbite


Les satellites sont des objets qui sont en orbite autour d'un autre objet, dans ce
cas-ci, la Terre. Les plates-formes spatiales permettent une couverture répétitive
et continue de la surface de la Terre. Certains satellites ont une altitude très
élevée et regardent toujours la même région de la surface de la Terre, ils ont une
orbite géostationnaire. Ces satellites sont une altitude d'environ 36 000
17
kilomètres et se déplacent à une vitesse qui correspond à celle de la Terre,
donnant ainsi l'impression d’être stationnaires.
D'autres plates-formes spatiales suivent une orbite allant pratiquement du
nord au sud ou vice versa. Cette configuration, combinée à la rotation de la
Terre (ouest-est), fait qu'au cours d'une certaine période, les satellites ont
observé la presque totalité de la surface de la Terre. Ce type d'orbite est appelé
orbite quasi polaire à cause de l'inclinaison de l'orbite par rapport à une ligne
passant par les pôles Nord et Sud de la Terre. La plupart des satellites sur orbite
quasi-polaires ont aussi une orbite héliosynchrone; de cette façon, ils observent
toujours chaque région du globe à la même heure locale solaire. Pour une
latitude donnée, la position du Soleil dans le ciel au moment où le satellite
survole une certaine région au cours d'une saison donnée sera donc toujours la
même.

Lorsqu'un satellite est en orbite autour de la Terre, le capteur "observe" une


certaine partie de la surface. Cette surface porte le nom de couloir-couvert ou
fauchée. Les capteurs sur plate-forme spatiale ont une fauchée dont la largeur
varie généralement entre une dizaine et une centaine de kilomètres.

18
Les données de télédétection sont caractérisées par leur résolution spatiale, leur
résolution spectrale, leur résolution radiométrique, et leur date d'acquisition.

II.2. Résolution spatiale


La résolution spatiale ou géométrique est la distance la plus petite permettant
de discriminer deux objets voisins. Cette distance correspond à la taille d'un
pixel.
Le pixel est le plus petit élément d'une image. Si un capteur a une résolution
spatiale de 20 mètres, chaque pixel représentera une superficie correspondant
à 20 m sur 20 m au sol.
Les images à résolution fine ou élevée permettent l'identification d'éléments de
plus petites dimensions. Les capteurs utilisés par les militaires par exemple, sont
conçus pour obtenir le plus de détails possible. Ils ont donc une résolution très
fine. Les satellites commerciaux ont une résolution qui varie de quelques mètres
à plusieurs kilomètres.

19
De façon générale, plus la résolution spatiale augmente, plus la superficie de la
surface visible par le capteur diminue.

II.3. Résolution spectrale


La résolution spectrale décrit la capacité d'un capteur à utiliser de petites
fenêtres de longueurs d'onde. Plus la résolution spectrale est fine, plus les
fenêtres des différents canaux du capteur sont étroites.

II.4. Résolution radiométrique


La résolution radiométrique d'un système de télédétection décrit sa capacité à
reconnaître de petites différences de variation de l'énergie électromagnétique.
Plus la résolution radiométrique d'un capteur est fine, plus le capteur est
sensible à de petites différences variation dans l'intensité de l'énergie reçue. La
gamme de longueurs d'onde à l'intérieur de laquelle un capteur est sensible se
nomme plage dynamique.

Une image peut être considérée comme une matrice. Chaque élément de la
matrice correspond à une mesure de l'énergie réfléchie pour un pixel.
Les valeurs prises par les éléments de cette matrice varient entre 0 et 2 à une
certaine puissance moins un ; c'est-à-dire [0 2𝑛 − 1]. Cet intervalle correspond
à un nombre de bits utilisés pour encoder l’image. Chaque bit représente un
exposant de la base 2.
1bit= 21 .
Le nombre maximum de niveaux d'intensité disponibles dépend du nombre de
bits utilisés pour représenter l'intensité enregistrée. Par exemple, un capteur
utilisant 8 bits pour enregistrer les données aura 28 = 256 niveaux d'intensité
disponibles. Ainsi il aura 256 valeurs numériques allant de 0 à 255. Si seulement
4 bits sont utilisés, alors seulement 24 = 16 valeurs allant de 0 à 15. La résolution
radiométrique sera donc plus faible.
Dans chaque cas la valeur numérique "0" est attribuée au noir et la valeur
numérique maximale au blanc. Les autres couleurs auront des valeurs
intermédiaires.

20
II.5. Résolution temporelle
Il s’agit du temps que prend un satellite pour effectuer un cycle orbital complet.
Cette période est généralement de quelques jours. Il faut donc quelques jours à
un tel satellite pour qu'il puisse observer de nouveau exactement la même scène
à partir du même point dans l'espace. La résolution temporelle absolue du
système de télédétection est donc égale à cette période.

21
III. IMAGERIE MULTISPECTRALE

Les capteurs multispectraux enregistrent la réflectance dans plusieurs bandes


spectrales ; le nombre des bandes dépassant rarement la dizaine. Ils sont
différents des capteurs panchromatiques qui enregistrent le signal dans une
seule bande relativement large.

Dans cette section l’accent est mis sur les satellites américains Landsat et
français SPOT.

III.1. Landsat
Landsat est le premier programme spatial d'observation de la Terre dédié à des
fins civiles. Le programme a commencé avec le lancement du premier LANDSAT
en 1972 et se poursuit encore actuellement avec Landsat 8. Ce programme a
permis de recueillir des millions de données formant ainsi une librairie
exceptionnelle des conditions sur Terre depuis presque 40 ans. Depuis janvier
2009, l’entièreté des images d’archive Landsat est accessible gratuitement via
Internet.

III.1.1. Landsat première série


La première série comporte les satellites suivants :

Landsat 1 : du 23/07/1972 au 06/01/1978

Landsat 2 : du 22/01/1975 au 05/02/1982

Landsat 3 : du 05/03/1978 au 31/03/1983

Ces premiers satellites furent identiques et leur charge utile était constituée de
deux instruments optiques, un capteur multispectral (Multi Spectral Scanner -
MSS) et une série de caméras vidéo.

Altitude: 907-915 km
inclinaison: 99,2 degrés
orbite: polaire héliosynchrone
période de révolution: 103 minutes
Résolution temporelle: 18 jours

Sur les deux premiers satellites, la série de 3 caméras vidéo prenait des images
dans le visible et dans l'infrarouge. La résolution était de 80 m pour des images
22
de 185 km sur 185 km. Sur LANDSAT 3, la résolution a été portée à 40 m, mais
les caméras ne prenaient plus des images que dans une seule bande spectrale
panchromatique (0,5 - 0,75 µm).

Ces scanners MSS enregistraient des informations dans quatre bandes spectrales
et sur une fauchée de 185 km. Comme ces instruments ont été développés après
les trois caméras RBV, ces bandes ont été numérotées de 4 à 7. Le capteur MSS
de LANDSAT 3 comportait une bande spectrale supplémentaire dans l'infrarouge
thermique.
Bande Bande spectrale Résolution
4 0,5 - 0,6 µm 79 m x 82 m
5 0,6 - 0,7 µm 79 m x 82 m
6 0,7 - 0,8 µm 79 m x 82 m
7 0,8 - 1,1 µm 79 m x 82 m
240 m x 240 m
8 10,5 - 12,4 µm (LANDSAT 3
uniquement)

III.1.2. Landsat 2ème série


Les 2 satellites suivants (LANDSAT 4 et 5) ont été équipés de 2 capteurs
multispectraux (Multi Spectral Scanner - MSS et Thematic Mapper - TM)

satellites : LANDSAT 4 (16/07/1982 – 01/08/1993)


LANDSAT 5 (01/03/1985 – opérationnel)

Altitude: 705 km
inclinaison: 98,2 degrés
orbite: polaire héliosynchrone
période de révolution: 98,9 minutes
Résolution temporelle: 16 jours

Capteurs MSS

Ces scanners étaient identiques à ceux des 2 premiers satellites Landsat. La seule
différence était que les 4 bandes spectrales ont été numérotées de 1 à 4, suite à

23
l'abandon des caméras RBV. L'acquisition de données par le capteur MSS de
Landsat 5 a été arrêtée en 1992.
Bande Bande Résolution Utilisations
spectrale
1 0,5 - 0,6 µm 79 m x 82 m Zones côtières, sédiments marins
2 0,6 - 0,7 µm 79 m x 82 m Routes et zones urbaines
3 0,7 - 0,8 µm 79 m x 82 m Etude des végétaux et cartographie des limites
terre/eau
4 0,8 - 1,1 µm 79 m x 82 m Etude des végétaux et cartographie des limites
terre/eau

Capteurs TM
Ces scanners à haute résolution possèdent 7 bandes spectrales et couvrent
toujours une zone de 185 km sur 185 km.
Bande Bande spectrale Résolution Utilisation
1 0,45 - 0,52 µm 30 m x 30 m Différenciation sol / végétaux, zones côtières
2 0,52 - 0,60 µm 30 m x 30 m Végétation
3 0,63 - 0,69 µm 30 m x 30 m Différenciation des espèces végétales
4 0,76 - 0,90 30 m x 30 m Biomasse
5 1,55 - 1,75 µm 30 m x 30 m Différenciation neige/nuage
6 10,4 - 12,5 µm 120 x 120 m Thermique
7 2,08 - 2,35 µm 30 m x 30 m Lithologie

III.1.3. Landsat 3ème série


Cette génération des satellites LANDSAT a commencé par un échec. LANDSAT 6
a été perdu juste après son lancement le 3 octobre 1993. LANDSAT 7 a été lancé
en 1999 et est équipé d'un capteur multispectral (Enhanced Thematic Mapper
Plus - ETM+).

satellites : LANDSAT 6 (03/10/1993 – 03/10/1993)


LANDSAT 7 (15/04/1999 – opérationnel)

24
Altitude: 705 km
inclinaison: 98,2 degrés
orbite: polaire héliosynchrone
période de révolution: 98,9 minutes
Résolution temporelle : 16 jours
fauchée: 185 km

Capteur ETM+

Ce scanner est une évolution des TM précédents. Il comporte maintenant une


large bande panchromatique à haute résolution.
Bande Bande spectrale Résolution Utilisation
1 0,45 - 0,515 µm (bleu) 30 m x 30 m Différenciation sol / végétaux, zones
côtières
2 0,525 - 0,605 (vert) 30 m x 30 m Végétation
3 0,63 - 0,69 µm (rouge) 30 m x 30 m Différenciation des espèces végétales
4 0,75 - 0,90 µm 30 m x 30 m Biomasse
(proche IR)
5 1,55 - 1,75 µm (SWIR) 30 m x 30 m Différenciation neige/nuage
6 10,4 - 12,5 µm (TIR) 60 m x 60 m Thermique
7 2,09 - 2,35 µm (SWIR) 30 m x 30 m Lithologie
PAN 0,50 - 0,90 µm 15 m x 15 m

III.1.4. Landsat-8 / LDCM


Le satellite Landsat-8/LDCM (Landsat Data Continuity Mission) a été lancé le 11
février 2013. Les instruments embarqués sont les suivants :
 Le scanner OLI (Operational Land Imager). Ce radiomètre multispectral
acquiert des images dans neuf bandes spectrales allant du visible au
moyen infrarouge. 7 de ces bandes spectrales étaient déjà présentes sur
l'instrument ETM+. Deux canaux supplémentaires ont été ajoutés,
destinés principalement à la correction atmosphérique (canal bleu à 440
nm) et à la détection des nuages (1380 nm)
 Le scanner TIRS (Thermal Infrared Sensor) est
un radiomètre multispectral infrarouge à deux canaux qui fournit des
données dans des longueurs d'ondes utilisées par les anciens satellites
Landsat mais non repris dans l'instrument OLI.

25
Bandes spectrales du capteur OLI
Bande spectrale Longueur d’onde Résolution
Bande 1 (aérosols) 0.433—0.453 30m
Bande 2 (bleu) 0.450—0.515 30m
Bande 3 (vert) 0.525—0.600 30m
Bande 4 (Rouge) 0.630—0.680 30m
Bande 5 (infrarouge proche) 0.845—0.885 30m
Bande 6 (infrarouge moyen 1) 1.560—1.660 30m
Bande 7 (infrarouge moyen 2) 2.100—2.300 30m
Bande 8 (panchromatique) 0.500—0.680 15m
Bande 9 1.360—1.390 30m

NB : Les aérosols sont des particules en suspension dans l'atmosphère, qui peuvent être de
plusieurs types : grains de sable ou poussières, suies issues de combustion, sulfates ou sels
marins entourés d'eau... Leur taille peut varier de 0.1 µm à quelques microns, en fonction du
type d'aérosols ou de l'humidité de l'air. Quant à leur quantité, elle est extrêmement variable,
une pluie pouvant réduire brutalement leur abondance.

Bandes spectrales du capteur TIRS

Bande spectrale Longueur d’onde Résolution


Bande 10 (infrarouge
10.30—11.30 100m
moyen)
Bande 11 (infrarouge
11.50—12.50 100m
moyen)

III.2. SPOT
Décidé en 1977 par la France, le programme SPOT est réalisé par Centre national
d’études spatiales en collaboration avec la Belgique et la Suède

Orbite : quasi-polaire, circulaire, héliosynchrone

Altitude : 832 km.

26
Période de révolution : 101 minutes

Un des grands atouts du système SPOT est sa résolution temporelle qui est de 2
à 3 jours.

III.2.1. 1re génération : SPOT 1, 2, 3


Ces capteurs ont une résolution d’images par instrument HRV (haute résolution
visible). Il y a deux instruments par satellite (HRV1 et HRV2). La résolution des
images est de 10 mètres en panchromatique (canal couvrant le domaine visible
du spectre électromagnétique : 0,50 - 0,73 µm) et de 20 mètres en multispectral.

 Bande 1 : Vert (0,50 - 0,59 µm)


 Bande 2 : Rouge (0,61 - 0,68 µm)
 Bande 3 : Proche infrarouge (0,78 - 0,89 µm)

III.2.2. 2ème génération SPOT-4


Résolution des images de l’instrument HR VIR (haute résolution visible et
infrarouge). Ces capteurs ont une résolution de 10 mètres en monospectral dans
le canal rouge (0,61 - 0,68 µm) et de 20 mètres en multispectral.

 Bande 1 : Vert (0,50 - 0,59 µm)


 Bande 2 : Rouge (0,61 - 0,68 µm)
 Bande 3 : Proche infrarouge (0,78 - 0,89 µm)
 Bande 4 : Moyen infrarouge (MIR) (1,58 - 1,75 µm)

III.2.3. 3ème génération SPOT-5


Résolution des images de l’instrument HRG (haute résolution géométrique).
L’innovation de SPOT-5 est l’introduction du Super-Mode qui permet la création
d’une image à 2,5 mètres de résolution à partir de deux images à 5 mètres
acquises simultanément avec un demi-pixel de décalage. Leur combinaison est
réalisée par des techniques de traitement et de restauration d’image avancées.
Les caractéristiques du capteur sont :

 2,5 mètres en super-mode panchromatique (0,48 - 0,71 µm)


 5 mètres en panchromatique (0,48 - 0,71 µm)
27
 10 mètres en multispectral
 Bande 1 : Vert (0,50 - 0,59 µm)
 Bande 2 : Rouge (0,61 - 0,68 µm)
 Bande 3 : Proche infrarouge (0,78 - 0,89 µm)
 Bande 4 : Moyen infrarouge (MIR) (1,58 - 1,75 µm) à 20 m

28
IV. TRANSFORMATIONS MULTISPECTRALES
Les transformations d’images multispectrales visent la création d’une nouvelle
image à l’aide de deux ou plusieurs bandes qui favorisent l’estimation d’un
attribut du terrain comme par exemple le couvert végétal ou l’hydrographie. On
parle aussi du rehaussement d’image multicomposante.

IV.1. Les Indices


Un avantage des images multispectrales est la possibilité de pouvoir effectuer
des opérations mathématiques entre les canaux. Le principe de ces opérations
est d’effectuer pour chaque pixel des opérations mathématiques faisant
intervenir la valeur des pixels dans les différentes bandes spectrales.

Par exemple, on peut calculer la somme des valeurs spectrales d'une image à
trois composantes: le calcul s'effectue pour chaque pixel, et le résultat est stocké
dans une image numérique ayant le même nombre de pixels que les images de
base.

Dans certains cas, le résultat des opérations peut être négatif, ou dépasser 255
(image codée sur 8 bits), qui est la valeur maximale que peut gérer le système
de traitement d'images. On aura alors recours à des coefficients multiplicateurs
et/ou à l'ajout d'une constante. Par exemple, si les 2 composantes A et B varient
chacune entre 0 et 255, alors C= (A-B) x 0,5 + 127 sera compris entre 0 et 255.

En télédétection, les indices font parties des méthodes de traitement que l'on
appelle transformations multispectrales. Ils consistent à convertir les luminances
mesurées au niveau du capteur satellitaire en grandeurs ayant une signification
dans le domaine de l'environnement. Basés sur le caractère multispectral des
données satellitaires, ils permettent de décrire l'état d'un phénomène. Un indice
de végétation par exemple, peut rendre compte du stade de croissance végétale
à un moment donné.

29
IV.1.1. Le principe
Le principe consiste à relier entres-elles certaines caractéristiques de la
végétation (teneur en eau, évapotranspiration, etc.) et les mesures
radiométriques (valeurs de réflectance et éventuellement températures de
brillance) acquises dans deux ou plusieurs bandes spectrales d'un capteur.
Concrètement, il s'agit de réaliser des combinaisons (différence, rapport, etc.)
linéaires ou non, des réflectances obtenues dans les différentes longueurs
d'onde. Le calcul des indices s'appuie essentiellement sur les écarts de
réflectance constatés dans les différentes bandes spectrales, ainsi que sur la
variabilité des réflectances au sein d'une même bande spectrale. Ainsi, on utilise
principalement les différences des propriétés optiques des éléments à
caractériser.

On constate que l’eau et la végétation sont facilement différentiables dans l’infrarouge.

Tous les indices, que ce soient les indices de végétation, les indices des sols, les
indices relatifs à la colonne d'eau, etc., reposent sur une approche empirique
basée sur des données expérimentales. Les indices de végétation sont très
utilisés d'une part, pour identifier et suivre la dynamique de la végétation, mais
aussi pour estimer certains paramètres biophysiques caractéristiques des
couverts végétaux, comme la biomasse, l'indice de surface foliaire, la fraction de
rayonnement photosynthétique actif, etc.

30
Avec :

ΡPIR correspondant à la réflectance dans le proche infrarouge ; ρR à la réflectance


dans le rouge ; ρMIR à la réflectance dans l’infrarouge moyen.

DVI : Difference Vegetation Index. Le calcul de la différence simple ρIR-ρR est très
sensible à la différence de l’éclairement global. Cet indice est très éfficace pour
déterminer la présence de la végétation. Il peut servir également à évaluer
l’importance de la biomasse.

RVI: Ratio Vegetation Index

NDVI : Normalized Difference Vegetation Index (l'indice de végétation par


différence normalisé)
Les valeurs du NDVI sont comprises en théorie entre -1 et +1, les valeurs
négatives correspondant aux surfaces autres que les couverts végétaux, comme
la neige, l'eau ou les nuages, pour lesquelles la réflectance dans le rouge est
supérieure à celle du proche infrarouge. Pour les sols nus, les réflectances étant
à peu près du même ordre de grandeur dans le rouge et le proche infrarouge, le
NDVI présente des valeurs proches de 0. Les formations végétales quant à elles,
ont des valeurs de NDVI positives, généralement comprises entre 0,1 et 0,7 - les
valeurs les plus élevées correspondant aux couverts les plus denses.

MSI: Moisture Soil Index


31
NDWI= Normalized Difference Water Index

Les indices de stress hydrique, comme le MSI ou le NDWI varient en fonction de


la teneur en eau des feuilles. Ils permettent de déceler lorsque les végétaux sont
en état de stress hydrique et sont par conséquent très utiles pour le suivi de la
végétation en zone sèche.

Indice de brillance des sols

Comme pour la végétation, il existe aussi des indices spécifiques pour les sols
nus, comme l'indice de brillance. Celui-ci est construit à partir des bandes rouge
et proche infrarouge selon l'expression :

IB=√𝝆𝟐 𝑹 + 𝝆𝟐 𝑰𝑹

Il permet de faire clairement la distinction entre les surfaces couvertes par la


végétation et les sols nus.

IV.2. Théorie des couleurs (colorimétrie)

IV.2.1. Rappels théoriques

La lumière visible est une combinaison de trois couleurs à savoir le Rouge, le


Vert et le Bleu
Des couleurs sont dites "primaires" si à partir d'elles il est possible de retrouver
toutes les autres.
32
En synthèse additive, il s'agit donc du Rouge, Vert, Bleu et du Cyan, Magenta,
Jaune en synthèse soustractive.

Des couleurs sont en synthèse additive lorsque leur combinaison donne du


Blanc. La combinaison donne du Noir en synthèse soustractive.

Cyan =vert+bleu
Magenta =rouge+bleu
Jaune =rouge+vert

Les autres couleurs s’obtiennent par un mélange des 3 couleurs primaires : le


Rouge, le Vert et le Bleu.

La synthèse soustractive fait appel aux couleurs secondaires Cyan, Magenta,


Jaune.

Une couleur est dite "complémentaire" à une autre couleur si leur association
donne du blanc(ou du noir dans la synthèse soustractive). Exemple : le Rouge et
le Cyan.

Les couleurs "secondaires" sont les couleurs complémentaires aux couleurs


primaires :
Le Bleu et le Jaune sont des couleurs complémentaires ;
Le Vert et le Magenta sont des couleurs complémentaires ;
Le Rouge et le Cyan sont des couleurs complémentaires.

33
IV.2.2. Le codage RGB
Le codage RGB (Red, green, blue, pour Rouge Vert Bleu, en français RVB) consiste
à représenter l'espace des couleurs à partir de trois rayonnements
monochromatiques:
Le rouge de longueur d'onde comprise entre 0.620 et 0.7 μm
Le vert de longueur d'onde comprise entre 0.500 et 0.578 μm
Le bleu de longueur d'onde comprise entre 0.446 et 0.500 μm

Ainsi, le modèle RGB propose de coder sur un octet chaque composante de


couleur. Pour une image codée sur 8 bits, cela correspond à 256 intensités de
rouge, 256 intensités de vert et 256 intensités de bleu, soient16777216
possibilités théoriques de couleurs différentes.

IV.2.3. Application de la colorimétrie


Le principe des compositions colorées consiste à affecter aux trois couleurs
primaires (rouge, vert, bleu) trois images d'une même région acquises au même
moment mais dans des longueurs d’onde différentes. En fonction de l'affectation
des couleurs primaires aux trois bandes spectrales, on obtient soit une
composition colorée dite naturelle ou 'vraies couleurs', soit une composition en
'fausses couleurs'. Dans une image en 'vraies couleurs', on affecte aux bandes
spectrales acquises dans les longueurs d'onde du bleu, du vert et du rouge, les
trois couleurs primaires correspondantes. Le rouge est attribué à la bande rouge,
le vert à la bande verte et le bleu à la bande bleue. L'image résultante correspond
donc exactement à ce qu'un observateur pourrait observer s'il se trouvait à la
position du capteur (il n’est pas question de résolutions mais de couleurs).

Si les bandes spectrales de l'image ne correspondent pas aux trois couleurs


primaires, l'image qui en résulte est appelée une image en 'fausses couleurs'.
Par conséquent, la couleur d'un objet dans l'image affichée n'a pas de
ressemblance avec sa couleur réelle (couleur que verrait un observateur).
Il existe plusieurs façons de produire des images en 'fausses couleurs' chacune
étant plus adaptée à une application particulière.

Avec les sept bandes spectrales de Landsat TM, qui couvrent les domaines du
spectre allant du visible à l'infrarouge thermique, il ya 𝐶73 combinaisons possibles
(35 combinaisons).

34
Le tableau ci-dessous fournis l’application de quelques-unes des nombreuses
combinaisons possibles des 7 bandes du Thematic Mapper.
Composition des
Teinte des principaux éléments
bandes
Image
Sols
s Végétatio
Rouge Vert Bleu Eau nus/cultur Bâtis
n
es
Vert foncé
Bleu foncé (eau
(forêt);
profonde ou peu
vert très Vert
A 3 2 1 turbide) à bleu cyan Blanc
foncé pomme
(faible profondeur ou
(mangrove
forte turbidité)
)
Rouge vif
Bleu foncé (eau
(forêt);
profonde ou peu
rouge Rouge Bleu très
B 4 3 2 turbide) à bleu vert
terne rosé clair
(faible profondeur ou
(mangrove
forte turbidité)
)
Bleu soutenu (eau Vert vif
profonde ou peu (forêt);
turbide) à bleu vert plus Vert Rose-
C 5 4 2
légèrement plus clair terne pomme mauve
(faible profondeur ou (mangrove
forte turbidité) )
Bleu
(forêt) ;
bleu
légèremen Jaune-
D 7 5 4 Noir Bleu ciel
t plus orange
foncé
(mangrove
)
Pourpre
(forêt) ;
Vert foncé (eau
pourpre
profonde ou peu
légèremen Bleu ciel
E 4 3 5 turbide) à vert clair Rose pâle
t plus à blanc
(faible profondeur ou
foncé
forte turbidité)
(mangrove
)

35
Toutefois il peut y avoir des risques de confusion dans l’interprétation des
différentes teintes comme on peut le constater dans le tableau ci-dessous.
Images Commentaires
Risque de confusion entre certains sols nus et les bâtis. Distinction entre la
A
végétation et les sols nus. Différenciation de plusieurs types d’eau.
B Confusion possible entre certains sols cultivés et la végétation
Distinction nette entre l’eau et les autres éléments. Bonne séparation de la
C végétation et des sols nus (cultures, bâti). Confusion possible entre certains
sols nus et le bâti.
Distinction nette entre l’eau et les autres éléments. Bonne distinction entre la
D végétation et les sols nus (cultures, bâti). Confusion possible entre certains
sols nus et le bâti.
Bonne distinction nette entre l’eau et les autres éléments. Distinction de
E plusieurs types d’eau. Bonne séparation de la végétation et du bâti. Risque de
confusion entre la végétation et certains sols cultivés.

Exemple
Ci-dessous on a une image Landsat TM de la scène 196/53 du 07 novembre 2000
du département de Loropénie, dans la région du Sud-ouest du Burkina.

L’image est affichée en vrais couleurs, c’est-à-dire à partir des canaux TM3, TM2
et TM1 ; c’est-à-dire que TM3 affichée dans le Rouge, TM2 dans le Vert et TM1
dans le bleu.

36
Image Landsat du département de Loropénie (Sud-Ouest du Burkina)

37
Combinaison des bandes 432 (RGB)

Question : Quels éléments peut-on distinguer sur l’image et comment ?

38
Combinaison des bandes 435 (RGB)

Question : Quels éléments peut-on distinguer sur l’image et comment ?

39
Combinaison des bandes 542 (RGB)

Question : Quels éléments peut-on distinguer sur l’image et comment ?

40
omn

Combinaison des bandes 754 (RGB)

Question : Quels éléments peut-on distinguer sur l’image et comment ?

41
Composition colorée (IB, NDVI, NDWI) (RGB)

Dans cette composition colorée, on observe très nettement la végétation en vert, les sols
bâtis en rouge, les sols cultivés en orangé.

42
V. TRAITEMENTS D’IMAGES
Le but du traitement d’image est l’extraction d’informations à partir de données.
La plupart des données de télédétection sont enregistrées en format numérique.
Ainsi, presque toutes les interprétations et analyses d'images requièrent un
traitement numérique. Pour ce faire, on a les opérations de :
1. Prétraitement
2. Rehaussement
3. Transformation de l'image
4. Classification et analyse de l'image

V.1. Prétraitement: corrections


Les opérations de prétraitement visent à compenser les perturbations de la
radiométrie et de la géométrie de l’image intervenant lors de la prise de vue.
Les corrections radiométriques peuvent être nécessaires à cause des variations
dans l'illumination, des conditions atmosphériques, du bruit et de la réponse
du capteur. Chacun de ces facteurs variera selon le capteur et la plate-forme
utilisés de même que selon les conditions d'acquisition des données.

V.1.1. Corrections géométriques


Toutes les images obtenues par télédétection affichent, au départ, une ou
plusieurs formes de distorsion géométrique, peu importe qu’elles aient été
obtenues à partir d'un balayeur multispectral à bord d'un satellite, d'un système
photographique, à bord d'un avion ou à partir de toute autre plate-forme. Ce
problème est lié au fait que l’on cherche généralement à représenter des
données prises à la surface de la Terre (en trois dimensions) sur une image
bidimensionnelle. Le mouvement relatif entre le satellite, le capteur
d'exploration et la Terre provoquent des erreurs de déplacements des pixels
dans l'image obtenue.

POINTS DE CONTRÔLE TERRESTRE (GCPS).


Le processus de correction géométrique à l’aide de points de contrôle terrestre
consiste à identifier les coordonnées sur l'image à corriger de plusieurs points
clairement distincts, appelés points de contrôle au sol (PCS). Les coordonnées
réelles de ces points au sol sont habituellement mesurées à l’aide d’un GPS ou à
partir d'une carte. Une fois que plusieurs PCS bien distribués ont été identifiés,
l'information est traitée par l'ordinateur pour déterminer les équations de
transformation devant être appliquées aux coordonnées pour obtenir les
nouvelles coordonnées au sol.
Il est très important que les points de contrôle soient bien répartis sur toute
l’image.
43
V.1.2. Les corrections radiométriques
Le traitement électronique du rayonnement reçu par les capteurs s'accompagne
de certaines perturbations. En conséquence, il peut être assez difficile de
retrouver les valeurs radiométriques précises à partir des données enregistrées.
Or, il est parfois très utile de pouvoir calibrer de manière précise ces données.
Un moyen est l’étalonnage des capteurs, c’est-à-dire la conversion des nombres
digitaux en luminances. Ceci a pour but de rétablir la radiométrie des images,
de manière à ce que tous les points d’une image soient comparables entre eux.
Concernant les images acquises par avions ou par des satellites, les données
enregistrées par les capteurs ne correspondent pas à la réflectance de la cible
mais plutôt à la radiance.

Il ya donc nécessité d’effectuer un calibrage. Pour les satellites, ce calibrage


tient compte des paramètres tels l’angle d’incidence des rayons du soleil, la
distance cible-capteur, les conditions atmosphériques…

V.1.3. Corrections atmosphériques


Elles ont pour but de compenser les effets de l’atmosphère (diffusion,
atténuation, réfraction, absorption). Diverses méthodes de corrections
atmosphériques peuvent être appliquées, allant de modèles très détaillés des
conditions atmosphériques durant l'acquisition des données, à un simple calcul
basé sur les données de l'image.

44
V.2. Rehaussements d’images
L’objectif du rehaussement d’images est d’exploiter au mieux les nuances
présentes dans l’image. Il s’agit de mettre en relief des éléments pertinents en
fonction d’une problématique, donc de masquer ou gommer des éléments
moins significatifs. Les rehaussements se divisent en deux grandes catégories :
les rehaussements radiométriques et les rehaussements géométriques.

V.2.1. Les rehaussements radiométriques.


Ce traitement vise à améliorer la distribution des valeurs de l’ensemble d’une
image afin de profiter de toutes les nuances d’intensité qu’offrent une
imprimante ou un écran d’ordinateur.

45
Egalisation d’histogramme appliquée aux bandes321 (Image Landsat, Loropénie, sud-ouest du
Burkina)

V.2.2. Les rehaussements géométriques


Ils agissent localement sur les valeurs des pixels de l’image afin de mettre en
avant ou gommer certaines caractéristiques géométriques (texture, effet de
bordure, …).A cet effet, on utilise des filtres.
46
Filtres spatiaux
Ces filtres sont conçus pour faire ressortir ou supprimer des caractéristiques
spécifiques d'une image en se basant sur leur fréquence spatiale. Ils permettent
d'augmenter le contraste entre les cibles et leur environnement. Les principaux
filtres spatiaux sont :

Les filtres passe-bas qui permettent de mettre en évidence les régions assez
grandes et homogènes ayant des pixels d'intensités similaires. Ces filtres
réduisent les plus petits détails d'une image.

Les filtres passe-haut font le contraire : ils sont utilisés pour raviver les petits
détails.

Les filtres directionnels ou les filtres de détection de contours. Ils sont conçus
pour rehausser des structures ayant une certaine orientation dans l'image. Ces
filtres ont de nombreuses applications en géologie pour la détection de
structures géologiques linéaires.

47
Filtre directionnel nord-est appliquée à la bande 4 (département de Loropéni, sud-ouest du
Burkina)

Question : quels éléments peut-on mettre en évidence ?

48
V.2.3. Les transformations d'images
Les transformations d'images combinent le traitement des données de plusieurs
bandes spectrales. Des opérations arithmétiques (c'est-à-dire addition,
soustraction, multiplication, division) sont faites pour combiner et transformer
les bandes originales en de "nouvelles" images qui montrent plus clairement
certains éléments de la scène.

49
V.3. Classification d’images
L’objectif général des classifications est de traduire des informations spectrales
en classes thématiques (d’occupation du sol, hydrographie…). Ce procédé
assigne à chaque pixel une classe ou un thème selon les caractéristiques
statistiques de l’indice de brillance du pixel. Les méthodes de classification
peuvent être séparées en deux grandes catégories : les méthodes de
classification supervisée et les méthodes de classification non supervisée.

V.3.1. Classification supervisée


Cette méthode de classification est basée sur une connaissance préalable de la
zone à cartographie. Pour chaque type d’occupation du sol, on identifie sur
l’image des zones représentatives appelées échantillons. Ainsi, les classes et
leurs caractéristiques spectrales sont définies préalablement. Une fois les classes
et leurs caractéristiques spectrales définies, on choisit un algorithme de
classification permettant de classer tous les pixels de l’image.

Image (a) : image initiale


Image (b) : classes spécifiées par l’analyste
Image (c) : image classifiée par un algorithme de classification

V.3.2. Classification non supervisée


La classification non supervisée procède façon inverse. Les classes spectrales
sont formées en premier, basées essentiellement sur l'information numérique
des données. Ces classes sont ensuite associées à des classes d'information utile.
50
Des algorithmes de classification sont utilisés pour déterminer les groupes
statistiques naturels. Habituellement, l'analyste spécifie le nombre de groupes
ou classes qui seront formés avec les données.

V.4. Éléments d'interprétation visuelle


La reconnaissance des cibles est essentielle à l'interprétation et à l'extraction
d'informations. L'observation des différences entre les cibles implique la
comparaison en se basant sur une combinaison des caractéristiques dont : le ton,
la forme, la taille, le patron, la texture, l’ombre et l’association.

Le ton réfère à la clarté relative ou la teinte des objets dans une image.
Généralement, la nuance de ton est l'élément fondamental pour différencier les
cibles et les structures. Les variations de ton permettent aussi la différenciation
des formes, des textures et des patrons.

La forme réfère à l'allure générale, la structure ou le contour des objets pris


individuellement. La forme est un indice très important dans l'interprétation.

La taille d'un objet sur une image est fonction de l'échelle.

Le patron réfère à l'agencement spatial des objets.

La texture réfère à l'arrangement et à la fréquence des variations de teintes dans


des régions particulières d'une image. Des textures rugueuses consistent en des
tons en rayures où les niveaux de gris changent brusquement dans une petite
région, alors que les textures lisses ont peu ou pas de variations de tons. Les
textures lisses sont souvent le résultat de surfaces uniformes telles que des
champs, du pavement ou des terrains gazonnés. La texture est l'un des éléments
les plus importants pour différencier.

Les ombres donnent une idée du profil et de la hauteur relative des cibles.

L'association tient compte de la relation entre la cible et d'autres objets ou


structures reconnaissables qui sont à proximité. L'identification d'éléments
qu'on s'attend normalement à retrouver à proximité d'autres structures peut
donner de l'information facilitant l'identification.

51
VI. L’IMAGERIE HYPERSPECTRALE APPLIQUEE A LA GEOLOGIE

Les images hyper spectrales sont obtenues par des capteurs capables
d'enregistrer l'information dans une multitude de bandes spectrales (souvent
plus de 200). Ces bandes sont beaucoup plus étroites (de l'ordre de quelques
nm) et sont situées dans les portions du visible, du proche infrarouge et de
l’infrarouge moyen du spectre électromagnétique. Par rapport aux données
issues des capteurs à larges bandes, les données hyperspectrales fournissent une
information plus détaillée des propriétés spectrales d'une scène et permettent
ainsi une identification et une discrimination plus précises des objets.
Cependant, cette plus grande sensibilité du capteur implique une augmentation
considérable de la quantité d'information à traiter.
Les applications de l’imagerie hyperspectrale en géosciences sont variées :
géologie, minéralogie, pétrologie, la géologie structurale, géologie minière,
environnement…

VI.1. Les capteurs hyperspectraux

Mode Capteurs gestionnaire couverture Résolution Nombre Résolution


spectrale spectrale de spatiale
(µm) bandes (m)
Airborne NASA (US) 400--2500 0.01 224 4 ou 20
Visible/infrared
Aéroportés Spectrometer
(AVIRIS)
Hyrepectral Integrated 400--2500 0.01 à 128 3 à 10
Mapper Spectronics 0.02
(HyMap) (Australie)
Compact ITRES 400--870 0.076 288 2.5 à 4.3
Airborne (Canada)
Spectrographis
Imager (CASI)
Satellitaires OMEGA ESA 350--520 0.013 à 352 350 à
(European 0.02 10000
Space
Agency)
HYPERION NASA 400--250 0.01 242 30

OMEGA : Observatoire pour la Minéralogie, l’Eau, la Glace et l’Activité

52
Instrument : SOC710- GX (aéroporté,
terrestre)

Nombre de bandes : 120


Couverture spectrale : 400--1000 nm
Résolution spectrale : 4.2 nm
Poids : 1.25 kg

SOC750

53
VI.2. Signatures spectrales des principaux éléments

VI.2.1. Signature spectrale des minéraux:


Les minéraux peuvent être discriminés par des mesures de réflectance dans trois
principales fenêtres atmosphériques : le Visible et le Proche Infrarouge (de 0.4 à
1.1µm), l'Infrarouge Moyen (de 1.1 à 2.5µm) et l'Infrarouge Thermique (de 8
à14µm).

Dans le domaine du Visible, le fer est généralement le seul élément présent en


quantité suffisante dans les minéraux pour affecter le spectre de réflectance et
produire des bandes d'absorption. La présence de fer est détectable dans le
Visible et le Proche Infrarouge grâce aux ions Fe2+ et Fe3+ : les ions ferreux Fe2+
produisent une forte bande d'absorption à 1.1µm, les ions ferriques Fe3+
produisent deux fortes bandes à 0.4µm et 0.7µm.

Dans le domaine de l'Infrarouge Moyen un nombre plus important d'éléments


peut être discriminé. Le nombre de bandes d'absorption dues à des processus
vibratoires est important dans les spectres de réflectance de minéraux
contenant de l'eau, des ions hydroxydes ou des carbonates. Les minéraux formés
des liaisons AL-OH tendent à absorber l’énergie près de 2.2µm tandis que les
minéraux formés des liaisons Mg-OH tendent à absorber l'énergie près de
2.35µm. Le pyroxène (Mg, Fe)SiO3 peut être discriminé du quartz (SiO2) par
identification des bandes d'absorption dans les régions spectrales 2.35µm
montrant la présence de Mg, et dans le Visible montrant la présence d'ions
ferreux.

La calcite peut être identifiée par ses bandes d'absorption dans les régions
spectrales de1.87, 1.99, 2.16, 2.33 et 2.52µm.

Le domaine spectral de l'Infrarouge Thermique est généralement la seule partie


du spectre des minéraux permettant de discriminer la présence de silicates.

De façon générale, il faut noter que :

 La plupart des minéraux de couleur blanche possèdent une très


forte réflectance;
 Les minéraux colorés ont une forte dominante dans leur couleur
propre comme c’est le cas minéraux verts;
 Le quartz à une assez faible réflectance (40 % en moyenne) avec une
très légère dominante dans le rouge et l’infrarouge;
54
 Les minéraux sombres, étant fort absorbants, réfléchissent peu de
lumière dans toute l’étendue du spectre.

VI.2.2. Signature spectrale des roches


Une roche est un assemblage de minéraux. La signature spectrale d'une roche
est donc une combinaison des signatures spectrales des minéraux qui la
compose. Compte tenu des conditions météoriques, les roches affleurantes ont
souvent une surface fortement altérées. L'altération des roches produit un
mélange d'argiles, d'hydroxydes, d'oxydes...

VI.2.3. Signature spectrale des sols


Les sols résultent de la transformation des produits d'altération des roches. La
signature spectrale d'un sol est donc une combinaison des signatures spectrales
des roches dont ils dérivent. La réflectance des sols est régulièrement croissantes
dans le visible et le proche infrarouge, tandis qu'elle est généralement faible
dans le moyen infrarouge. Leurs propriétés spectrales dépendent
principalement de la teneur en argiles, en carbonates, en matières organiques,

55
et en eau. Des facteurs comme la granulométrie et la rugosité de la surface ont
également un impact sur la réflectance des sols.

La teneur en eau : la valeur de la réflectance diminue de façon considérable avec


la teneur en eau. La réflectance est particulièrement faible pour les bandes
d'absorption de l'eau à 1.45 ; 1.95 et 2.45 µm.

La teneur en calcaire : la réflectance augmente avec le pourcentage de calcaire.

La teneur en matière organique : la réflectance diminue avec la teneur en


matière organique.

La granulométrie : il s'agit d'un effet indirect de la teneur en eau des éléments


constitutifs (argiles, limons, sables, graviers, cailloux, pierres, blocs).

La rugosité de la surface du sol : une surface lisse est plus réfléchissante qu'une
surface rugueuse.

VI.3. Analyse du signal hyperspectral


La grande quantité des données rend plus difficile leur manipulation. L'analyse
d'une combinaison de plusieurs images est difficile, de même que l’identification
et l'analyse de la réponse obtenue pour chacune des bandes. De nombreux
minéraux, ainsi que des assemblages minéralogiques correspondants, ont été
caractérisés au laboratoire. Ceci dans le but de pouvoir effectuer la démarche
inverse, à savoir retrouver la composition et les propriétés de la roche à partir
du spectre. Cependant, il existe une grande variété de compositions chimiques
pour un minéral donné. Il en est de même pour les possibilités d’assemblages
minéralogiques dans les roches. Il est donc nécessaire d’utiliser des techniques
de traitement pour déconvoluer les données. Quelques-unes de ces différentes
techniques sont brièvement présentées dans cette dernière partie pour donner
un aperçu des possibilités existantes.

56
VI.3.1. Analyses statistiques
L’objectif principal des traitements statistiques est de réduire la dimension des
données hyperspectrales afin d’accéder efficacement à la partie intéressante de
l’information.
L’analyse en composante principale (ACP) permet de réorganiser les données
de telle manière qu'elles ne soient plus corrélées (c.-à-d. qu'elles deviennent
indépendantes). Une particularité intéressante de cette transformation est que
lorsqu'elle est appliquée à des données comprenant plusieurs bandes spectrales,
est qu'elle concentre la quasi-totalité de l'information dans les deux ou trois
premières composantes ; les autres composantes ne renfermant généralement
que du bruit. En ne conservant que les composantes les plus significatives pour
l'analyse, il est possible de réduire considérablement le volume de données à
traiter.

VI.3.2. Utilisation d’algorithmes de correspondance


Lorsque les roches ont une minéralogie plus complexe ou que les absorptions
sont moins bien définies, les techniques détaillées précédemment restent
limitées. Toutefois il est possible de réaliser une étude détaillée à partir de la
forme générale d’un spectre en comparant celui-ci aux spectres existants dans
les différentes librairies spectrales accessibles. On utilise ainsi des algorithmes
de correspondance spectrale permettant de déterminer la nature de la cible.

Libraires Spectrales
Plusieurs librairies de réflectance spectrale d’éléments naturels et anthropiques
sont disponibles à usage public. Ces librairies peuvent être une source de
référence dans l’interprétation des images hyperspectrales et multispectrales.

ASTER Spectral Library


Cette librairie contient plus de 2000 spectres d’éléments incluant des minéraux,
des roches, des types de sols, l’eau, la neige de même que de nombreux
éléments d’origines anthropiques. Nombre de ces spectres couvrent les
longueurs d’ondes allant de 0.4 à 14µm. La librairie est disponible à l’adresse:
http://speclib.jpl.nasa.gov.

57
USGS Spectral Library
Il s’agit d’une compilation de la réflectance de plus de 500 minéraux et plantes
mesurée entre 0.2 et 3.0 µm. Cette compilation a été effectué par la société
géologique américaine. Elle est disponible en ligne à l’adresse :
http://speclab.cr.usgs.gov/spectral.lib06/

Signatures spectrale de quelques minéraux de la librairie de l’USGS

58
VII. APPLICATIONS DE LA TELEDETECTION

VII.1. La défense
Les premières applications de la télédétection sont liées à la défense.
Elle est utilisée dans les domaines tels que:
• Sécurité et renseignement
• Cartographie à haute résolution
• Vérification des traités internationaux
• Contrôle des frontières…

VII.2. L’environnement

VII.2.1. Domaine atmosphérique


Les principales applications de la télédétection dans le domaine atmosphérique
sont les suivants:
• Prévisions météorologiques
• Étude des gaz atmosphériques
• Prévention des catastrophes (tempêtes, vents, etc.)
• Qualité de l'air: pollution, aérosols, brumes, etc.
• Gaz à effet de serre…

VII.2.2. Hydrologie
L'hydrologie est liée à plusieurs applications de la télédétection, dont
l'agriculture, la foresterie,… parce que l'eau intervient de façon significative dans
chacun de ces domaines. On a notamment :

 la surveillance et la cartographie des inondations ;


 la détection des changements dans les rivières et les deltas ;
59
 la cartographie et la surveillance des marécages ;
 la cartographie et la modélisation des bassins hydrologiques
 l'évaluation de l'humidité du sol ;
 la surveillance et la cartographie de l'étendue d'une surface de neige…

Concernant les inondations, elles peuvent aussi causer des pertes en vies
humaines, la destruction d’infrastructures urbaines et rurales. Les techniques de
télédétection sont utilisées pour mesurer et effectuer le suivi de la superficie de
l'inondation, pour orienter les secours de façon efficace et pour fournir des
évaluations quantifiables sur l'étendue des terres et des infrastructures
touchées. L'incorporation des données de télédétection dans un SIG permet le
calcul et l'évaluation rapides des niveaux d'eau, des dommages et des régions en
danger d'inondation.

VII.3. Agriculture
L'agriculture joue un rôle économique très important dans de nombreux pays.
La télédétection est utilisé pour :
 Faire des révisions de récoltes ;
 Faire un inventaire des cultures ;
 Faire une évaluation des dommages causés par les inondations ou la
sécheresse ;
 Contrôler l’état de santé des cultures…

VII.4. Géologie et géomorphologie

VII.4.1. La géomorphologie
La télédétection permet de fournir des informations sur la structure et la
composition de la surface de la Terre. Elle peut être utilisée pour créer des
Modèles Numériques de terrain (MNT) ; (DEM : Digital Elevation Model).

60
Les MNT servent entre autres à connaître la topographie, le sens d’écoulement
des eaux, la délimitation des bassins versants… Ils interviennent dans le génie
civil dans la conception des ouvrages tels les barrages ou les ponts.

VII.4.2. La géologie
À partir de la réflectance des éléments, la télédétection peut fournir des
informations sur la composition lithologique des roches, sur la rugosité et la
géométrie de la surface. Une application très courante est la cartographie des
linéaments et des structures circulaires.

Les linéaments

Ce sont des indicateurs des fractures du socle. Ils sont très importants dans
l’implantation des forages. Ils peuvent également être associés à des zones de
contact ou à des zones de minéralisation.

Les structures circulaires

Ils peuvent être associés à des bassins ou à des zones d’intrusion volcanique.
D’où leur intérêt dans la recherche minière.

De façon générale, il est possible de mettre en évidence des relations entre les
linéaments, les structures circulaires et les zones de minéralisation.

La cartographie géologique

Les techniques les plus utilisées dans l’imagerie multispectrale dans le cadre de
la cartographie géologique sont le rapport des bandes et l’analyse des
composantes principales. Ces rapports sont ensuite codés en RGB. Ceci permet
une bonne discrimination des unités géologiques et surtout des zones
d’altération. Mais il est très important de tenir compte des caractérisques des
bandes des capteurs utilisés pour une bonne interprétation.

Concernant la géologie, la télédétection n'est pas limitée à ses applications


directes. Elle est aussi utilisée dans la planification des routes d'accès dans une
61
région minière, la création de cartes sur lesquelles les données géologiques
peuvent être superposées. Elle intervient ainsi donc dans :
 La cartographie structurale ;
 La cartographie lithologique ;
 L'exploration minière ;
 La cartographie des risques géologiques ;
 La géologie environnementale…

62
BIBLIOGAPHIE

Centre canadien de télédétection: Notions fondamentales de télédétection,


cours tutoriel

Dougherty, Edward R. and Charles R. Giardina Matrix Structured Image


Processing. Prentice-Hall, New Jersey, 1987

François Cavayas, cours de télédétection numérique, université de montréal,


2010

Gonzalez F.E, Ruiz J.M., Acosta F.M. Manuel de télédetéction spaciale

Jensen, John R : Introductory Digital Image Processing. Prentice-Hall, New


Jersey. 1986

Noam Levin : Fondamentals of remote sensing, november 1999 Remote


Sensing Laboratory, Geography Department, Tel Aviv University, Israel

Win H. Bakker & al: Principles of remote sensing. An introductory textbook,


fourth edition, 2009

Francisco Eugenio González


Javier Marcello Ruiz Francisco Eugenio

LIENS INTERNET

http://glcf.umiacs.umd.edu/data/: site d’accès libre aux archives d’images


satellitaires

http://glcfapp.glcf.umd.edu/data/landsat/: site d’accès aux images de Landsat

http://www.géophysique.com: site de publications dans le domaine de la


géophysique

http://www.memoireonline.com/: Site de mémoires en ligne

63

Vous aimerez peut-être aussi