1 Notions-Fondamentales
1 Notions-Fondamentales
1 Notions-Fondamentales
Notions Fondamentales
de Télédétection spatiale
L'énergie du Soleil est soit réfléchie (la portion visible et une portion de l’infrarouge) ou
absorbée et retransmise (infrarouge thermique) par la cible. Les dispositifs de télédétection
qui mesurent l'énergie disponible naturellement sont des capteurs passifs.
Le capteur passif peut seulement percevoir l'énergie réfléchie lorsque le Soleil illumine la
Terre.
Il n'y a donc pas d'énergie solaire réfléchie le soir, tandis que l'énergie dégagée naturellement
(l'infrarouge thermique) peut être perçue le jour ou la nuit.
Le capteur actif a l'avantage de pouvoir prendre des mesures à n'importe quel moment de la
journée ou de la saison.
Les capteurs actifs utilisent les longueurs d'onde qui ne sont pas produites en quantité
suffisante par le Soleil telles que les hyperfréquences ou pour mieux contrôler la façon dont
une cible est illuminée. Les capteurs actifs doivent produire une énorme quantité d'énergie
pour bien illuminer une cible. Le laser fluoromètre et le radar à synthèse d'ouverture (RSO)
sont des exemples de capteurs actifs.
NB. la télédétection peut également impliquer l'énergie émise et utiliser des capteurs
non-imageurs.
Le rayonnement électromagnétique est composé d'un champ électrique (E) et d'un champ
magnétique (M). Le champ électrique varie en grandeur et est orienté de façon perpendiculaire
à la direction de propagation du rayonnement. Le champ magnétique est orienté de façon
perpendiculaire au champ électrique.
Les deux champs se déplacent à la vitesse de la lumière (c).
Avant que le rayonnement utilisé pour la télédétection n'atteigne la surface de la Terre, celui-ci
doit traverser une certaine épaisseur d'atmosphère.
Les particules et les gaz dans l'atmosphère peuvent dévier ou bloquer le rayonnement incident.
Ces effets sont causés par les mécanismes de diffusion et d'absorption.
La diffusion se produit lors de l'interaction entre le rayonnement incident et les particules ou les
grosses molécules de gaz présentes dans l'atmosphère.
Les particules dévient le rayonnement de sa trajectoire initiale. Le niveau de diffusion dépend
de plusieurs facteurs comme la longueur d'onde, la densité de particules et de molécules, et
l'épaisseur de l'atmosphère que le rayonnement doit franchir. Il existe trois types de diffusion:
La diffusion de Rayleigh disperse et dévie de façon plus importante les courtes longueurs
d'onde que les grandes longueurs d'onde. Cette forme de diffusion est prédominante dans les
couches supérieures de l'atmosphère.
Ce phénomène explique pourquoi nous percevons un ciel bleu durant la journée. Comme la
lumière du Soleil traverse l'atmosphère, les courtes longueurs d'onde (correspondant au bleu)
du spectre visible sont dispersées et déviées de façon plus importante que les grandes
longueurs d'onde.
la diffusion non-sélective : les particules >> la longueur d'onde du rayonnement (les gouttes
d'eau et les grosses particules de poussière). Nous appelons ce genre de diffusion "non-
sélective", car toutes les longueurs d'onde sont dispersées. Les gouttes d'eau de l'atmosphère
dispersent le bleu, le vert, et le rouge de façon presque égale, ce qui produit un rayonnement
blanc (lumière bleue + verte + rouge = lumière blanche). C'est pourquoi le brouillard et les
nuages nous paraissent blancs.
Parce que ces gaz et ces particules absorbent l'énergie électromagnétique dans des régions
spécifiques du spectre, ils influencent le choix de longueurs d'onde utilisées en télédétection.
Les régions du spectre qui ne sont pas influencées de façon importante par l'absorption
atmosphérique, et qui sont donc utiles pour la télédétection, sont appelées les fenêtres
atmosphériques.
03/02/2019 Pr. Abderrazak El Harti, FST Béni Mellal
En comparant les caractéristiques des deux sources d'énergie les plus communes (le Soleil et la
Terre) avec les fenêtres atmosphériques disponibles, nous pouvons identifier les longueurs
d'onde les plus utiles pour la télédétection. La portion visible du spectre correspond à une
fenêtre et au niveau maximal d'énergie solaire. Notez aussi que l'énergie thermique émise par la
Terre correspond à une fenêtre située à près de 10 mm dans la partie de l'infrarouge thermique
du spectre. Dans la partie des hyperfréquences, il existe une grande fenêtre qui correspond aux
longueurs d'onde de plus de 1 mm.
Lorsque l'énergie atteint la cible, la surface peut absorber l'énergie, la transmettre ou réfléchir
l'énergie incidente.
L'énergie incidente totale interagira avec la surface selon l'une ou l'autre de ces trois modes
d'interaction ou selon leur combinaison. La proportion de chaque interaction dépendra de la
longueur d'onde de l'énergie, ainsi que de la nature et des conditions de la surface.
Une surface lisse produit une réflexion spéculaire, c'est-à-dire que toute l'énergie est redirigée
dans une même direction (comme c'est le cas d'un miroir).
La réflexion diffuse se produit quand la surface est rugueuse, ce qui redirige l'énergie
uniformément dans toutes les directions.
La structure interne des feuilles en santé agit comme un excellent réflecteur diffus pour les
longueurs d'onde de l'infrarouge. Si nos yeux pouvaient percevoir l'infrarouge, les feuilles
paraîtraient très éclatantes sous ces longueurs d'onde. Les scientifiques utilisent d'ailleurs
l'infrarouge pour déterminer l'état de santé de la végétation.
Nous confondons parfois l'eau qui contient des sédiments en suspension avec l'eau peu
profonde et claire, car ces deux phénomènes paraissent très semblables.
La chlorophylle dans les algues absorbe plus de bleu et réfléchit plus de vert. L'eau paraît donc
plus verte quand elle contient des algues.
L'état de la surface de l'eau (rugueuse, lisse, vagues, débris flottants, etc.) peut aussi susciter
des problèmes dans l'interprétation à cause de la réflexion spéculaire et des autres influences
sur la couleur et la brillance.
Rouge Vert
Jaune
Magenta Cyan
Bleu
Principe :
L’affichage des couleurs est obtenu en ajoutant
les 3 couleurs primaires (rouge, vert, bleu)
XS1
Composition
Bleu
colorée
XS2
Vert
XS3
Rouge
Lorsque nous utilisons cette méthode pour afficher une seule bande ou gamme de longueurs
d'onde, nous affichons réellement cette bande avec les trois couleurs primaires. Parce que la
luminosité de chaque pixel est la même pour chaque couleur primaire, les couleurs se
combinent et produisent une image en noir et blanc. L'image est donc affichée avec ses
différentes teintes de gris, de noir à blanc.
Lorsque nous affichons plus d'une bande, chaque bande ayant une couleur primaire différente,
le niveau de luminosité peut être différent pour chaque combinaison de bandes ou de couleurs
primaires, et les couleurs se combinent pour former un composé couleurs ou composé coloré
(image en vrais couleurs ou en fausses couleurs).
03/02/2019 Pr. Abderrazak El Harti, FST Béni Mellal
Chapitre 2. Plates-formes et capteurs
Nous avons défini les trois principales composantes du processus de la télédétection : la source
d'énergie, l'interaction entre l'énergie et l'atmosphère et l'interaction entre l'énergie et la
surface.
Lorsque nous avons discuté de la différence entre les capteurs passifs et les capteurs actifs ainsi
que des caractéristiques des images, nous avons introduit brièvement une quatrième
composante de la télédétection : l'enregistrement de cette énergie par un capteur. Dans le
présent chapitre, nous allons regarder de plus près cette dernière composante en examinant
plus en détail les caractéristiques de la plate-forme de télédétection, des capteurs et des
informations qui y sont enregistrées. Nous aborderons aussi rapidement la question du
traitement des données.
Bien que les plates-formes terrestres ou aéroportées soient utilisées, ce sont les satellites
qui fournissent la majeure partie des données recueillies par télédétection de nos jours.
L'orbite d'un satellite est choisie en fonction de la capacité des capteurs qu'il transporte et
des objectifs de sa mission. Le choix d'une orbite est déterminé par l'altitude (la hauteur du
satellite au-dessus de la surface de la Terre), l'orientation et la rotation du satellite par
rapport à la Terre.
Certains satellites ont une altitude très élevée et regardent toujours la même région de la
surface de la Terre, ils ont une orbite géostationnaire. Ces satellites géostationnaires ont une
altitude d'environ 36 000 kilomètres et se déplacent à une vitesse qui correspond à celle de la
Terre, donnant ainsi l'impression qu'ils sont stationnaires. Cette configuration orbitale permet
au satellite d'observer et d'accumuler continuellement de l'information sur une région
spécifique. Les satellites de communication et d'observation des conditions météorologiques
sont situés sur de telles orbites. L'altitude élevée de certains satellites météorologiques leur
permet d'observer les nuages et les conditions qui couvrent un hémisphère complet de la
Terre
03/02/2019 Pr. Abderrazak El Harti, FST Béni Mellal
Caractéristiques d'un satellite
Orbite et Fauchée
De nos jours, la plupart des plates-formes satellitaires sont placées
sur orbite quasi-polaire. Elles se déplacent donc vers le nord d'un
côté de la Terre, et vers le sud dans l'autre moitié de leur orbite. Ces
deux types de passage du satellite se nomment respectivement
orbite ascendante et orbite descendante
La plupart des satellites sur orbite quasi-polaires ont aussi une orbite
héliosynchrone; de cette façon, ils observent toujours chaque région
du globe à la même heure locale solaire.
Pour les satellites à orbite quasipolaire, le satellite se déplace selon une trajectoire nord-sud.
Cependant, vue de la Terre, la trajectoire du satellite semble avoir une composante vers
l'ouest à cause de la rotation de la Terre. Ce mouvement apparent du satellite permet à la
fauchée du capteur d'observer une nouvelle région à chacun des passages consécutifs du
satellite. L'orbite du satellite et la rotation de la Terre travaillent donc de concert,
permettant une couverture complète de la surface de la planète après un cycle orbital
complet.
Les capteurs utilisés par les militaires par exemple, sont conçus pour obtenir le plus de détails
possible. Ils ont donc une résolution très fine.
Les satellites commerciaux ont une résolution qui varie de quelques mètres à plusieurs
kilomètres. De façon générale, plus la résolution augmente, plus la superficie de la surface
visible par le capteur diminue.
Le rapport entre la distance que l'on mesure sur une image ou une carte, et la distance
correspondante au sol est appelée échelle. Une carte ayant une échelle de 1:100 000
représente un objet au sol de 100 000 cm (1 km) par un objet de 1 cm. Les cartes pour
lesquelles le rapport est petit (1:100 000) sont des cartes à petite échelle, tandis que les
cartes pour lesquelles ce rapport est plus grand (1:5 000) sont des cartes à grande échelle.
Longueur d'onde
Domaine de vision la bande Résolution (m)
(µm)
Panchromatique 15 0,50-0,68
Aérosol 30 0,43-0,45
Visible Bleu 30 0,45-0,51 Landsat 8 : 11 bandes
Vert 30 0,53-0,59
Rouge 30 0,64-0,67
Proche infrarouge Proche infrarouge 30 0,85-0,88
Moyen infrarouge 1 30 1,57-1,65
Moyen infrarouge Moyen infrarouge 2 30 2,11-2,29
Cirrus 30 1,36-1,38
Infrarouge Infrarouge thermique 1 100 10,60-11,19
thermique Infrarouge thermique 2 100 11,55-12,51
Domaine de Longueur d'onde
la bande Résolution (m)
vision (µm)
Panchromatique 1.5 0,450-0,745
Visible
Bleu 6 0,450-0,520 Spot 6-7: 05 bandes
Vert 6 0,530-0,590
Rouge 6 0,625-0,695
Proche Proche
6 0,760-0,890
infrarouge infrarouge
03/02/2019 Pr. Abderrazak El Harti, FST Béni Mellal
Résolution spectrale
B02 10 490
B03 10 560
B04 10 665
B05 20 705
Moyen infrarouge Proche infrarouge
B06 20 740
B07 20 783
B08 10 842 Sentinel 2A: 13 bandes
B08A 20 865
B09 60 945
B10 60 1375
B11 20 1610
B12 20 2190
Des classes plus spécifiques comme par exemple différents types de roche ne sont pas aussi
faciles à différencier et nécessitent l'utilisation d'un intervalle de longueurs d'onde beaucoup
plus fin. Pour ce faire, nous devons utiliser un capteur ayant une résolution spectrale beaucoup
plus grande.
Des capteurs multispectraux plus développés, appelés capteurs hyperspectraux, sont capables
de détecter des centaines de bandes spectrales très fines.
Réflectance
l (nm )
Les données images sont représentées par une valeur numérique variant entre
0 et 2 à une certaine puissance moins un. Cet intervalle correspond à un
nombre de bits utilisés pour encoder des valeurs en format binaire.
1 bit = 21 = 2
0-( 2n-1)
0 noir
255 la couleur pure
C’est le temps que prend le satellite pour revenir sur le même point nadiral pour effectuer
un cycle orbital complet.
Elle est différente de la période de revisite pour Certains satellites qui ont la possibilité de
pointer leurs capteurs en direction du même point pour différents passages du satellite.
altitude: 907-915 km
inclinaison: 99,2 degrés
orbite: polaire héliosynchrone
capacité de revisite: 18 jours
Spot 6-7
Pour tirer avantage des données de télédétection, il faut être En mesure d'extraire de
l'information significative de l'imagerie.
La cible doit être distinctive, c.-à-d. qu'elle doit contraster avec les structures avoisinantes.
Les images satellites sont en générale fournies en format numériques sous différents formats.
La taille d'un objet sur une image est fonction de l'échelle. Il est important d'évaluer la
taille d'une cible par rapport aux autres objets dans une scène (taille relative), ainsi que
la taille absolue, afin d'aider l'interprétation de cette cible.
La texture réfère à l'arrangement et à la fréquence des variations de teintes dans des régions
particulières d'une image. Des textures rugueuses consisteraient en des tons en rayures où
les niveaux de gris changent brusquement dans une petite région, alors que les textures
lisses auraient peu ou pas de variations de tons. Les textures lisses sont souvent le résultat de
surfaces uniformes telles que des champs, du pavement ou des terrains gazonnés. Une cible
avec une surface rugueuse et une structure irrégulière, telle qu'une forêt, résulte en une
texture d'apparence rugueuse. La texture est l'un des éléments les plus importants pour
différencier les structures sur une image radar.
Les ombres sont aussi utiles pour l'interprétation puisqu'elles donnent une idée du profil
et de la hauteur relative des cibles pouvant être identifiées facilement. Les ombres
peuvent cependant réduire, voire éliminer l'interprétation dans leur entourage, puisque les
cibles situées dans les ombres sont moins, ou pas du tout discernables. En imagerie radar,
les ombres sont particulièrement utiles pour rehausser ou identifier la topographie et les
formes géologiques, particulièrement en imagerie radar.
corrections radiométriques
Etalonnage du capteur
Correction atmosphériques
corrections géométriques
Traitements
Rehaussement de l'image
Transformation de l'image
Classification de l'image
Pré-traitement
Compte numérique CN
Conversion CN Calibration
radiométrique
En radiance ou luminance
Conversion
en réflectance apparente
Correction
atmosphérique
Réflectance au sol
L(λ)=A(λ) *CN+B(λ)
Les corrections
radiométriques
les différences des
Appelée aussi effectuées rapportent
comptes numériques
méthode des sites les images aux
d'une image à l'autre
invariants Dont le but conditions de prise de
sont dues aux
est de détecter des l'image de référence
changements de
sites qui sont soit même
conditions
radiométriquement éclairement, même
atmosphériques et
stables dans les deux angle de visée, même
de géométrie du
images. état des capteurs et
système
même caractéristiques
atmosphériques.
S: l'albédo.
C’est une correction simple qui ne demande aucune mesure sur le terrain à
l’heure du passage de satellite .
Cette méthode se base sur l’existance d’objets noirs sur l’image et qui ont une
reflectance différente de 0
Ces valeurs sont attribuées à des effets atmosphériques (diffusion)
DOS est une technique simple et efficace pour la correction des données multi-
spectrales
((L(l ) ( L( DP, l )) D ²
(l )
E (l ) cos( )
λ = wavelength of the spectral band [µm]
ρ (λ)= Spectral reflectance at surface [unitless]
L(λ) = Spectral radiance at the sensor's aperture [W/(m2 µm sr)]
L(DP, λ) = Spectral radiance obtained from Dark Objects (DP)[W/(m2 µm sr)]
D = Earth–Sun distance [astronomical units]
π = Mathematical constant equal to ~3.14159 [unitless]
E(λ) =Mean exoatmospheric solar irradiance [W/(m2μm)]
θ = Solar zenith angle [degrees]
a b
Les corrections géométriques sont appliquées pour compenser les distorsions de l’image
afin que sa la représentation géométrique soit aussi proche que possible de la réalité.
x’, y’ sont les nouvelles coordonnées. x0, y0 sont les coordonnées de l’image d’origine.
Les coefficients sont des scalaires.
Pour un polynôme d’ordre 1 : les coordonnées nouvelles sont calculées selon les deux
polynômes suivants :
L'interpolation bilinéaire prend une moyenne pondérée par la distance des quatre pixels de
l'image originale les plus près du nouveau pixel. Le procédé de moyenne altère la valeur
originale des pixels et crée une valeur complètement nouvelle sur l'image finale. Ceci peut
être nuisible si d'autres procédés, tels que la classification basée sur la réponse spectrale,
doivent être faits. Dans ce cas, il peut être préférable d'appliquer le rééchantillonnage après
le processus de classification.
1. Rehaussement de l'image ;
2. Transformation de l'image ;
3. Classification et analyse de l'image.
Filtres spatiaux
Les filtres spatiaux représentent une autre méthode de traitement numérique utilisées
pour le rehaussement d'une image. Ces filtres sont conçus de façon à faire ressortir ou à
supprimer des caractéristiques spécifiques d'une image en se basant sur leur fréquence
spatiale. La fréquence spatiale est liée au concept de texture. Elle fait référence à la
fréquence de variation des différents tons qui apparaissent dans une image. La méthode de
filtrage spatial consiste à déplacer une "fenêtre" d'une dimension de quelques pixels (ex. : 3
sur 3, 5 sur 5, etc.) au-dessus de chaque pixel de l'image. On applique alors un traitement
mathématique utilisant les valeurs des pixels sous la fenêtre et on remplace la valeur du
pixel central par le résultat obtenu. La fenêtre est déplacée le long des colonnes et des
lignes de l'image, répétant le calcul jusqu'à ce que l'image entière ait été filtrée. En
modifiant le calcul effectué à l'intérieur de la fenêtre, il est possible de rehausser ou de
supprimer différents types de caractéristiques présents dans une image.
Filtres spatiaux
Un filtre passe-bas est conçu afin de mettre en évidence les régions assez grandes et
homogènes ayant des pixels d'intensité similaire. Ce filtre réduit les plus petits détails
d'une image. Il est donc utilisé pour lisser une image. Les filtres moyenneur et médian,
souvent utilisés avec les images radars (nous les avons décrits au chapitre 3), sont des
exemples de filtre passe-bas.
FST
Filtres spatiaux
Les filtres passe-haut font le contraire : ils sont utilisés pour raviver les petits
détails d'une image.
FST
Filtres spatiaux
Les filtres directionnels ou les filtres détectant les contours sont utilisés pour rehausser les
caractéristiques linéaires d'une image comme les routes ou les limites des champs. Ces
filtres peuvent aussi être conçus pour rehausser des caractéristiques ayant une certaine
orientation dans l'image. Ces filtres ont de nombreuses applications en géologie pour la
détection de structures géologiques linéaires.
03/02/2019
Filtre directionnel 45°
Pr. Abderrazak El Harti, FST Béni Mellal
Rehaussement de l'image
Filtres spatiaux
𝐷𝑉𝐼 = 𝑃𝐼𝑅 − 𝑅
𝑃𝐼𝑅
𝑅𝑉𝐼 =
𝑅
(𝑃𝐼𝑅 − 𝑅𝑜𝑢𝑔𝑒)
𝑁𝐷𝑉𝐼 =
(𝑃𝐼𝑅 + 𝑅𝑜𝑢𝑔𝑒)
caractéristiques;
0,7
0,6
0,5
Réflectance (%)
0,4
0,3
0,2
0,1
0
0 500 1000 1500 2000 2500 3000
Longueur d'onde (nm)
𝑀𝐼𝑅 − 𝑃𝐼𝑅
𝐹𝑒 − 𝑂𝐿𝐼 =
𝑀𝐼𝑅 + 𝑃𝐼𝑅
Chakouri et al. (en cours)
03/02/2019 Pr. Abderrazak El Harti, FST Béni Mellal
INDICES DES SOLS et ROCHES
Deux méthodes :
– ISODATA
– K-means
2. SEUILLAGE
3. APPRENTISSAGE
4. CLASSIFICATION
5. EVALUATION
6. RESTITUTION
Parallélépipède
Minimum distance
Distance de mahalanobis
Maximum de vraisemblance
Spectral Angel Maper
Support Vector Machin
B1
1 3
B1 B2
4 2
P1 1 3
C1
P2 3 2
C2
P3 4 1
3 2
P4 2 4
1 4
B2
Pour chaque pixel 𝒂, les distances par rapport aux différentes classes sont
calculées
𝒅(𝒂, 𝝁𝒊 ) = (𝒂 − 𝝁𝒊 )𝟐