Télédétection Francais Fundamentals Partie1
Télédétection Francais Fundamentals Partie1
Télédétection Francais Fundamentals Partie1
de télédétection
2. Capteurs
2.1 Sur Terre, dans l'air et dans l'espace 35
2.2 Charactéristiques orbitales 37
2.3 Résolution 40
2.4 Résolution spectrale 42
2.5 Résolution radiométrique 44
2.6 Résolution temporelle 45
2.7 Photographie 46
2.8 Balayage multispectral 49
2.9 Infrarouge thermique 52
2.10 Distorsion géométrique 54
2.11 Observation météorologique 56
2.12 Observation de la Terre 62
2.13 Observation des océans 69
2.14 Autres détecteurs 72
2.15 Traitement des données 74
2.16 Notes finales 76
Saviez-vous? 77
Questions éclairs et réponses 85
3. Hyperfréquences
3.1 Introduction 93
3.2 Principes 97
3.3 Géométrie & résolution 100
3.4 Distorsion 103
3.5 Interaction 107
3.6 Propriétés des images 111
3.7 Applications 115
3.8 Polarimétrie 118
3.9 Radars 124
3.10 Systémes radar 126
3.11 Notes finales 130
Saviez-vous? 132
Questions éclairs et réponses 136
4. Analyse d'image
4.1 Introduction 142
4.2 Interprétation visuelle 145
4.3 Traitement d'images 148
4.4 Traitement 150
4.5 Rehaussement 155
4.6 Transformations 159
4.7 Classification 162
4.8 Intégration 165
4.9 Notes finales 168
Saviez-vous? 169
Questions éclairs et réponses 172
5. Applications
5.1 Introduction 176
5.2 Agriculture 179
Type de récoltes
Surveillance des récoltes
5.3 Foresterie 187
Coupes à blanc
Espèces
Zones brûlées/li>
5.4 Géologie 200
Formes de terrain
Unités géologiques
5.5 Hydrologie 208
Inondations
Humidité du sol
Crédits 262
Permissions 264
Téléchargez 265
1. Notions fondamentales de
télédétection
1 Introduction
Dans la plupart des cas, la télédétection implique une interaction entre l'énergie incidente et
les cibles. Le processus de la télédétection au moyen de systèmes imageurs comporte les
sept étapes que nous élaborons ci-après. Notons cependant que la télédétection peut
également impliquer l'énergie émise et utiliser des capteurs non-imageurs.
3. Interaction avec la cible (C) - Une fois parvenue à la cible, l'énergie interagit avec la
surface de celle-ci. La nature de cette interaction dépend des caractéristiques du
rayonnement et des propriétés de la surface.
4. Enregistrement de l'énergie par le capteur (D) - Une fois l'énergie diffusée ou émise par
la cible, elle doit être captée à distance (par un capteur qui n'est pas en contact avec la cible)
pour être enfin enregistrée.
Ces sept étapes couvrent le processus de la télédétection, du début à la fin. C'est dans cet
ordre que tout au long de ce cours, nous vous invitons à construire, étape par étape, votre
connaissance de la télédétection. Bon voyage !
La longueur d'onde équivaut à la longueur d'un cycle d'une onde, ce qui correspond à la
distance entre deux crêtes successives d'une onde. La longueur d'onde est représentée
habituellement par la lettre grecque lambda (λ), et est mesurée en mètres ou en l'un de ces
sous-multiples tels que les nanomètres (nm, 10-9 mètre), micromètres (µm, 10-6 mètre) ou
centimètres (cm, 10-2 mètre). La fréquence représente le nombre d'oscillations par unité de
temps. La fréquence est normalement mesurée en Hertz (Hz) (c.-à-d. en oscillations par
seconde) ou en multiples de Hertz. La formule suivante illustre la relation entre la longueur
d'onde et la fréquence :
Le spectre électromagnétique s'étend des courtes longueurs d'onde (dont font partie les
rayons gamma et les rayons X) aux grandes longueurs d'onde (micro-ondes et ondes radio).
La télédétection utilise plusieurs régions du spectre électromagnétique.
Avant que le rayonnement utilisé pour la télédétection n'atteigne la surface de la Terre, celui-
ci doit traverser une certaine épaisseur d'atmosphère. Les particules et les gaz dans
l'atmosphère peuvent dévier ou bloquer le rayonnement incident. Ces effets sont causés par
les mécanismes de diffusion et d'absorption. La diffusion se produit lors de l'interaction
entre le rayonnement incident et les particules ou les grosses molécules de gaz présentes
dans l'atmosphère. Les particules dévient le rayonnement de sa trajectoire initiale. Le niveau
de diffusion dépend de plusieurs facteurs comme la longueur d'onde, la densité de particules
et de molécules, et l'épaisseur de l'atmosphère que le rayonnement doit franchir. Il existe trois
types de diffusion :
la diffusion de Rayleigh
la diffusion de Mie
la diffusion non-sélective.
On parle de diffusion de Mie lorsque les particules sont presque aussi grandes que la
longueur d'onde du rayonnement. Ce type de diffusion est souvent produite par la poussière,
le pollen, la fumée et l'eau. Ce genre de diffusion affecte les plus grandes longueurs d'onde et
se produit surtout dans les couches inférieures de l'atmosphère où les grosses particules sont
plus abondantes. Ce processus domine quand le ciel est ennuagé.
La vapeur d'eau dans l'atmosphère absorbe une bonne partie du rayonnement infrarouge de
grandes longueurs d'onde et des hyperfréquences de petites longueurs d'onde qui entrent
dans l'atmosphère (entre 22µm et 1m). La présence d'eau dans la partie inférieure de
l'atmosphère varie grandement d'un endroit à l'autre et d'un moment à l'autre de l'année. Par
exemple, une masse d'air au-dessus d'un désert contient très peu de vapeur d'eau pouvant
absorber de l'énergie, tandis qu'une masse d'air au-dessus des tropiques contient une forte
concentration de vapeur d'eau.
Parce que ces gaz et ces particules absorbent l'énergie électromagnétique dans des régions
spécifiques du spectre, ils influencent le choix de longueurs d'onde utilisées en télédétection.
Les régions du spectre qui ne sont pas influencées de façon importante par l'absorption
atmosphérique, et qui sont donc utiles pour la télédétection, sont appelées les fenêtres
atmosphériques. En comparant les caractéristiques des deux sources d'énergie les plus
communes (le Soleil et la Terre) avec les fenêtres atmosphériques disponibles, nous pouvons
identifier les longueurs d'onde les plus utiles pour la télédétection. La portion visible du
spectre correspond à une fenêtre et au niveau maximal d'énergie solaire. Notez aussi que
l'énergie thermique émise par la Terre correspond à une fenêtre située à près de 10 mm dans
la partie de l'infrarouge thermique du spectre. Dans la partie des hyperfréquences, il existe
une grande fenêtre qui correspond aux longueurs d'onde de plus de 1 mm.
L'absorption (A) se produit lorsque l'énergie du rayonnement est absorbée par la cible, la
transmission (B) lorsque l'énergie du rayonnement passe à travers la cible et la réflexion (C)
lorsque la cible redirige l'énergie du rayonnement. En télédétection, nous mesurons le
rayonnement réfléchi par une cible. La réflexion spéculaire et la réflexion diffuse
représentent deux modes limites de réflexion de l'énergie.
Une surface lisse produit une réflexion spéculaire, c'est-à-dire que toute l'énergie est redirigée
dans une même direction (comme c'est le cas d'un miroir). La réflexion diffuse se produit
quand la surface est rugueuse, ce qui redirige l'énergie uniformément dans toutes les
directions. La plupart des objets de la surface terrestre se situent entre ces deux extrêmes. La
façon dont une cible réfléchit le rayonnement dépend de l'amplitude de la rugosité de la
surface par rapport à la longueur d'onde du rayonnement incident. Si la longueur d'onde du
rayonnement est beaucoup plus petite que la rugosité de la surface ou que la grosseur des
particules qui composent la surface, la réflexion diffuse domine. Par exemple, un sable fin
paraît uniforme aux rayonnements à grandes longueurs d'onde, mais rugueux aux longueurs
d'onde visibles.
Ces exemples démontrent que nous observons des réponses très différentes aux
mécanismes d'absorption, de transmission et de réflexion selon la composition de la cible et
la longueur d'onde du rayonnement qui lui est propre. En mesurant l'énergie réfléchie ou
émise par la cible avec une variété de longueurs d'onde, nous pouvons construire la signature
spectrale pour un objet. En comparant les signatures de différents objets, nous pouvons les
distinguer les uns des autres, alors que nous ne pourrions peut-être pas les distinguer si nous
les comparions seulement avec une longueur d'onde.
Par exemple, l'eau et la végétation peuvent avoir une signature spectrale similaire aux
longueurs d'onde visibles, mais sont presque toujours différenciables dans l'infrarouge. Les
signatures spectrales peuvent être très variables pour la même sorte de cible et peuvent
aussi varier dans le temps et dans l'espace. Pour interpréter correctement l'interaction du
rayonnement électromagnétique avec la surface, il est important de savoir où regarder dans
le spectre et de comprendre les facteurs qui influencent la signature spectrale de la cible.
Avant de passer au prochain chapitre qui traite des capteurs et de leurs caractéristiques, nous
devons définir et expliquer quelques termes et concepts fondamentaux associés aux images
de télédétection.
Ces deux différentes façons de représenter et d'afficher les données de télédétection, par des
moyens photographiques ou numériques, sont interchangeables car elles représentent la
même information (mais chaque conversion peut engendrer une perte de précision).
Dans la section précédente, nous avons décrit la portion visible du spectre et le concept de
couleur. Nous percevons les couleurs parce que nos yeux captent la gamme entière des
longueurs d'onde visibles et notre cerveau transforme cette information en couleurs distinctes.
Imaginez le monde si nous ne pouvions percevoir qu'une seule bande étroite de longueurs
d'onde ou de couleur ! De nombreux capteurs fonctionnent de cette façon. L'information d'une
gamme étroite de longueur d'onde est captée et emmagasinée sous forme numérique dans
un fichier réprésentant la bande de longueurs d'onde. Il est ensuite possible de combiner et
d'afficher de ces bandes d'information numérique en utilisant les trois couleurs primaires
(rouge, vert, bleu). Les données de chaque bande sont représentées comme une couleur
primaire et, selon la luminosité relative (c.-à-d. valeur numérique) de chaque pixel dans
chaque bande, les couleurs se combineront en proportions différentes pour produire des
couleurs distinctes.
Lorsque nous utilisons cette méthode pour afficher une seule bande ou gamme de longueurs
d'onde, nous affichons réellement cette bande avec les trois couleurs primaires. Parce que la
luminosité de chaque pixel est la même pour chaque couleur primaire, les couleurs se
combinent et produisent une image en noir et blanc. L'image est donc affichée avec ses
différentes teintes de gris, de noir à blanc. Lorsque nous affichons plus d'une bande, chaque
bande ayant une couleur primaire différente, le niveau de luminosité peut être différent pour
chaque combinaison de bandes ou de couleurs primaires, et les couleurs se combinent pour
former un composé couleurs.
Par exemple, vous aimeriez peut-être jeter un coup d'oeil à certaines définitions
conventionnelles2 ou moins conventionnelles3 de la télédétection.
Nous vous offrons une explication qui, calculs à l'appui, vous indique à quel point vous
devriez vous inquiéter des effets des radiations émises par RADARSAT4, le premier satellite
canadien.
Vous voulez savoir comment ces divers éléments eau6, roches7, glace8, constructions
humaines9, and déversements d'hydrocarbures10 interagissent avec les micro-ondes ?
Notre « Glossaire de télédétection »11. Cherchez sur le site pour trouver les termes
spécifiques qui vous intéressent ou pour réviser les termes dans la catégorie « phénomènes
».
1http://www.ccrs.nrcan.gc.ca/
2http://www.ccrs.nrcan.gc.ca/ccrs/learn/terms/definition/convdef_e.html
3http://www.ccrs.nrcan.gc.ca/ccrs/learn/terms/definition/unconvdef_e.html
4http://www.ccrs.nrcan.gc.ca/ccrs/learn/fun/radiation/radiation_e.html
5http://www.ccrs.nrcan.gc.ca/ccrs/rd/apps/landcov/rad/emrad_e.html
6http://www.ccrs.nrcan.gc.ca/ccrs/data/satsens/radarsat/images/man/rman01_e.html
7http://www.ccrs.nrcan.gc.ca/ccrs/data/satsens/radarsat/images/nwt/rnwt01_e.html
8http://www.ccrs.nrcan.gc.ca/ccrs/data/satsens/radarsat/images/pei/rpei01_e.html
9http://www.ccrs.nrcan.gc.ca/ccrs/rd/ana/cnfdbrig/confed_e.html
10http://www.ccrs.nrcan.gc.ca/ccrs/data/satsens/radarsat/images/uk/ruk01_e.html
11http://www.ccrs.nrcan.gc.ca/ccrs/learn/terms/glossary/glossary_e.html
1. Saviez-vous que...?
1.1 Le saviez-vous?
Trois de nos cinq sens (la vue, le toucher, l'ouïe, le goût, l'odorat et le toucher) peuvent être
considérés comme une forme de télédétection, puisque la source d'information est à distance.
Les deux autres sont directement en contact avec la source d'information - de quels sens
s'agit-il ?
... Vous pouvez utiliser un oscilloscope, instrument électronique qui permet de visualiser des
ondes semblables au rayonnement électromagnétique, pour voir la longueur d'onde et la
fréquence de votre voix. Les sons aigus ont des longueurs d'onde courtes et des fréquences
élevées, tandis que les sons graves possèdent une fréquence basse et une grande longueur
d'onde. Selon les scientifiques, la Terre vibre à très basse fréquence, ce qui produit un son
trop bas pour être perçu par une oreille humaine. Le même principe (appliqué aux ondes
lumineuses) est utilisé par les astronomes pour calculer la vitesse d'éloignement de certaines
étoiles.
Chaque gouttelette d'eau agit comme un petit prisme. Quand la lumière du Soleil traverse les
gouttelettes, les ondes composantes sont déviées différemment selon leurs longueurs
respectives. Les couleurs individuelles de la lumière du Soleil sont alors visibles, ce qui
produit un arc-en-ciel. Les petites longueurs d'onde (violet, bleu) se situent vers l'intérieur de
l'arc-en-ciel, et les grandes vers l'extérieur (orange, rouge).
... Sans la diffusion du rayonnement dans l'atmosphère, les ombrages paraîtraient noirs au
lieu de gris. La diffusion donne une certaine luminosité à l'atmosphère, par suite de la
dispersion de la lumière du Soleil qui illumine les objets situés dans l'ombre.
... Les couleurs que nous percevons sont une combinaison des interactions du rayonnement
(absorption, transmission et réflexion) et représentent les longueurs d'onde reflétées. Si
toutes les longueurs d'onde visibles sont reflétées par un objet, celui-ci paraît blanc, tandis
qu'un objet qui absorbe toutes les longueurs d'onde visibles paraît sans couleurs (ou noir).
« Souriez... »
...Un appareil photo est un bon exemple d'un capteur passif et actif. Durant une journée
ensoleillée, il y a assez de lumière qui illumine la cible pour que la caméra enregistre le
rayonnement qui est reflété vers sa lentille (mode passif). Lors d'une journée nuageuse ou à
l'intérieur, souvent il n'y a pas assez de lumière pour que la caméra enregistre adéquatement
la cible. Pour combler le manque de rayonnement, la caméra utilise sa propre source
d'énergie (un flash) pour illuminer la cible (mode actif).
1.7 Saviez-vous?
Est-ce que la télédétection peut utiliser autre chose que l'énergie électromagnétique?
1.1 Réponse
Bien qu'il soit généralement admis que le terme « télédétection » implique l'utilisation de
l'énergie électromagnétique, une définition plus générale présentant la télédétection comme
une «méthode d'acquisition à distance» ne restreint pas le type d'énergie au spectre
électromagnétique. Par exemple, une conversation téléphonique peut être considérée comme
un type de télédétection.
Le premier élément nécessaire à la télédétection est une source d'énergie pour illuminer une
cible. Quelle est d'après vous la source d'énergie électromagnétique la plus abondante à
laquelle nous ayons accès ? Quel est le dispositif de télédétection que nous utilisons pour
percevoir cette énergie?
1.2 Réponses
1. Le Soleil est la source d'énergie électromagnétique la plus abondante, et est utilisé comme
source d'énergie initiale principale en télédétection. Nos yeux sont les dispositifs de
télédétection que nous utilisons pour capter le rayonnement du Soleil. Ils peuvent être
considérés comme des capteurs de télédétection (et ils sont très bons) car ils captent la
lumière visible du Soleil, ce qui nous permet de voir. Il existe d'autres types de lumière qui
sont invisibles à l'oeil nu... nous en discuterons plus loin.
En utilisant l'équation qui démontre la relation entre la longueur d'onde et la fréquence, nous
pouvons calculer la longueur d'onde du rayonnement qui possède une fréquence de 500 000
Ghz.
La partie infrarouge du spectre électromagnétique est divisée en une partie dite de réflexion
et une partie d'émission. Est-il possible de prendre des photographies dans ces longueurs
d'ondes?
1.3 Réponse
Oui et non ! Il existe des pellicules noir et blanc et des pellicules couleurs qui sont sensibles à
la partie réfléchie de la partie infrarouge du spectre. Ces pellicules sont utilisées à des fins de
recherche scientifique et aussi pour la photographie artistique. Toutefois, il n'existe aucune
pellicule permettant d'enregistrer la partie émise du rayonnement infrarouge (la chaleur). Si
elles étaient disponibles, ces pellicules devraient être conservées en permanence à des
températures très basses, ce qui ne serait pas très pratique. Heureusement, il existe de
nombreux appareils électroniques qui permettent de détecter et d'enregistrer des images de
la partie émise du rayonnement électromagnétique.
1.4 Réponses
Par une nuit claire, quand la lune est en croissant, il est possible de voir le profil et même
quelques détails de la partie ombragée de la lune. D'où la lumière qui éclaire la partie
ombragée de la lune peut-elle bien venir?
1.5 Réponse
La lumière vient du soleil (bien sûr), elle frappe la Terre, rebondit sur le côté ombragé de la
lune et revient jusqu'à vos yeux. Un long parcours, n'est-ce pas?
1.6 Réponse
Eh oui ! Les radiomètres à micro-ondes passives ne possèdent pas leur propre source
d'illumination. Ces capteurs utilisent l'énergie des micro-ondes émises naturellement. Un tel
instrument est très utile pour la détection, l'identification et la mesure des nappes
d'hydrocarbures océaniques.
2. Quel serait l'avantage d'afficher simplement des images de longueurs d'onde variées en
combinaison pour faire une image couleur au lieu d'examiner chaque image individuellement.
1.7 Réponses
1. Parce que les deux types d'arbres présenteraient la même teinte de vert à l'oeil nu, une
image (ou photographie) utilisant la portion visible du spectre ne serait pas utile. De plus, il
serait difficile de distinguer les deux types de feuilles dans une photographie aérienne à partir
de la forme ou de la taille des cimes, particulièrement si les arbres se trouvent dans une forêt
mixte. En regardant les courbes de réflectance des deux types d'arbres, il est évident qu'il
serait difficile de les distinguer à partir des longueurs d'onde visibles. Mais, dans le proche
infrarouge, même si les deux reflètent une bonne portion du rayonnement incident, ils sont
clairement identifiables. Donc, un dispositif de télédétection, tel qu'un film noir et blanc
infrarouge, qui capte la réflexion infrarouge autour de 0,8 µm, serait idéal pour cette étude.
2. En combinant les images qui représentent différentes longueurs d'onde, nous pourrions
identifier des combinaisons de réflectance entre les différentes bandes qui mettent au premier
plan les objets que nous ne pourrions pas voir si nous les examinions une bande à la fois. De
plus, ces combinaisons peuvent se manifester comme des variations subtiles de couleur (que
nos yeux perçoivent plus facilement), au lieu de variations de teintes de gris si nous
examinons seulement une image à la fois.
2. Plates-formes et capteurs
2.1 Sur Terre, dans l'air et dans l'espace
Pour enregistrer adéquatement l'énergie réfléchie ou émise par une surface ou une cible
donnée, on doit installer un capteur sur une plate-forme distante de la surface ou de la cible
observée. Ces plates-formes peuvent être situées près de la surface terrestre, comme par
exemple au sol, dans un avion ou un ballon ; ou à l'extérieur de l'atmosphère terrestre,
comme par exemple sur un véhicule spatial ou un satellite.
L'utilisation des avions est fréquente car cela facilite la cueillette de données ou d'images
détaillées de la surface de la Terre, exactement à l'endroit et au moment voulus.
Dans la section précédente, nous avons vu que les capteurs peuvent être placés sur
différentes plates-formes. Bien que les plates-formes terrestres ou aéroportées soient
utilisées, ce sont les satellites qui fournissent la majeure partie des données recueillies par
télédétection de nos jours. Certaines caractéristiques propres aux satellites en font des
instruments particulièrement utiles pour l'acquisition d'information sur la surface de la Terre.
sur plusieurs années ou pour une région particulière sur plusieurs jours. Ceci est un facteur
important lorsqu'on compare deux images successives ou lorsqu'on produit une mosaïque
avec des images adjacentes, puisque les images n'ont pas à être corrigées pour tenir
compte de l'illumination solaire.
Les points sur la surface de la Terre qui se trouvent directement en dessous de la trajectoire
du satellite sont appelés les points nadir. On définit le cycle de passage du satellite comme
étant la période de temps nécessaire pour que le satellite revienne au-dessus d'un point
nadir pris au hasard. Le satellite aura alors effectué un cycle orbital complet. La période de
temps nécessaire pour compléter un cycle orbital complet varie d'un satellite à l'autre. La
durée du cycle orbital ne doit pas être confondue avec la période de revisite. Avec les
capteurs orientables, les instruments peuvent observer une surface avant et après les
passages de l'orbite au-dessus de la cible, ce qui permet une période de revisite beaucoup
plus courte que le cycle orbital. La période de passage au nadir est un facteur important pour
plusieurs applications de la télédétection, spécialement lorsque des images fréquentes sont
nécessaires (par exemple : pour surveiller la dispersion lors d'un déversement
d'hydrocarbures ou pour mesurer l'ampleur d'une inondation). Les satellites à orbite quasi-
polaire ont une couverture plus fréquente des régions de latitude élevée par rapport à la
couverture des zones équatoriales. Cette plus grande couverture est due à l'élargissement,
vers les pôles, de la zone de chevauchement entre deux fauchées adjacentes.
Comme nous l'avons mentionné au chapitre 1, les images de télédétection sont composées
d'une matrice d'éléments appelés pixels. Le pixel est le plus petit élément d'une image. Il est
normalement carré et représente une partie de l'image. Il est cependant important de faire la
distinction entre l'espacement des pixels et la résolution spatiale. Si un capteur a une
résolution spatiale de 20 mètres et qu'il est possible de charger à l'écran une image provenant
de ce capteur avec la pleine résolution, chaque pixel à l'écran représentera une superficie
correspondant à 20 m sur 20 m au sol. Dans ce cas, la résolution et l'espacement des pixels
sont identiques. Par contre, il est possible d'afficher la même image avec un espacement des
pixels qui soit différent de la résolution. Sur de nombreuses affiches montrant des images de
la Terre prises à partir d'un satellite, on combine plusieurs pixels en les moyennant, mais ceci
ne modifie en rien la résolution spatiale du capteur utilisé.
Les images sur lesquelles seuls les grands éléments sont visibles ont une résolution
"grossière" ou "basse". Les images à résolution fine ou élevée permettent l'identification
d'éléments de plus petites dimensions. Les capteurs utilisés par les militaires par exemple,
sont conçus pour obtenir le plus de détails possible. Ils ont donc une résolution très fine. Les
satellites commerciaux ont une résolution qui varie de quelques mètres à plusieurs
kilomètres. De façon générale, plus la résolution augmente, plus la superficie de la surface
visible par le capteur diminue.
Le rapport entre la distance que l'on mesure sur une image ou une carte, et la distance
correspondante au sol est appelée échelle. Une carte ayant une échelle de 1:100 000
représente un objet au sol de 100 000 cm (1 km) par un objet de 1 cm. Les cartes pour
lesquelles le rapport est petit (1:100 000) sont des cartes à petite échelle, tandis que les
cartes pour lesquelles ce rapport est plus grand (1:5 000) sont des cartes à grande échelle.
Une pellicule noir et blanc utilisée dans un appareil photographique enregistre les longueurs
d'onde sur presque toutes les longueurs d'onde situées dans le spectre visible. Sa résolution
spectrale est assez grossière, car les différentes longueurs d'onde ne sont pas différenciées
par la pellicule qui n'enregistre que l'ensemble de l'énergie lumineuse captée par l'objectif.
Une pellicule couleur est sensible elle aussi à l'ensemble des longueurs d'onde visibles, mais
elle possède une résolution spectrale plus élevée puisqu'elle peut distinguer les longueurs
d'onde dans le bleu, le vert et le rouge. Cette pellicule peut donc caractériser l'intensité
lumineuse détectée selon ces intervalles de longueurs d'onde.
L'arrangement des pixels décrit les structures spatiales d'une image tandis que les
caractéristiques radiométriques décrivent l'information contenue dans une image. Chaque fois
qu'une image est captée par une pellicule ou un capteur, sa sensibilité à l'intensité de
l'énergie électromagnétique détermine la résolution radiométrique. La résolution
radiométrique d'un système de télédétection décrit sa capacité de reconnaître de petites
différences dans l'énergie électromagnétique. Plus la résolution radiométrique d'un capteur
est fine, plus le capteur est sensible à de petites différences dans l'intensité de l'énergie
reçue. La gamme de longueurs d'onde à l'intérieur de laquelle un capteur est sensible se
nomme plage dynamique.
Les données images sont représentées par une valeur numérique variant entre 0 et 2 à une
certaine puissance moins un. Cet intervalle correspond à un nombre de bits utilisés pour
encoder des valeurs en format binaire. Chaque bit représente un exposant de la base 2 (par
exemple, 1 bit = 21 = 2). Le nombre maximum de niveaux d'intensité disponibles dépend du
nombre de bits utilisés pour représenter l'intensité enregistrée. Par exemple, un capteur
utilisant 8 bits pour enregistrer les données aura 28 = 256 niveaux d'intensité disponibles car il
aura 256 valeurs numériques disponibles allant de 0 à 255. Si seulement 4 bits sont utilisés,
alors seulement 24 = 16 valeurs allant de 0 à 15 seront disponibles. La résolution
radiométrique sera donc plus faible. Les données enregistrées sont souvent affichées en tons
de gris, avec le noir représentant une valeur numérique de "0" et le blanc représentant la
valeur numérique maximale. En comparant une image de 2-bits à une image de 8-bits à une
image de 8-bits d'une même scène, on peut voir l'énorme différence dans le nombre de
détails qu'il est possible de distinguer selon la résolution radiométrique.
la couverture nuageuse est persistante (par exemple sous les tropiques), ce qui limite
les moments où il est possible d'observer la surface;
l'on veut surveiller des phénomènes de courte durée (inondations, déversements
d'hydrocarbures, etc.);
l'on a besoin d'images multitemporelles (par exemple, pour étudier d'une année à
l'autre, l'étendue d'une maladie s'attaquant aux forêts);
les changements temporels dans l'apparence d'une caractéristique sont utilisés pour
différencier celle-ci d'une autre caractéristique similaire (par exemple, pour faire la
différence entre les cultures de blé et de maïs).
La photographie
couleur et
pseudo-couleur
(ou couleur
infrarouge (CIR))
nécessite
l'utilisation de
trois niveaux de
sensibilité dans
la pellicule,
chaque niveau
étant sensible à
trois bandes de
longueurs d'onde. Pour une photographie couleur normale les niveaux sont sensibles à la
lumière bleue, verte et rouge, comme notre oeil. Ces photos nous apparaissent de la même
façon que notre oeil perçoit l'environnement et les couleurs nous apparaissent normales (ex. :
les feuilles sont vertes). Pour les photographies couleur infrarouge, les trois niveaux de
sensibilité enregistrent le vert, le rouge et une portion du proche infrarouge qui sont ensuite
traités pour apparaître bleu, vert et rouge respectivement. Pour les photographies pseudo-
couleur, les cibles ayant une forte réflexivité dans le proche infrarouge apparaissent rouges,
celles qui ont une forte réflexivité dans le rouge apparaissent vertes et celles avec une forte
réflexivité dans le vert apparaissent bleues.
Les photographies verticales prises avec un appareil photographique à lentille unique sont
les photos aériennes les plus communes en télédétection et en cartographie. Ces appareils
photographiques sont spécialement faits pour exécuter rapidement une série de clichés, en
limitant la distorsion géométrique. Ils sont souvent reliés à un système de navigation à bord
de l'avion, ce qui permet une identification précise des coordonnées géographiques qui sont
automatiquement assignées à chaque photographie. La plupart de ces systèmes ont aussi un
mécanisme qui compense pour l'effet du déplacement de l'avion par rapport au sol, de façon
à limiter, encore une fois, toutes distorsions dans l'image.
Afin d'obtenir des photographies aériennes verticales, l'avion survole la surface terrestre le
long de lignes appelées lignes de vol. Les photos sont prises rapidement, l'appareil
photographique étant pointé directement vers le sol. Deux photos successives ont un
pourcentage de chevauchement de 50% à 60% (A). Ce chevauchement entre les images
assure une couverture totale de la superficie le long de la ligne de vol et facilite le
visualisation stéréoscopique des photographies. Grâce au chevauchement, les photos
montrant la même région mais prises d'une perspective différente, sont jumelées et
visionnées à l'aide d'un dispositif appelé le stéréoscope. Ce dispositif permet d'avoir une vue
en trois dimensions de la région appelée un modèle stéréo. Cette méthode de visualisation
Peu importe le système de balayage utilisé, ces systèmes possèdent des avantages marqués
sur les systèmes photographiques. Les systèmes photographiques sont limités à l'utilisation
de bandes spectrales dans le visible et dans la proche infrarouge, tandis que les BMS
peuvent aussi utiliser l'infrarouge. Les BMS ont aussi une résolution spectrale supérieure aux
systèmes photographiques. Les systèmes photographiques multispectraux utilisent des
lentilles distinctes pour détecter chacune des bandes spectrales. Il est donc difficile de
s'assurer que les résolutions spatiale et radiométrique de chacune des bandes sont
semblables et qu'elles demeurent inchangées entre deux images. Les BMS détectent toutes
les bandes simultanément en utilisant le même système optique, ce qui permet de contourner
Les longueurs d'onde de la radiation infrarouge thermique sont relativement Grandes par
rapport aux les longueurs d'onde de la partie visible du spectre. Les effets de la diffusion
atmosphérique sont donc minimaux. Cependant, l'absorption de cette radiation par les gaz
atmosphériques restreint normalement la détection utilisant ces longueurs d'onde à deux
régions : la première de 3 à 5 microns, et la deuxième de 8 à 14 microns. Les capteurs
d'infrarouge thermique ont généralement un CVI large afin de permettre à une quantité
d'énergie suffisante d'atteindre le capteur. Cette précaution est nécessaire car la quantité
d'énergie décroît avec l'augmentation de la longueur d'onde. La résolution spatiale des
capteurs d'infrarouge est habituellement assez grossière comparativement à la résolution
spatiale qu'il est possible d'atteindre dans le visible et l'infrarouge réfléchi. Les images
provenant d'un capteur thermique sont prises durant le jour ou la nuit (parce que la radiation
est émise et non réfléchie) et sont utilisées dans plusieurs domaines comme la
reconnaissance militaire, la gestion des désastres (détection des feux de forêts) et la
détection de fuites de chaleur.
Plusieurs formes de distorsion géométrique sont possibles. Toutes les images obtenues par
télédétection affichent, au départ, une ou plusieurs formes de distorsion géométrique, peu
importe quelles aient été obtenues à partir d'un balayeur multispectral à bord d'un satellite,
d'un système photographique à bord d'un avion ou à partir de toute autre plate-forme. Ce
problème est inhérent à la télédétection puisque celle-ci tente généralement de représenter
des données prises à la surface de la Terre (en trois dimensions) sur une image
bidimensionnelle. Les formes de distorsion géométrique dont peut souffrir une image
dépendent de la façon dont les données ont été acquises. Voici une liste de quelques facteurs
pouvant influencer la distorsion géométrique :
Les systèmes à découpage, comme les appareils photographiques, fournissent une image
instantanée de la portion de la surface se trouvant directement sous l'appareil. La principale
distorsion pour les photos aériennes verticales prend la forme d'un déplacement du relief.
Pour les objets directement sous le centre de la lentille (c.-à-d. au point nadir), seul le sommet
de l'objet sera visible, alors que pour tous les autres objets dans la photo, un côté est visible
en plus du sommet, ce qui donne l'impression que ces objets s'allongent vers les bords de
l'image. Plus l'objet est haut ou plus il est loin du centre, plus la distorsion est grande et plus
la position de l'objet est erronée.
La géométrie des systèmes à balayage parallèle à la trajectoire est semblable à celle des
systèmes de photographie aérienne puisque, pour chaque ligne balayée, chaque détecteur
prend une image instantanée de chacune des cellules de résolution au sol. Certaines
variations géométriques entre les lignes balayées peuvent être causées par les variations
dans l'altitude et le comportement de la plate-forme le long de sa trajectoire.
Les images provenant d'un système à balayage perpendiculaire à la trajectoire sont sujettes à
deux types de distorsions géométriques. Premièrement, elles sont sujettes aux déplacements
du relief (A) de la même façon que les photos aériennes, mais seulement dans la direction
parallèle à celle du balayage. Ce type de distorsion n'est pas présent au nadir, mais au fur et
à mesure que le balayage s'effectue perpendiculairement à la trajectoire, le sommet et le côté
des objets détectés semblent s'allonger en s'éloignant du point nadir pour chaque ligne de
balayage. L'autre type de distorsion de ces images (B) est causé par la rotation du système
de balayage. Au cours du balayage, la distance entre le capteur et la surface augmente de
plus en plus en s'éloignant du centre du couloir-couvert. Même si le miroir permettant le
balayage tourne à une vitesse constante, le CVI du capteur se déplace plus rapidement par
rapport à la surface et capte une région plus grande lorsqu'il se déplace près des bords de
l'image. Cet effet produit une compression des caractéristiques de l'image pour les points
éloignés du nadir et s'appelle distorsion tangentielle d'échelle.
Toutes les images sont sujettes aux distorsions géométriques causées par les variations dans
la stabilité de la plate-forme pendant la prise des données, incluant des variations de vitesse,
d'altitude, de comportement (l'orientation angulaire par rapport au sol). Ces effets sont plus
prononcés lorsque les données proviennent de plates-formes aériennes que lorsqu'elles
proviennent de plates-formes spatiales, puisque la trajectoire des plates-formes spatiales est
relativement stable, particulièrement en ce qui a trait à leur altitude. Cependant, la rotation
d'est en ouest de la Terre durant l'orbite du capteur à balayage cause, à chaque balayage, un
léger déplacement vers l'ouest de la zone observée. L'image qui en résulte présente une
forme de distorsion appelée distorsion oblique. Ce type de distorsion est typique lorsque les
images proviennent d'un capteur multispectral monté sur un satellite.
Nous en savons maintenant un peu plus sur les caractéristiques des plates-formes et des
capteurs. La prochaine section présente certains capteurs spécifiques, principalement sur
plate-forme spatiale, qui utilisent la radiation visible et l'infrarouge.
GOES
Deux générations de satellites GOES ont été lancés pour mesurer les rayonnements émis et
réfléchis, desquels nous pouvons dériver les températures atmosphériques, les vents,
l'humidité et la couverture de nuages. La première génération de satellites GOES s'étend de
1975 (avec GOES-1) à 1992 (avec GOES-7). La conception des satellites GOES-1 à GOES-7
ne leur permettait d'imager la Terre qu'environ 5% du temps. Avec GOES-8 (lancé en 1994)
on a procédé à plusieurs améliorations techniques. Ces satellites peuvent observer la Terre
de façon presque continue, ce qui permet de prendre plus d'images (à toutes les quinze
minutes). Cette augmentation en résolution temporelle, jumelée aux améliorations de la
résolution spatiale et radiométrique des capteurs, procure une information pertinente et des
données de meilleure qualité pour la prédiction des conditions météorologiques.
Bandes de GOES
Domaine
Résolution
Bande spectral Application
spatiale
(microns)
0,52 - 0,72 Nuages, pollution, identification de
1 1 km
(visible) tempêtes sévères
Identification de la brume durant la nuit,
différenciation des nuages de pluie et de
3,78 - 4,03 neige ou glace durant le jour; détection de
2 4 km
(proche IR) feux et d'éruptions volcaniques,
détermination de la température de la
surface des océans durant la nuit
évaluation de l'advection et du contenu en
6,47 - 7,02 humidité des couches atmosphériques
(vapeur d'eau au intermédiaires. Suivi du mouvement des
3 4 km
niveau masses atmosphériques intermédiaires.
supérieur) Suivi du mouvement des masses
atmosphériques
10,2 - 11,2 (IR à identification des vents qui entraînent les
4 longue longueur 4 km nuages, les tempêtes sévères, la pluie
d'onde) torrentielle
11,5 - 12,5 identification de l'humidité dans la couche
(fenêtre de l'IR inférieure de l'atmosphère, détermination
5 qui est sensible 4 km de la température de la surface des
à la vapeur océans, détection de poussière et de
d'eau) cendre volcanique dans l'atmosphère
NOAA AVHRR
La NOAA opère aussi une autre série de satellites utiles pour la météorologie et pour d'autres
applications. Ces satellites, en orbite polaire héliosynchrone (830 à 870 km au-dessus de la
Terre), font partie de la série Advanced TIROS (datant du début des années 1960). Ils
complètent l'information fournie par les satellites géostationnaires (comme GOES). Les deux
satellites, dont chacun produit une couverture totale de la Terre, travaillent conjointement pour
assurer que les données de toutes les régions de la Terre soient mises à jour au moins à
toutes les six heures. Un satellite croise l'équateur du nord au sud, tôt le matin, et l'autre le
À bord des satellites NOAA se trouve le capteur primaire AVHRR (Advanced Very High
Resolution Radiometer). Celui-ci est utilisé pour la météorologie et pour l'observation à petite
échelle de la surface de la Terre. Le capteur AVHRR capte le rayonnement
électromagnétique du visible, proche IR, du moyen IR et de l'IR thermique. La fauchée au sol
mesure 3000 km. Le tableau suivant décrit les bandes AVHRR, leurs longueurs d'onde, leurs
résolutions spatiales (au nadir) et leurs applications générales.
Domaine Résolution
Bande Application
spectral (µm) spatiale
surveillance des nuages, de la neige
1 0,58 - 0,68 (rouge) 1,1 km
et de la glace
0,725 - 1,1 surveillance de l'eau, de la végétation,
2 1,1 km
(proche IR) et de l'agricole
3,55 - 3,93(IR température de la surface des océans,
3 1,1 km
moyen) volcans, feux de forêts
10,3 - 11,3(IR température de la surface des océans,
4 1,1 km
thermique) humidité du sol
11,5 - 12,5 (IR température de la surface des océans,
5 ,1 km
thermique) humidité du sol
Les données du capteur AVHRR peuvent être achetées et formatées en quatre modes
opérationnels qui se distinguent par leurs résolutions et leurs modes de transmission. Les
données peuvent être retransmises directement au sol et visionnées tout de suite après
qu'elles aient été captées, ou elles peuvent être enregistrées à bord du satellite pour être
retransmises et traitées plus tard. Le tableau suivant décrit les différents formats de données
et leurs caractéristiques.
Résolution
Format Transmission et traitement
spatiale
APT (Automatic Picture transmission directe et affichage à faible
4 km
Transmission) résolution
HRPT (High Resolution transmission directe et affichage à pleine
1,1 km
Picture Transmission) résolution
GAC (Global Area image à faible résolution de données
4 km
Coverage) enregistrées
données choisies à pleine résolution
LAC (Local Area
1,1 km d'une région locale provenant de
Coverage)
données enregistrées
Il existe plusieurs autres satellites météorologiques en orbite qui ont été lancés et qui sont
exploités par d'autres pays ou groupe de pays dont le Japon avec la série GMS, et la
communauté européenne avec les satellites Météosat. Les deux séries sont composées de
satellites géostationnaires situés au-dessus de l'équateur et aux mêmes degrés de longitude
que le Japon et l'Europe. Ces satellites prennent des images toutes les demi-heures, comme
les satellites GOES. Les satellites GMS possèdent deux bandes : l'une de 0,5 à 0,75 µm
(résolution spatiale de 1,25 km) et l'autre de 10,5 à 12,5 mm (résolution spatiale de 5 km).
Météosat possède trois bandes : une bande dans le visible (0,4 à 1,1 mm, résolution spatiale
de 2,5 km), une dans l'IR moyen (5,7 à 7,1 µm, résolution spatiale de 5 km), et une dans l'IR
thermique (10,5 à 12,5 µm, résolution spatiale de 5 km).
Landsat
Parmi les facteurs qui ont contribué au succès de Landsat, il faut mentionner une
combinaison de capteurs avec des domaines spectraux façonnés pour l'observation de la
Terre, une résolution spatiale fonctionnelle et une bonne couverture du globe (fauchée et
répétitivité). La longévité du programme a permis d'accumuler des archives de données
volumineuses sur les ressources terrestres, ce qui facilite la surveillance à long terme ainsi
que le maintien des données historiques et de la recherche. Tous les satellites Landsat ont
été placés en orbite héliosynchrone polaire. Les trois premiers satellites (Landsat-1 à
Landsat-3) se situaient à une altitude de 900 km avec une répétitivité de 18 jours, tandis que
les derniers orbitent à une altitude approximative de 700 km avec une répétitivité de 16 jours.
Tous les satellites Landsat croisent l'équateur le matin pour profiter des conditions
d'illumination optimales.
Les satellites de la série Landsat portent plusieurs capteurs comme les systèmes de caméras
RBV (Return Beam Vidicon), le système MSS (Multi Spectral Scanner), et plus tard, le TM
(Thematic Mapper) Chacun de ces capteurs a une fauchée de 185 km, avec une scène
complète de 185 km sur 185 km.
Bandes MSS
La collecte routinière de données MSS a cessé en 1982 à cause de l'utilisation des données
TM qui a commencé avec Landsat 4. Le capteur TM capteur MSS, le capteur TM apporte
plusieurs améliorations : une meilleure résolution spatiale et radiométrique, des bandes
spectrales plus étroites, sept bandes spectrales par rapport à quatre pour le MSS, et une
augmentation du nombre de détecteurs par bandes (seize pour les bandes non thermiques
par rapport à six pour MSS). Seize lignes de balayage sont captées simultanément pour
chaque bande spectrale non thermique (quatre pour les bandes thermiques). Les seize lignes
sont captées simultanément à l'aide d'un miroir oscillant qui balaie à l'aller (de l'ouest vers
l'est) et au retour (de l'est vers l'ouest) du miroir. Cette différence par rapport au capteur MSS
augmente le temps d'arrêt sur un objet et améliore l'intégrité géométrique et radiométrique
des données. La limite de résolution spatiale du TM est de 30 m pour toutes les bandes, sauf
l'infrarouge thermique qui est de 120 m. Toutes les bandes sont enregistrées sur une étendue
de 256 valeurs numériques (8 octets). Le tableau suivant décrit la résolution spectrale des
bandes individuelles TM et leurs applications.
Bandes TM
Domaine
Bandes spectral Application
(microns)
discrimination entre le sol et la végétation,
TM 1 0,45 - 0,52 (bleu) bathymétrie/cartographie côtière; identification des
traits culturels et urbains
cartographie de la végétation verte (mesure le sommet
TM 2 0,52 - 0,60 (vert) de réflectance); identification des traits culturels et
urbains
discrimination entre les espèces de plantes à feuilles
0,63 - 0,69
TM 3 ou sans feuilles; (absorption de chlorophylle);
(rouge)
identification des traits culturels et urbains
identification des types de végétation et de plantes;
0,76 - 0,90
TM 4 santé et contenu de la masse biologique; délimitation
(proche IR)
des étendues d'eau; humidité dans le sol
1,55 - 1,75 (IR de
sensible à l'humidité dans le sol et les plantes;
TM 5 courte longueur
discrimination entre la neige et les nuages
d'onde)
discrimination du stress de la végétation et de
10,4 - 12,5 (IR
TM 6 l'humidité dans le sol relié au rayonnment thermique;
thermique)
cartographie thermique
2,08 - 2,35 (IR de
discrimination entre les minéraux et les types de
TM 7 courte longueur
roches; sensible au taux d'humidité dans la végétation
d'onde)
SPOT
Tous les satellites SPOT ont deux balayeurs multibandes HRV (haute résolution visible) à
barrettes, qui peuvent être opérés indépendamment ou simultanément. Chaque HRV peut
capter en mode panchromatique (une seule bande) et offre une excellente limite de résolution
spatiale de 10 m. Ils peuvent aussi capter en mode multibande (MLA) (trois bandes) qui offre
une résolution spatiale de 20 m. Chaque balayeur à barrettes est composé de quatre rangs
linéaires de détecteurs : un de 6 000 éléments pour l'enregistrement en mode
panchromatique, et un de 3 000 éléments pour chacune des trois bandes multispectrales. La
fauchée pour les deux modes est de 60 km à partir du nadir. Le tableau suivant décrit les
caractéristiques spectrales des deux modes.
Le
système SPOT présente plusieurs avantages
par rapport aux autres capteurs spatiaux. Sa
limite de résolution fine et le dépointage des
capteurs sont les principales raisons de sa
popularité. Les données de trois bandes
multispectrales sont utiles pour afficher des
images fausses-couleurs et la bande
panchromatique peut être utilisée pour
améliorer le détail des données
multispectrales. SPOT est utile pour les applications qui requièrent une excellente résolution
spatiale (comme la cartographie urbaine) et combine également les avantages d'un coût
abordable et de pouvoir acquérir des données satellites au moment idéal. Les images SPOT
trouvent plusieurs applications dans des domaines qui nécessitent des images fréquentes,
tels que la foresterie et l'agriculture. L'acquisition d'images stéréoscopiques a joué un rôle
important pour les applications en cartographie et pour la dérivation d'information
topographique (modèle numérique de terrain - MNT) des données satellitaires.
IRS
La série des satellites IRS (Indian Remote Sensing satellite) combine les caractéristiques des
capteurs de Landsat MSS et TM et du capteur HRV de SPOT. Le troisième satellite de la
série, IRS-1C, lancé en décembre 1995, a trois capteurs : une caméra de haute résolution
panchromatique à une bande (PAN), le capteur à quatre bandes LISS-III (Linear Imaging Self-
scanning Sensor) de résolution moyenne, et le capteur à deux bandes WiFS (Wide Field of
View) de faible résolution. Le tableau suivant décrit les caractéristiques de chaque capteur.
Capteurs de IRS
Même s'il est surtout question des capteurs satellitaires dans ce cours, nous allons faire un
bref survol de quelques capteurs aéroportés canadiens qui sont utilisés dans plusieurs types
d'applications en télédétection. Les capteurs ont influencé la conception, ainsi que le
développement des systèmes satellitaires. Le capteur MEIS-II (Multispectral Electro-Optical
Imaging Scanner) fut développé pour le Centre canadien de télédétection. Même si MEIS
n'est plus opérationnel, il fut le premier capteur à barrettes (ou balayage longitudinal) sur une
plate-forme aéroportée. Le capteur recueillait des données de 8 octets (256 valeurs
numériques) en utilisant des rangées linéaires de 1728 détecteurs par bandes pour 8 bandes
spectrales allant de 0,39 à 1,1 microns. Il était possible de choisir la largeur spécifique des
longueurs d'onde, ce qui permettait de faire différentes combinaisons pour différentes
applications. On pouvait également faire l'acquisition d'images stéréoscopiques à partir d'une
seule ligne de vol en ayant des bandes pointant devant et derrière le nadir en complément
aux autres bandes qui pointaient le nadir. La cartographie stéréoscopique, ainsi que la
possibilité qu'offrait le capteur MEIS-II de choisir les bandes se sont avérées utiles pour la
recherche et le développement des systèmes de capteurs.
Les océans recouvrent plus des deux tiers de la surface de la Terre et jouent un rôle
important dans le système climatique de la planète. Ils contiennent aussi une grande variété
d'organismes vivants et de ressources naturelles qui sont sensibles à la pollution et aux
autres dangers créés par les humains. Les satellites et capteurs de météorologie et
d'observation de la Terre que nous avons décrits dans les deux sections précédentes peuvent
être utilisés pour la surveillance des océans, mais il existe d'autres systèmes de satellites et
de capteurs qui ont été construits à ces fins.
Le satellite Nimbus-7, lancé en 1978, portait le CZCS (Coastal Zone Colour Scanner), le
premier capteur spécifiquement conçu pour la surveillance des océans et des étendues d'eau.
Le principal objectif de ce capteur était d'observer la couleur et la température de l'océan,
particulièrement dans les régions côtières. La résolution spatiale et spectrale permettait de
détecter les polluants dans les couches supérieures de l'océan et de déterminer la nature des
matériaux en suspension dans la colonne d'eau. Le satellite Nimbus-7 a été placé en orbite
héliosynchrone polaire à une altitude de 955 km. Les heures de passage à l'équateur étaient
fixées à midi heure locale pour les passes ascendantes, et à minuit heure locale pour les
passes descendantes. Le cycle de répétition du satellite permettait une couverture complète
de la Terre tous les six jours, ou toutes les 83 orbites. Le capteur CZCS avait six bandes
spectrales dans les parties visible, proche infrarouge, et infrarouge thermique du spectre,
chacune recueillant des données à une résolution spatiale de 825 m au nadir, sur une largeur
de fauché de 1566 km. Le tableau suivant décrit les longueurs d'onde de chaque bande et le
paramètre primaire mesuré par chacune.
MOS
Le premier capteur MOS-1 (Marine Observation Satellite) a été lancé en février 1987 par le
Japon, et a été suivi par MOS-1b, en février 1990. Ces satellites portent trois différents
capteurs : un radiomètre multispectral électronique à autobalayage (MESSR) à quatre
bandes, un radiomètre du visible et de l'infrarouge thermique (VTIR) à quatre bandes, et un
radiomètre micro-ondes à balayage (MSR) à deux bandes. Le tableau suivant décrit les deux
capteurs du visible / infrarouge.
Les bandes du MESSR ont un domaine spectral semblable au capteur MSS de Landsat; elles
sont donc utiles pour les applications terrestres en plus des observations marines. Les
systèmes MOS sont en orbite autour de la Terre à une altitude de 900 km et ont une
répétitivité de 17 jours.
SeaWiFS
Vidéo
FLIR
Lidar
Le LIDAR (Light Detection and Ranging) est une technique d'imagerie active qui ressemble
beaucoup à celle du RADAR. Ce système qui émet des impulsions de lumière laser et détecte
l'énergie réfléchie par la cible. Le temps requis par l'énergie pour rejoindre la cible et retourner
au détecteur détermine la distance entre les deux. Ce système est utilisé de façon efficace
afin de mesurer la hauteur de la canopée de la forêt par rapport à la surface du sol, et la
profondeur de l'eau par rapport à la surface de l'eau (profilomètre laser). On utilise également
le LIDAR pour faire des études atmosphériques pour examiner les particules contenues dans
les différentes couches de l'atmosphère de la Terre, pour obtenir des mesures de densité de
l'air, et pour la surveillance des mouvements atmosphériques.
RADAR
Le RADAR (Radio Detection and Ranging) est un système actif qui fournit sa propre source
d'énergie électromagnétique. Les détecteurs, qu'ils soient aéroportés ou spatioportés,
émettent de la radiation micro-onde dans une série d'impulsions à partir d'une antenne qui est
positionnée vers la surface, perpendiculaire à la direction du mouvement. Lorsque l'énergie
atteint la cible, une portion de l'énergie est réfléchie vers le détecteur. La dispersion de la
radiation micro-onde est alors détectée, mesurée et chronométrée. Le temps requis par
l'énergie pour se rendre à la cible et retourner au détecteur détermine la distance de la cible.
En enregistrant le délai et l'amplitude de l'énergie réfléchie par toutes les cibles lors du
passage du système, nous pouvons produire une image à deux dimensions de la surface.
Puisque le RADAR a sa propre source d'énergie, nous pouvons obtenir des images le jour ou
la nuit. Puisque l'énergie micro-onde peut également pénétrer à travers les nuages et la pluie,
le RADAR est considéré comme un détecteur toutes saisons. Nous examinerons plus en
détail les caractéristiques uniques du RADAR ainsi que l'étendue des applications de la
télédétection micro-ondes au cours du chapitre 3.
Les données acquises par un capteur aéroporté peuvent être recueillies une fois que l'avion
est de retour au sol. Elles peuvent ensuite être traitées et, finalement, remises à l'utilisateur.
Par contre, les données acquises par un satellite doivent être transmises électroniquement à
une station de réception sur Terre, car le satellite demeure en orbite pour plusieurs années.
Les méthodes de transmission développées pour les satellites peuvent aussi être utilisées
dans le cas d'un avion s'il y a un besoin urgent des données au sol.
A. Les données peuvent être transmises directement à une station de réception sur Terre, si
le satellite se situe dans le cercle de réception de la station.
B. Si le satellite n'est pas dans le cercle de réception d'une station, les données peuvent être
stockées par un enregistreur à bord du satellite.
C. Les données peuvent être aussi retransmises à la station de réception par des satellites de
communication qui sont en orbite géostationnaire autour de la Terre. Les données sont
transmises de satellite à satellite jusqu'à ce qu'on puisse les retransmettre à la station.
Le Canada possède deux stations de réception de données satellitaires qui sont exploitées
par le CCT : l'une est située à Cantley (GSS), tout près d'Ottawa, l'autre, à Prince Albert
(PASS) en Saskatchewan. La combinaison des cercles de couverture de ces deux stations
permet la réception des données transmises directement ou enregistrées par presque tous
les satellites qui passent au-dessus du territoire canadien et des États-Unis continentaux.
Plusieurs pays ont également construit des stations de réception tout autour de la Terre afin
de recevoir les données des différents satellites en orbite.
Les données brutes parviennent à la station de réception sous forme numérique. Elles sont
alors traitées pour corriger les distorsions atmosphériques, géométriques, et systématiques
lorsque nécessaire. Elles sont ensuite converties dans un format standard et sont
sauvegardées sur bandes magnétiques, disquettes ou CD-ROM. La plupart des stations de
réception et de traitement conservent aussi en archives les données qu'elles acquièrent. Les
agences gouvernementales et les entreprises privées prennent charge des archives de leurs
capteurs respectifs.
Pour plusieurs capteurs, il est possible de fournir rapidement des images aux clients qui en
ont un urgent besoin. Des systèmes de traitement en temps réel permettent de produire des
images à faible résolution (sur papier ou numérique) au cours des quelques heures suivant
l'acquisition. Ces images peuvent être retransmises aux clients par télécopieur ou en format
numérique. Ce traitement rapide des données est utilisé pour fournir des images aux navires
parcourant l'océan Arctique : les images facilitent la navigation dans les champs de glace car
elles permettent aux pilotes des navires d'évaluer les conditions de la glace. Le traitement
d'images en temps réel pour des capteurs aériens est utilisé pour envoyer des images
infrarouges thermiques directement aux pompiers qui combattent un feu de forêt.
Les images à faible résolution "quick-look" sont utilisées pour vérifier les images archivées
avant de les acheter. Bien que la qualité spatiale et radiométrique de ce type de produits soit
inférieure, ils n'en demeurent pas moins utiles pour s'assurer que la qualité, la composition, et
la couverture nuageuse sont acceptables.
Vous venez de compléter le Chapitre 2 - Satellites et Capteurs. Vous pouvez poursuivre avec
le Chapitre 3 - Télédétection par micro-ondes ou aller fureter sur le site Web du CCT, où vous
trouverez d'autres articles reliés aux plates-formes et aux capteurs.
Par exemple, vous pouvez interroger le « Glossaire de télédétection »1 , dans les catégories
« plates-formes » et « capteurs » qui contiennent d'autres renseignements sur les différentes
plates-formes et les différents capteurs, ainsi que leur utilisation. Le glossaire comprend
également des catégories sous les termes « optique » et « radar », qui vous permettront
d'en connaître davantage sur ces aspects de la technologie de la télédétection.
Jusqu'en 1997, le CCT disposait d'un Convair 5807, un avion qui a transporté à son bord un
grand nombre d'instruments de recherche dont un radar à synthèse d'ouverture8 (RSO).
Notre site Web comprend un grand nombre d'images acquises grâce à ce radar, parmi ces
images se trouve celle du pont de la Confédération9, qui relie l'Île-du-Prince-Édouard au
Nouveau-Brunswick, alors qu'il était en construction.
1http://www.ccrs.nrcan.gc.ca/ccrs/learn/terms/glossary/glossary_f.html
2http://www.ccrs.nrcan.gc.ca/ccrs/data/stations/pass_f.html
3http://www.ccrs.nrcan.gc.ca/ccrs/data/stations/gss_f.html
4http://www.ccrs.nrcan.gc.ca/ccrs/data/stations/cc_f.html
5http://www.ccrs.nrcan.gc.ca/ccrs/data/stations/grss_f.html
6http://www.ccrs.nrcan.gc.ca/ccrs/learn/tour/16/16ns_f.html
7http://www.ccrs.nrcan.gc.ca/ccrs/data/satsens/airborne/sarbro/sbc580_f.html
8http://www.ccrs.nrcan.gc.ca/ccrs/data/satsens/airborne/sarbro/sbmain_f.html
9http://www.ccrs.nrcan.gc.ca/ccrs/rd/apps/marine/pei_link/bridge_f.html
2. Le saviez-vous?
2.1 Saviez-vous que...?
Pour la photographie aérienne à main levée, les avions à ailes hautes sont meilleurs
que les appareils à ailes basses.
Les appareils de type « Beaver » et « Otter » de DeHavilland sont très utilisés pour la
photographie aérienne verticale car ils possèdent une écoutille amovible sous la
carlingue qui évite de devoir faire des modifications structurales importantes à
l'appareil.
Il est préférable d'effectuer des photographies aériennes obliques par la fenêtre ouverte
pour éliminer la distorsion causée par le verre de la fenêtre.
On prend souvent des photographies aériennes par l'ouverture de la porte d'un avion
(la porte est enlevée avant le vol).
On utilise parfois des ballons captifs comme moyen économique d'effectuer la
surveillance à long terme d'un site particulier.
2.2 Le saviez-vous?
...La plupart des images satellitaires que vous voyez à la télévision lors des prévisions
météorologiques sont des images provenant de satellites géostationnaires. Ces satellites ont
une couverture très large et montrent les conditions météorologiques et nuageuses à l'échelle
continentale. Les météorologues utilisent ces images afin de déterminer quelle direction les
systèmes météorologiques prendront. La capacité de ces satellites de fournir plusieurs
images de la même région permet de surveiller de près l'évolution du temps.
... L'orbite des satellites doit être corrigée occasionnellement. La friction causée par
l'atmosphère terrestre est la principale cause de cette déviation du satellite de son orbite
initiale. Afin de corriger la trajectoire, un centre de contrôle sur Terre envoie des instructions
au satellite pour le replacer sur son orbite. La plupart des satellites ont une longévité de
quelques années. À la fin de sa vie utile, un satellite peut simplement cesser de fonctionner
adéquatement ou souffrir d'une trop grande déviation de son orbite, ce qui le rend inutilisable.
2.3 Le saviez-vous?
Si le champ de vue instantané de tous les pixels d'un balayeur est constant (ce qui se produit
fréquemment), les pixels au nadir auront une échelle plus grande que les pixels situés en
périphérie, ce qui signifie que la résolution spatiale de l'image variera de centre à la bordure
de l'image.
2.5 Le saviez-vous?
...Il y a des compromis à faire entre la résolution spatiale, spectrale et radiométrique lorsque
les ingénieurs conçoivent un capteur. Pour avoir une résolution spatiale élevée, le capteur
doit avoir un petit champ de vision instantanée (CVI). Ceci réduit donc la quantité d'énergie
que reçoit le capteur puisque la superficie de résolution à l'intérieur du CVI doit être plus
petite. Une diminution de la quantité d'énergie cause une diminution de la résolution
radiométrique (la capacité de discriminer des différences d'intensité d'énergie). Pour
augmenter la quantité d'énergie atteignant le capteur, et par le fait même la résolution
radiométrique, sans réduire la résolution spatiale, il faut élargir l'intervalle de longueurs d'onde
détecté par un canal du capteur. Ceci réduit la résolution spectrale du capteur. Inversement,
une résolution spatiale plus grossière permettrait une résolution radiométrique plus grande et
une résolution spectrale plus fine. Il faut donc bien doser les trois types de résolution afin de
construire un capteur qui aura des caractéristiques intéressantes compte tenu de nos
objectifs.
...La navette spatiale américaine a été utilisée pour prendre des photographies à partir de
l'espace. Les astronautes à bord de la navette ont pris plusieurs photos en utilisant des
appareils photo manuels similaires à ceux utilisés sur Terre pour prendre des photos de
vacances. Ils ont aussi utilisé des appareils photo sophistiqués et beaucoup plus gros,
installés dans la soute de la navette, appelés des appareils photo grands formats. Ces grands
appareils photo ont une distance focale très grande (305 mm) et prennent des photographies
de qualité qui couvrent des centaines de kilomètres. La dimension exacte dépend bien sûr de
l'altitude de la navette. Les photos doivent être prises lorsque le Soleil illumine la Terre et
elles sont sensibles au couvert nuageux et autres atténuations atmosphériques. La navette a
aussi été utilisée plusieurs fois pour observer différentes régions de la Terre à l'aide d'un
capteur actif d'hyperfréquences appelé un RADAR. Le capteur RADAR peut travailler aussi
bien le jour que la nuit, puisqu'il émet sa propre énergie qui a la capacité de traverser les
nuages grâce à la grande longueur d'onde de l'énergie qu'il émet. Nous traiterons des radars
au chapitre 3.
« ...quel balai... »
Le programme ERTS (Earth Resources Technology Satellite) fut rebaptisé Landsat tout juste
avant le lancement du deuxième satellite de la série. Le nom Landsat a été utilisé afin de
distinguer ce programme d'un autre programme satellitaire : Seasat, qui en était au stade de
la planification. Ce dernier, était destiné aux applications océanographiques. Le premier (et le
seul) satellite Seasat a été lancé avec succès en 1978, mais fut en opération pour une
période de 99 jours seulement. Malgré sa courte durée de vie et l'abandon du programme,
celui-ci a recueilli les premières images radars à partir de l'espace, ce qui a grandement
contribué à augmenter l'intérêt pour la télédétection par radar. Aujourd'hui, il existe plusieurs
satellites radars. Nous allons aborder les sujets du radar et des satellites radars au cours du
prochain chapitre.
...Les stations de réception du Canada sont en activité depuis 1972 à Prince Albert en
Saskatchewan, et depuis 1985 à Gatineau au Québec. Ces deux stations reçoivent et traitent
des images de satellites divers (NOAA, Landsat, RADARSAT, J-ERS, MOS, SPOT, et ERS)
exploités par cinq différents pays ou groupes de pays (États-Unis, Canada, Japon, France, et
l'Europe).
1. Quels sont les avantages des capteurs placés à bord des satellites par rapport aux
capteurs placés à bord d'un avion? Ces capteurs sur plate-forme spatiale ont-ils des
désavantages?
2.2 Réponses
1 : Les capteurs à bord des satellites "observent" une portion de la surface de la Terre qui est
généralement beaucoup plus large que les capteurs placés à bord d'un avion. De plus, les
satellites tournent continuellement autour de la Terre, ce qui facilite l'acquisition de données
de façon systématique et répétitive pour étudier les changements dans le temps. La position
géométrique d'un satellite par rapport à la Terre peut être calculée de façon assez précise, ce
qui facilite la correction des images satellitaires et leur positionnement sur une grille
géographique. Cependant, les capteurs placés à bord d'un avion ont la flexibilité de pouvoir
acquérir des données à la surface de la Terre n'importe où et n'importe quand (si les
conditions météo le permettent), tandis que les capteurs spatioportés sont limités à des
acquisitions de données à des endroits et à des moments déterminés par leur orbite.
2 : Lors d'un passage du satellite au-dessus de l'équateur tôt le matin, le Soleil est bas dans
le ciel, ce qui est avantageux pour accentuer les effets topographiques; par contre, cette
situation a aussi pour effet de créer beaucoup d'ombres dans les régions à fort relief. Un
passage autour de midi permet une illumination maximale et uniforme puisque le Soleil est au
point le plus élevé dans le ciel. Cette situation est avantageuse pour observer les surfaces
peu réfléchissantes, mais peut aussi causer une saturation des capteurs pour les surfaces
très réfléchissantes comme la glace. Il peut aussi se produire un phénomène de réflexion
spéculaire pour les surfaces planes, ce qui complique l'interprétation des données. Pour un
passage au milieu de l'après-midi, les conditions d'illumination sont plus modérées.
Cependant, le phénomène de réchauffement solaire de la surface, maximal à cette période de
la journée, peut rendre plus difficile l'enregistrement de l'énergie réfléchie. Afin de minimiser
tous ces effets, la plupart des satellites possédant des capteurs d'énergie visible et infrarouge
ont une heure solaire locale de passage au-dessus de l'équateur qui est au milieu de la
matinée.
1. Regardez attentivement les détails de ces deux images. Laquelle a la plus petite échelle ?
Quels indices avez-vous utilisés? Quelle est la plate-forme la plus probable à partir de
laquelle l'image ayant la plus petite échelle a été obtenue?
2. Pour effectuer la surveillance de la santé générale du couvert végétal dans les provinces
des prairies canadiennes sur une de durée de plusieurs mois, quel type de plate-forme et de
capteur (en termes de résolution spatiale, spectrale et temporelle) serait le meilleur choix et
pourquoi?
2.3 Réponses
1 : L'image de gauche provient d'un satellite, tandis que l'image de droite est une
photographie prise à partir d'un avion. La superficie totale couverte par l'image de droite est
aussi couverte dans l'image de gauche, quoiqu'il soit difficile de le remarquer étant donné la
grande différence entre les échelles des deux images. Il est possible d'identifier des objets
assez petits dans l'image de droite (ex. : des édifices). Ces éléments ne sont pas visibles
dans l'image de gauche. Les caractéristiques identifiables dans l'image de gauche sont plutôt
des rues, des rivières, des ponts. Comme les caractéristiques sont plus grandes dans l'image
de droite, on peut conclure que cette image est à une échelle plus grande. Une certaine
distance sur cette image représente une distance moins grande au sol que pour l'autre image.
L'image de droite est une photo aérienne des édifices du parlement canadien à Ottawa,
tandis que l'image de gauche est une image satellitaire de la ville d'Ottawa.
2 : Pour effectuer la surveillance de la santé générale du couvert végétal dans les provinces
des prairies canadiennes sur une de durée de plusieurs mois, quel type de plate-forme et de
capteur (en termes de résolution spatiale, spectrale et temporelle) serait le meilleur choix et
pourquoi?
1. Les systèmes à balayage hyperspectral (mentionnés à la section 2.4) sont des capteurs
multispectraux spéciaux qui détectent et enregistrent la radiation pour quelques centaines de
bandes spectrales très étroites. Quels sont les avantages de ce type de capteurs? Quels en
sont les désavantages?
2. Dites s'il y aura chevauchement entre les 288 bandes de CASI (Compact Airborne
Spectrographic Imager) si le domaine spectral de toutes les bandes est exactement de 0,40
nm à 0,90 mm, et si chaque bande couvre 1,8 nm (nanomètre = 10 --9).
2.4 Réponses
1 : Les systèmes à balayage hyperspectral ont une très grande résolution spectrale. La
radiation est donc mesurée selon des bandes de longueurs d'ondes très étroites, ce qui
permet de construire un spectre presque continu de la radiation détectée pour chaque pixel
dans l'image. Ceci permet de faire la distinction entre des cibles très fines en se basant sur
leurs caractéristiques de réflexivité. Cependant, cette plus grande sensibilité du capteur
implique une l'augmentation considérable de la quantité d'information à traiter. La grande
quantité de données rend plus difficile leur manipulation et leur stockage. L'analyse d'une
combinaison de plusieurs images est difficile, de même que identification et l'analyse de la
réponse obtenue pour chacune des bandes.
2 :L'étendue totale de longueur d'onde disponible est 0,50µm (0,90 - 0,40µm= 0,50µm). Si le
capteur a 288 bandes d'une étendue de 1,8 nm chacune, nous pouvons calculer l'étendue
totale de longueur d'onde de chaque bande s'il n'y a pas de chevauchement.
0.0000005184 m = 0.5184 µm
Quelle est la valeur numérique maximale possible lorsqu'une image numérique a une
résolution radiométrique de 6 bits?
2.5 Réponse
Le nombre de valeurs numériques disponibles pour représenter une image est égal au
nombre 2 à la puissance du nombre de bits. (2# de bits). Le nombre de valeurs numériques
dans une image de 6 bits est donc 26 = 2 x 2 x 2 x 2 x 2 x 2 = 64. Comme les valeurs
numériques commencent avec le nombre "0", la valeur maximale possible est 63.
2.9 Réponse
On utilise souvent les capteurs thermiques pour détecter et surveiller les pertes d'énergie par
les édifices dans les villes. Le coût du chauffage est très élevé dans les pays nordiques
comme le Canada. Les images des secteurs résidentiels et commerciaux des villes, obtenues
à l'aide de capteurs thermiques, permettent d'identifier les édifices ou les parties d'édifices qui
perdent le plus d'énergie. Ceci permet de cibler les réparations aux endroits qui montrent les
plus grandes pertes d'énergie afin de réduire le coût des réparations, du chauffage et de
permettre de conserver l'énergie.
Même si un système de balayage à bord d'un avion peut avoir une bonne précision
géométrique, un système à bord d'un satellite serait préférable dans les régions
montagneuses. Avec un système aéroporté, la distorsion géométrique causée par le
déplacement du relief serait beaucoup plus importante à cause de la faible altitude de l'avion
par rapport aux grandes variations dans le relief. De plus, avec la même illumination solaire,
les ombres causées par le relief auraient un plus grand impact négatif avec un système
aéroporté, en raison du plus petit champ de vision de ce système. Il serait presque impossible
de faire la cartographie des zones ombragées avec ce système.
Expliquez pourquoi les données du capteur Landsat TM peuvent être considérées plus utiles
que les données du capteur MSS original. (Pensez à leurs résolutions spatiale, spectrale, et
radiométrique).
2.12 Réponses
Il y a plusieurs raisons pour lesquelles les données TM peuvent être considérées plus utiles
que les données MSS. Même si les scènes TM couvrent la même superficie que celles du
MSS, le TM offre une meilleure résolution spatiale, spectrale, et radiométrique. La tache au
sol du TM est de 30 m, à comparer à 80 m pour le MSS (sauf pour les bandes thermiques, qui
mesurent entre 120 m à 240 m). Donc, le détail spatial est meilleur avec TM. Il possède aussi
plus de bandes spectrales qui couvrent une étendue plus étroite de longueurs d'onde et qui
sont plus utiles à certaines applications, particulièrement la discrimination de la végétation. De
plus, l'augmentation de 6 à 8 octets pour l'enregistrement des données représente une
augmentation de quatre fois la résolution radiométrique des données (souvenez-vous que 6
octets = 26 = 64 et 28 = 256, donc 256/64 = 4). Mais ceci ne veut pas dire que les données
TM sont "meilleures" que celles de MSS. Les données MSS sont toujours utilisées et
fournissent une excellente source de données pour plusieurs applications. Lorsque
l'information désirée ne peut être extraite des données MSS, les meilleures résolutions
spatiale, spectrale, et radiométrique des données TM deviennent plus utiles.
3.Télédétection de hyperfréquences
3.1 Introduction
L'énergie enregistrée dans la partie du spectre des hyperfréquences par un capteur passif
peut être émise par l'atmosphère (1), réfléchie du sol (2), émise par le sol (3) ou transmise du
sous-sol (4). Parce que la longueur des ondes est aussi grande, l'énergie disponible est très
petite par rapport aux longueurs d'onde visibles. Ainsi, le champ de vision doit être grand afin
de détecter assez d'énergie pour enregistrer un signal. La plupart des capteurs à
hyperfréquences sont donc caractérisés par une résolution spatiale faible.
contact des ondes avec la cible. Les mesures de diffusion au-dessus des océans peuvent
aussi être utilisées pour estimer les vents en se basant sur la rugosité de la surface de la mer.
Les diffusomètres au sol sont utilisés pour mesurer précisément la diffusion provenant des
différentes cibles afin de caractériser différents matériaux et types de surfaces. Ce concept
est semblable au concept de signature de réflectance spectrale dans le visible.
Le reste de ce chapitre, sera consacré à l'imagerie radar. Les radars actifs possèdent
l'immense avantage de pouvoir pénétrer la couche nuageuse dans la plupart des conditions
météorologiques. Puisque le radar est un capteur actif, il peut aussi être utilisé pour
représenter la surface à n'importe quel moment du jour ou de la nuit. Ce sont là les deux
principaux avantages du radar : imagerie sous toutes conditions et de jour comme de nuit.
Fait important à comprendre, la différence fondamentale de fonctionnement qui existe entre le
radar actif et les capteurs passifs (décrits au chapitre 2), font qu'une image radar est très
différente et possède des propriétés distinctes des images obtenues dans la partie visible et
infrarouge du spectre électromagnétique. Ces différences font que, les données radars et les
données obtenues dans le visible peuvent être complémentaires puisqu'elles offrent
différentes perspectives de la surface de la Terre et apportent donc des informations
différentes. Nous allons examiner plus en détail quelques-unes de ces propriétés et
différences fondamentales des radars dans les prochaines sections.
Avant d'entrer dans les détails spécifiques aux radars, regardons brièvement l'origine et
l'histoire de l'imagerie radar, et particulièrement les expériences canadiennes en télédétection
radar. La première expérience réussie d'une transmission d'hyperfréquences et de réflexion
par différents objets fut réalisée par Hertz, en 1886. Au début du 20e siècle, on a développé
les premiers radars rudimentaires pour la détection de navires. Dans les années 1920 à 1930,
des radars au sol à impulsions expérimentaux ont été développés pour la détection d'objets
éloignés. Les premiers radars utilisés pendant la Deuxième Guerre Mondiale avaient un
étalage rotatif et étaient utilisés pour la détection et le positionnement des avions et des
navires. Après la guerre, le radar aéroporté à antenne latérale (RAAL) a été développé par les
militaires pour la reconnaissance et la surveillance des terrains. On utilisait alors un radar
aéroporté qui imageait une bande de terrain parallèle au vol de l'avion. Au cours des années
50, les militaires ont amélioré les RAAL et ont développé le radar à synthétique d'ouverture
(RSO) à grande résolution. Dans les années 60, ces radars ont été rendus disponibles pour
les applications civiles et ont commencé à être utilisés pour des applications de cartographie
civile. Depuis, le développement de plusieurs systèmes de radars aéroportés et spatioportés
pour des applications de cartographie et de surveillance s'est poursuivi.
Le Canada a commencé à s'intéresser à la télédétection par radar au milieu des années 70.
On a alors commencé à percevoir le potentiel que pouvaient représenter les radars pour la
surveillance des vastes étendues nordiques souvent couvertes de nuages et cachées sous
les ténèbres durant l'hiver arctique, ainsi que pour la surveillance et la cartographie des
ressources naturelles. Le Canada a participé au projet SURSAT (Surveillance Satellite) de
1977 à 1979, qui a tracé la voie à sa participation au programme du satellite radar américain
SEASAT, le premier satellite radar civil. Suite au programme SURSAT, le programme de
Comme nous l'avons mentionné dans la section précédente, un radar est essentiellement un instrument mesurant
des distances. Il consiste en un émetteur, un récepteur, une antenne et un système électronique pour traiter et
enregistrer les données. L'émetteur génère de courtes impulsions d'hyperfréquences (A) à intervalle régulier qui
sont concentrées en un faisceau (B) par l'antenne. Le faisceau radar illumine latéralement la surface à angle droit par
rapport au déplacement de la plate-forme. L'antenne reçoit une partie de l'énergie réfléchie (rétrodiffusée) par
différents objets illuminés par le faisceau (C). En mesurant le délai entre la transmission et la réception de l'impulsion
rétrodiffusée par les différentes cibles que les radars illuminent, on peut déterminer leur distance au radar, donc leur
position. À mesure que le capteur se déplace, l'enregistrement et le traitement du signal rétrodiffusé construisent une
image en deux dimensions de la surface illuminée par les hyperfréquences.
Bien que nous ayons caractérisé le rayonnement électromagnétique dans les parties visible et infrarouge du spectre
électromagnétique principalement en fonction de leurs longueurs d'onde, le rayonnement des hyperfréquences est,
quant à lui, caractérisé par les fréquences et les longueurs d'onde. Le domaine des hyperfréquences est beaucoup
plus large que le domaine du visible et de l'infrarouge. Les bandes d'hyperfréquences les plus utilisées sont toujours
identifiées par des lettres qui leur ont été attribuées lors de la Deuxième Guerre Mondiale. En voici un aperçu :
Bandes Ka, K et Ku : très petites longueurs d'onde, utilisées dans les premiers radars aéroportés, très peu
utilisées de nos jours.
Bande X : très utilisée dans les systèmes radars aéroportés pour la reconnaissance militaire et la
cartographie.
Bande C : répandue dans plusieurs systèmes de recherche aéroportés (le Convair-580 du CCT, le AirSAR de
la NASA) et spatioportés (ERS-1 et 2 ainsi que RADARSAT).
Voici deux images radars du même champ mais ayant été acquises avec une fréquence radar différente. L'image du
haut a été acquise par un radar en bande C et celle du bas par un radar en bande L. On peut y observer des
différences importantes dans l'apparence des différents champs et récoltes dans chacune des images. Ces
différences sont dues aux différentes façons qu'a l'énergie radar d'interagir avec la végétation en fonction de la
longueur d'onde. Nous aurons l'occasion d'approfondir ce sujet dans les prochaines sections.
La polarisation du rayonnement est un autre aspect important dans l'utilisation des hyperfréquences. La polarisation
représente l'orientation du champ électromagnétique (ce dernier a été défini au chapitre 1). La plupart des radars ont
été dessinés de façon à transmettre des hyperfréquences avec une polarisation horizontale (H) ou verticale (V). De
même, l'antenne reçoit de l'énergie rétrodiffusée avec polarisation horizontale ou verticale, mais certains radars
peuvent recevoir les deux. Il peut donc y avoir quatre combinaisons de polarisations de transmission et réception :
Les deux premières combinaisons sont appelées polarisations parallèles et les deux dernières polarisations
croisées. Ces images de surfaces agricoles prises en bande C montrent la variation des résultats radars suite à des
changements de polarisation. Les deux images du haut sont en polarisations parallèles, alors que celles du bas sont
en polarisations croisées. L'image du coin gauche supérieur montre les trois types de polarisations, chacun étant
représenté par une couleur primaire (rouge, vert et bleu). Tout comme pour les variations de longueurs d'onde, le
type de polarisation à la transmission comme à la réception vont affecter l'interaction du rayonnement rétrodiffusé par
la surface. Ainsi, une image radar acquise en utilisant diverses combinaisons de polarisation et de longueurs d'onde,
peut procurer de l'information complémentaire sur les cibles.
courte portée
La partie du couloir balayée la plus proche du nadir est appelée portée proximale (A), alors que la partie éloignée du
nadir est appelée portée distale (B).
L'angle d'incidence
L'angle d'incidence est l'angle entre le faisceau du radar et la normale à la surface du sol (A). L'angle d'incidence
augmente graduellement de la portée proximale à la portée distale. L'angle de visée (B) est l'angle à partir duquel le
radar illumine la surface. Dans la portée proximale, la géométrie de visée peut être considérée comme étant plus
abrupte par rapport à la portée distale où la géométrie de visée est plus rasante. Pour tous les angles, l'antenne du
radar mesure la distance radiale entre le radar et chaque cible sur la surface : c'est la distance oblique (ou distance-
temps) (C). La distance au sol (D) est la vraie distance horizontale mesurée au sol, correspondant à chaque point
mesuré dans la distance oblique.
La résolution azimutale ou longitudinale est déterminée par la largeur angulaire du faisceau d'hyperfréquences et par
la distance en portée mesurée en distance-temps. La largeur du faisceau (A) est une mesure de la largeur du
diagramme d'illumination. Au fur et à mesure que la distance en portée augmente, la résolution azimutale augmente
(devient plus grossière). Sur cette figure, les cibles 1 et 2 à la portée proximale sont discernables, mais les cibles 3 et
4 plus éloignées (portée distale) ne le sont pas. La largeur du faisceau est inversement proportionnelle à la longueur
de l'antenne (aussi appelée ouverture), donc une antenne longue produira un faisceau plus mince et une meilleure
résolution.
De meilleures résolutions transversales sont possibles en utilisant deux petites impulsions, réalisables à l'intérieur de
certaines restrictions de conception. De meilleures résolutions azimutales peuvent être obtenues en augmentant la
longueur de l'antenne. Cependant, la longueur de l'antenne est soumise aux limites de chargement des plates-
formes aériennes ou spatiales. Pour les radars aéroportés, les antennes sont généralement limitées à un ou deux
mètres, tandis que pour les radars spatioportés, elles peuvent atteindre de 10 à 15 mètres de long. Pour contrer cette
limitation, le mouvement avant de la plate-forme ainsi que des enregistrements et traitements spéciaux des échos
rétrodiffusés sont utilisés pour simuler une plus longue antenne et augmenter ainsi la résolution azimutale.
Cette figure illustre ce procédé. À mesure que la cible (A) se trouve devant le faisceau du radar, des échos
rétrodiffusés provenant de chaque impulsion transmise commencent à s'enregistrer. À mesure que la plate-forme
avance, tous les échos provenant de la cible pour chaque impulsion sont enregistrés pour la durée du passage de la
cible devant le faisceau. Le moment où la cible quitte le champ du faisceau (2) détermine la longueur de l'antenne
synthétique simulée (B). Les cibles, dans la longue portée où le faisceau est le plus large, vont être illuminées plus
longtemps que celles pour les cibles dans la courte portée. L'élargissement du faisceau et l'augmentation de la
période durant laquelle la cible se retrouve devant le faisceau pendant que la distance au sol augmente, s'équilibrent
de manière à ce que la résolution demeure constante au travers du couloir tout entier. Cette méthode, utilisée pour
obtenir une meilleure résolution azimutale dans le couloir entier, est appelée radar à synthèse d'ouverture ou RSO.
La plupart des radars aéroportés et spatioportés utilisés de nos jours font appel à cette technique.
Comme pour les distorsions discutées dans le cas de l'imagerie obtenue avec des caméras et
des balayeurs, les images radars montrent des distorsions géométriques dues au
déplacement du relief. Tout comme pour l'imagerie produite par les balayeurs, ce
déplacement est unidimensionnel et perpendiculaire à la direction du vol. Cependant, ce
déplacement s'effectue vers le capteur plutôt qu'en s'en éloignant. Ce déplacement du relief
Quand le faisceau radar atteint la base d'une grande structure inclinée vers le radar (par
exemple une montagne) avant d'atteindre son sommet, il peut se produire du repliement
(foreshortening). Ici encore, puisque le radar mesure les distances obliques, la pente (A vers
B) apparaîtra comprimée et la longueur de la pente sera incorrectement représentée (A' vers
B'). L'importance du repliement variera selon l'angle de la pente de la montagne, en relation
avec l'angle d'incidence du faisceau. Un maximum de repliement se produit quand le faisceau
radar est perpendiculaire à la pente, de manière à ce que la pente, la base et le sommet
soient vus simultanément (C à D). La longueur de la pente sera réduite à une longueur
effective de zéro dans la distance oblique (C' à D'). Cette figure montre une image radar d'un
terrain montagneux abrupt avec un repliement important. Les pentes repliées apparaissent
plus brillantes sur l'image.
Un autre type de repliement (layover) se produit quand le faisceau radar atteint le sommet
d'une cible élevée (B) avant d'atteindre sa base (A). Le signal de retour du sommet de la cible
sera reçu avant le signal de la base. Il en résulte un déplacement vers le radar du sommet de
la formation par rapport à sa vraie position au sol, ce qui a pour effet de le replier sur sa base
(B' à A'). L'effet layover sur une image radar ressemble beaucoup à l'effet de repliement
foreshortening. Comme pour le foreshortening, le layover est plus important pour de petits
angles d'incidence, dans la portée proximale du couloir, et en terrain montagneux.
Les deux effets de repliement "foreshortening" et "layover" provoquent des ombres radars.
Ces ombres se produisent lorsque le faisceau n'est pas capable d'illuminer la surface du sol.
Des ombres apparaissent dans la portée distale du couloir, derrière les formations verticales
ou les pentes raides. Puisque le faisceau radar n'illumine pas la surface, les régions
ombragées apparaîtront plus sombres sur une image car il n'y a pas d'énergie disponible pour
la rétrodiffusion. À mesure que l'angle d'incidence augmente de la portée proximale à la
portée distale, l'effet d'ombre augmentera suivant le faisceau radar qui illumine la surface de
façon de plus en plus oblique. Cette image illustre l'effet d'ombrage radar sur le côté droit
d'une colline illuminée par la gauche.
Les surfaces rouges sont complètement dans l'ombre. Les zones noires dans l'image sont
ombragées et ne contiennent aucune information.
La brillance d'un élément sur une image radar est fonction de la portion de l'énergie transmise
qui retourne au radar à partir de la cible à la surface. La magnitude de l'intensité de cette
énergie rétrodiffusée dépend de la manière dont l'énergie radar interagit avec la surface, en
fonction de plusieurs variables ou paramètres. Ces paramètres incluent les caractéristiques
particulières des systèmes radars (fréquence, polarisation, géométrie de visée, etc.) ainsi que
les caractéristiques de la surface (type de couverture, topographie, relief, etc.). Puisque
plusieurs de ces caractéristiques sont intereliées, il est impossible de séparer leurs
contributions individuelles à l'apparence des éléments sur les images radars. Des variations
de ces paramètres peuvent avoir un impact sur les résultats et peuvent influencer les autres
paramètres, affectant la quantité rétrodiffusée. Ainsi, la brillance d'un élément sur une image
est habituellement une combinaison de plusieurs de ces variables. Mais, pour les besoins de
notre discussion, nous pouvons regrouper ces caractéristiques en trois catégories qui
contrôlent fondamentalement l'interaction énergie/cible des radars. Ces catégories sont :
La direction de visée du radar décrit l'orientation du faisceau radar par rapport à la direction
ou l'alignement des éléments de la surface. La direction de visée peut influencer d'une
manière significative l'apparence des éléments sur une image radar, surtout les grands
éléments linéaires (tels que des champs de culture ou des chaînes de montagnes). Si la
direction de visée est presque perpendiculaire à l'orientation de la structure (A), une large
portion de l'énergie incidente sera réfléchie vers le capteur et cette structure apparaîtra en
tons plus brillants. Si la direction de visée est plus oblique par rapport à l'orientation de
l'élément (B), une moins grande quantité d'énergie sera retournée au radar et cet élément
apparaîtra en tons plus sombres. La direction de visée est importante pour augmenter le
contraste entre les différents éléments sur une image. Il est important d'avoir la bonne
direction de visée dans les régions montagneuses afin de minimiser le repliement et
l'ombrage. L'acquisition d'images provenant de directions de visée différentes peut améliorer
l'identification des éléments à l'aide de différentes orientations relatives au radar.
La présence (ou l'absence) d'effets d'humidité change les propriétés électriques d'un objet ou
du médium. Des changements des propriétés électriques influencent l'absorption, la
transmission et la réflexion de l'énergie des hyperfréquences. Donc, le taux d'humidité
influencera la façon dont les cibles et les surfaces réfléchissent l'énergie provenant d'un
radar, ainsi que leur apparence sur une image. En général, la réflexivité et la brillance d'une
image s'accroissent avec l'augmentation du taux d'humidité. Par exemple, les surfaces telles
que le sol et les couvertures végétales apparaîtront plus brillantes mouillées que sèches.
Quand une cible est mouillée, la diffusion provenant de sa partie supérieure (diffusion de
surface) est le procédé de diffusion dominant. Le genre de réflexion (allant de spéculaire à
diffuse) et la magnitude dépendent de la rugosité apparente du matériel balayé par le radar.
Si la cible est très sèche et que la surface semble lisse, l'énergie radar peut être capable de
pénétrer sous la surface, selon qu'elle soit discontinue (forêt avec feuilles et branches) ou
continue (sol, sable ou glace). Pour une surface donnée, les longueurs d'onde plus longues
peuvent pénétrer plus profondément que les longueurs d'onde plus courtes.
Toutes les images radars contiennent une certaine quantité de ce que l'on appelle le
chatoiement radar. Cet effet se manifeste comme une texture poivre et sel sur les images.
Le chatoiement est produit par l'interférence aléatoire, constructive et destructive, provenant
de la diffusion multiple qui se produit dans chaque cellule de résolution. Par exemple, sans
l'effet de chatoiement une cible homogène (comme une grande étendue de gazon)
apparaîtrait en tons plus clairs (A). Mais la réflexion provenant de chaque brin d'herbe à
l'intérieur de chaque cellule de résolution produit des pixels plus clairs et d'autres plus
sombres que la moyenne (B), de sorte que le champ apparaît tacheté.
Le chatoiement est essentiellement une sorte de bruit qui dégrade la qualité de l'image et
peut rendre l'interprétation (visuelle ou numérique) plus difficile. Ainsi, il est généralement
préférable de réduire le chatoiement avant l'interprétation et l'analyse des images. Deux
techniques permettent de réduire le chatoiement :
le traitement multi-visée
le filtrage spatial.
Image radar avant (en haut) et après (en bas) la réduction des taches par le filtre moyen
La distorsion oblique que nous avons définie à la section 3.4 constitue une autre propriété
particulière des images radars. Les éléments dans la portée proximale sont comprimés par
rapport à ceux qui sont présents dans la portée distale à cause de la non-linéarité de l'échelle
des distances. Pour la plupart des applications, il est préférable que l'image radar soit dans
un format qui corrige cette distorsion pour permettre le calcul des vraies distances entre les
éléments. Ceci requiert une conversion de l'image en distance-sol. Cette conversion peut être
faite par le processeur radar lors du traitement des données, ou en transformant l'image.
Dans la plupart des cas, cette conversion ne sera qu'une estimation, à cause des
complications introduites par la variation du relief et de la topographie.
Une antenne radar transmet plus d'énergie dans la partie centrale du couloir balayé que dans
la portée proximale ou la portée distale. Cet effet est connu sous le nom de diagramme
d'antenne et donne une rétrodiffusion plus forte en provenance de la partie centrale du couloir
que des côtés. En plus de cet effet, l'énergie reçue décroît de façon significative avec la
distance. Pour une surface donnée, l'intensité du signal rétrodiffusé diminue donc en
avançant à travers le couloir. Ces effets se combinent pour produire une image dont l'intensité
(teinte) varie de la portée proximale à la portée distale. Un procédé appelé correction de
diagramme d'antenne peut s'appliquer pour produire une tonalité uniforme moyenne à
travers le couloir pour faciliter l'interprétation visuelle. L'étendue des niveaux de brillance
qu'un système de télédétection peut distinguer est liée à la résolution radiométrique (voir
section 2.5) et est appelée plage dynamique. Alors que les capteurs optiques tels qu'utilisés
dans les satellites LANDSAT et SPOT produisent 256 niveaux d'intensité, les systèmes
radars peuvent différencier jusqu'à environ 100 000 niveaux! Puisque l'oeil humain ne peut
percevoir simultanément qu'environ 40 niveaux d'intensité, il y a trop d'information pour
l'interprétation visuelle. Même un ordinateur normal aurait de la difficulté avec cette quantité
d'information. Ainsi donc, la plupart des radars enregistrent et transmettent les données
originales en 16 bits (65 536 niveaux d'intensité) que l'on réduit à 8 bits (256 niveaux) pour
l'interprétation visuelle et l'analyse par ordinateur.
L'étalonnage est un procédé qui assure que le système radar et le signal qu'il mesure soient
aussi consistants et précis que possible. La plupart des images radars requièrent un
étalonnage relatif avant d'être analysées. Cet étalonnage corrige les variations connues de
l'antenne et la réponse du système, et assure que des mesures uniformes et répétitives sont
possibles. Cette opération permet d'effectuer en toute confiance des comparaisons relatives
entre la réponse des éléments dans une même image, et entre d'autres images. Cependant,
si on désire faire des mesures quantitatives précises, représentant l'énergie vraiment
retournée par les différentes structures ou cibles pour des fins de comparaison, alors un
étalonnage absolu est nécessaire.
L'étalonnage absolu est un procédé beaucoup plus laborieux que l'étalonnage relatif. Il tente
de relier la magnitude du signal enregistré avec la vraie valeur de l'énergie rétrodiffusée à
partir de chaque cellule de résolution. Pour ce faire, des mesures détaillées des propriétés du
système radar sont requises, ainsi que des mesures quantitatives au sol faites à l'aide de
cibles calibrées (décrit dans la section 3.1). Aussi, des appareils appelés transpondeurs
peuvent être placés au sol avant l'acquisition des données pour calibrer l'image. Ces
appareils reçoivent le signal radar, l'amplifient et le retournent vers le radar avec une intensité
déterminée. En connaissant l'intensité de ce signal dans l'image, la réponse des autres
structures peut être trouvée par extrapolation.
La première est le radar stéréoscopique qui est semblable au concept de cartographie stéréo
utilisant la photographie aérienne (décrit dans la section 2.7). Des paires d'images radar
stéréo sont obtenues de la même région, mais avec des angles de visée/incidence différents
(A), ou de directions opposées (B). Contrairement aux photographies aériennes dans
lesquelles le déplacement est radial en s'éloignant du nadir (directement sous la caméra), les
images radars présentent un déplacement seulement dans la direction parallèle à la visée.
Les paires stéréoscopiques prises de directions opposées (c'est-à-dire l'une regardant vers le
nord et l'autre vers le sud) peuvent présenter des contrastes significatifs et être difficiles à
interpréter visuellement ou numériquement. En terrain montagneux, cet effet sera encore plus
prononcé puisque les ombres du côté opposé des structures élimineront l'effet stéréo.
L'imagerie stéréoscopique prise du même côté (A) a été utilisée de façon effective depuis
plusieurs années pour aider l'interprétation en foresterie et en géologie et aussi pour générer
des cartes topographiques. L'évaluation des distances mesurées et de la hauteur du terrain
pour la cartographie topographique à partir d'images radar stéréo est appelée
radargrammétrie et est semblable à la photométrie utilisée à des fins similaires avec des
photographies aériennes.
La radargrammétrie est une méthode d'évaluation par radar de la hauteur des surfaces. Une
autre méthode plus avancée est l'interférométrie. L'interférométrie est possible grâce à
Nous avons déjà fait allusion au concept de la polarimétrie radar dans notre discussion sur
les principes de base des radars dans la section 3.2. Comme son nom le suggère, la
polarimétrie étudie la discrimination entre les polarisations qu'un système radar peut émettre
et recevoir. La plupart des radars transmettent du rayonnement dans les hyperfréquences
avec une polarisation horizontale (H) ou verticale (V). De même, ils reçoivent le signal
rétrodiffusé dans une seule de ces polarisations. Les radars à polarisations multiples sont
capables de transmettre en polarisations H ou V, et peuvent recevoir en mode parallèle ou
croisé (HH, HV, VH et VV, où la première lettre correspond à la polarisation de transmission
Introduction à la polarisation
La forme d'onde de la tension d'un champ électrique d'une onde électromagnétique peut être
prédictive (l'onde est polarisée) ou aléatoire (l'onde est non polarisée), ou une combinaison des
deux. Dans le dernier cas, le degré de polarisation exprime le rapport entre la puissance
polarisée et la puissance totale de l'onde. Par exemple, une onde sinusoïdale
monochromatique ayant une fréquence constante et une amplitude stable représente une
onde entièrement polarisée
On peut combiner les polarisations des ondes transmises et reçues en utilisant les paramètres
H et V dont l'interrelation est bien définie. C'est pourquoi les systèmes qui transmettent et
reçoivent ces deux polarisations linéaires sont couramment utilisés. Avec ce type de radar, il
existe quatre combinaisons de polarisations de transmission-réception :
Les systèmes radars peuvent comprendre une, deux et même quatre combinaisons de
polarisations de transmission-réception. Voici des exemples de systèmes radars :
Ces images en bande C des terres agricoles démontrent la corrélation entre la réponse radar
et la polarisation. Les deux images supérieures ont été acquises en polarisation parallèle (HH
celle de gauche, VV celle de droite), alors que l'image inférieure gauche a été acquise en
polarisation croisée (HV). L'image inférieure droite est le résultat visuel d'un composé couleur
de ces trois images (HH : rouge, VV : vert, HV : bleu).
Autant la longueur d'onde que la polarisation modifient la façon qu'un système radar « voit »
les éléments d'une scène. Par conséquent, les images radar saisies à partir de diverses
combinaisons de polarisation et de longueur d'onde peuvent fournir une information différente
et complémentaire. De plus, la combinaison de trois polarisations dans un composé couleur
permettra d'extraire de l'information supplémentaire sur les caractéristiques de surface.
Information polarimétrique
La matrice de diffusion décrit principalement comment les cibles radars ou les éléments à la
surface diffusent l'énergie électromagnétique. On peut toutefois y dériver d'autres formes
d'information polarimétrique, telles que les images synthétisées ou les signatures de
polarisation.
Synthèse de polarisation
À l'aide de la synthèse de polarisation, on peut créer une image pour améliorer la détectabilité
des éléments sélectionnés, par exemple la détection de navires dans l'océan. Pour trouver la
meilleure combinaison de polarisations de transmission-réception, on calcule les signatures de
polarisation d'un bateau et de l'océan pour diverses polarisations. Par la suite, on établit le
rapport de rétrodiffusion entre le bateau et l'océan pour chaque polarisation. La combinaison
de polarisations de transmission-réception qui maximise le rapport de puissance de
rétrodiffusion est par la suite utilisée pour perfectionner la détectabilité des bateaux. On appelle
cette procédure « accentuation du contraste polarimétrique » ou l'utilisation d'un « filtre
polarimétrique adapté ».
Signatures de polarisation
En raison des multiples polarisations des ondes incidentes et diffusées et des quatre nombres
complexes de la matrice de diffusion, il vaut mieux simplifier l'interprétation du comportement
de diffusion en utilisant un diagramme tridimensionnel qu'on appelle « signature de polarisation
» ou « diagramme de réponse de polarisation ». Ce diagramme représente une façon pratique
de visualiser les propriétés de diffusion d'une cible.
Les axes des x et des y de la signature de polarisation représentent les valeurs d'ellipticité (-
45º à +45º) et d'orientation (0 à 180º) du champ électrique de l'onde électromagnétique
incidente, alors que l'axe des z exprime la valeur de la puissance de la rétrodiffusion. Cette
dernière peut être calculée, pour chaque polarisation incidente possible, à partir d'une même
polarisation de transmission-réception (signature de polarisation parallèle) et de polarisations
orthogonales de transmission-réception (signature de polarisation croisée).
Cette figure montre les signatures de polarisation de deux cibles élémentaires, une grande
sphère de conduction et un réflecteur en coin trièdre. Pour ces cibles, la polarisation de l'onde
rétrodiffusée demeure la même que celle transmise, mais avec un changement de signe de
l'ellipticité pour chaque réflexion (ou dans le cas d'une polarisation linéaire, un changement de
l'angle de phase de 180º entre Eh et Ev). Par conséquent, la sphère et le réflecteur trièdre se
comportent en réflecteur « impair », puisqu'ils produisent une et trois réflexions
respectivement.
Pour les cibles plus complexes, la signature de polarisation se présente sous différentes
formes. Le réflecteur en coin dièdre et la diffusion de Bragg à la surface de l'océan en
représentent deux exemples intéressants. Dans le cas du réflecteur dièdre, la signature de
polarisation parallèle montre deux pics qui caractérisent les réflecteurs « pairs ». Au contraire,
la réponse de la diffusion de Bragg est similaire à la réflexion simple d'une sphère, à
l'exception d'une valeur de rétrodiffusion de la polarisation verticale supérieure à celle de la
polarisation horizontale.
Pour les systèmes radars polarimétriques, il est essentiel d'effectuer un étalonnage des
données, car l'information utilisée s'appuie sur les rapports d'amplitude et les différences
dans les angles de phase des quatre combinaisons de polarisation de transmission-réception.
Ainsi, un étalonnage imprécis entraînerait une mauvaise interprétation des mécanismes de
diffusion, il n'y aurait donc aucun avantage à utiliser la polarisation.
L'étalonnage est effectué par la combinaison des paramètres du système radar et de l'analyse
des données. Par exemple, on obtient une réponse modèle d'un réflecteur en coin trièdre
seulement si les quatre canaux du système radar montrent le même gain, s'il n'existe aucune
différence de phase dépendant du système entre les canaux et s'il n'y aucune perte d'énergie
d'un canal à l'autre.
Pour les paramètres du système radar, les gains et les phases des canaux devraient
correspondre le plus possible. Dans le cas de la concordance des phases, le trajet du signal
devrait ainsi être le même pour tous les canaux. Ces signaux d'étalonnage sont généralement
pris en compte lors de la conception du système afin d'aider à la vérification de la concordance
des canaux.
Quant à l'analyse des données de réception, elle permet de mesurer et de corriger les effets
de la concordance des canaux, de l'intermodulation et du bruit. En plus de l'analyse des
signaux d'étalonnage internes, on utilise des signaux de cibles connues, telles les réflecteurs
en coin, les transpondeurs actifs ou le fouillis uniforme, pour étalonner certains de ces
paramètres.
Applications polarimétriques
SIR-C. Les scientifiques ont tout de même utilisé ces données pour de nombreuses
applications. En outre, ils ont démontré une meilleure interprétation de nombreux éléments
d'une scène lorsque le radar fonctionne en mode polarimétrique. Le lancement de
RADARSAT-2 rendra les données polarimétriques accessibles sur une base opérationnelle,
ainsi l'utilisation de telles données se perfectionnera et deviendra pratique courante.
Voici une liste d'applications pour lesquelles le RSO polarimétrique s'avère déjà utile:
Tout comme les autres systèmes de télédétection, un capteur radar qui acquiert des images
peut être installé sur une plate-forme aéroportées ou sur un satellite. Selon l'utilisation finale
de l'imagerie, l'on trouvera plus d'avantages à l'un ou l'autre des deux types de plates-formes.
Quelle que soit la plate-forme utilisée, les radars à synthèse d'ouverture (RSO) possèdent
l'avantage d'une résolution spatiale indépendante de l'altitude de la plate-forme. Une bonne
résolution est donc possible à partir des deux types de plates-formes, aéroportée ou
spatioportée.
Bien que les radars aéroportés soient plus sensibles aux problèmes d'imagerie dus à la
géométrie, ils sont flexibles quant à la capacité d'acquérir des données à partir de différents
angles et directions de visée. En optimisant la géométrie pour un terrain en particulier, ou en
acquérant une image à partir de plus d'une direction, certains de ces effets peuvent être
réduits. De plus, un radar aéroporté est capable de prendre des données partout et en tout
temps (dans la mesure où les conditions atmosphériques permettent le vol de l'avion). Un
radar spatioporté n'a pas cette flexibilité puisque sa géométrique de visée et son horaire
d'acquisition des données sont contrôlés par son orbite. Cependant, les radars spatioportés
ont l'avantage de pouvoir acquérir des images plus rapidement au-dessus de plus grandes
régions que les radars aéroportés, avec une géométrie de visée consistante. La fréquence de
cette couverture n'est peut-être pas aussi grande qu'avec une plate-forme aérienne, mais
selon les paramètres orbitaux, la flexibilité de la géométrie de visée et la région géographique
étudiée, un radar spatial peut avoir une fréquence de visite aussi courte qu'un jour.
Comme c'est le cas de tout avion, un radar aéroporté est sujet aux variations de vitesse et
aux autres mouvements de l'avion, ainsi qu'aux conditions météorologiques. Afin d'éviter des
erreurs d'artefact ou de positionnement dues aux variations aléatoires du mouvement de
l'avion, le système radar doit utiliser un système de navigation et de télémétrie sophistiqué et
un traitement de l'image avancé pour compenser. Généralement, ceci permet de corriger la
plupart des variations de mouvement, sauf les plus fortes (telles que de la turbulence
importante). Les radars spatioportés ne sont pas affectés par ce type de mouvement. En
effet, leur orbite est généralement très stable et leur position peut être calculée très
précisément. Cependant, des corrections géométriques de l'image doivent être faites pour les
radars spatioportés en tenant compte des autres effets, tels que la rotation et la courbure de
la Terre, pour obtenir le positionnement géométrique propre aux éléments étudiés sur la
surface.
Afin d'illustrer plus clairement les différences entre les radars aéroportés et spatioportés, nous
allons brièvement décrire quelques-uns des systèmes représentatifs de chaque type, en
commençant par les systèmes aéroportés.
Des données prises en polarisations croisées peuvent être enregistrées simultanément pour
les deux bandes C et X, et la bande C peut être utilisée comme un radar polarimétrique. Les
images peuvent être obtenues avec trois différentes géométries de visée (les modes Nadir,
Étroit et Large) avec une large gamme d'angles d'incidence (de 5 à presque 90 degrés). En
plus d'être un système complètement calibrable pour des mesures quantitatives, il possède
une deuxième antenne sur le fuselage de l'avion qui permet au système en bande C d'opérer
en tant que radar interférométrique.
La
NASA
(National
Aeronautics
and
Space
Administration)
a
été un chef de file pour la recherche dans les systèmes multispectraux et RSO à polarisation
multiple depuis de nombreuses années. Le Jet Propulsion Lab (JPL) en Californie a reçu par
contrats, le mandat d'exploitation de divers systèmes de pointe pour la NASA. Le système
AirSAR est un RSO polarimétrique qui fonctionne en bandes C, L ou P, pouvant recueillir des
données dans toutes les combinaisons de polarisation (HH, HV, VH, VV). Les données
provenant du système AirSAR peuvent être complètement calibrées pour permettre
l'extraction de mesures rétrodiffusées. La résolution spatiale du système AirSAR est de l'ordre
de 12 mètres en portée et en azimut. L'angle d'incidence varie de zéro jusqu'à environ 70
degrés. Cette capacité d'acquérir des données avec des fréquences et des polarisations
multiples et dans une aussi vaste gamme d'angles d'incidence, permet la réalisation d'une
multitude d'expériences spécialisées en recherche.
latitudes équatoriales, l'on peut obtenir une couverture complète en six jours, en utilisant le
plus large couloir de 500 km.
3. Notes finales
Vous obtiendrez plus d'information sur les radars en consultant ce résumé1 et le site suivant
vous apportera des spécifications plus techniques2 sur le satellite canadien RADARSAT.
Vous pouvez voir des photos3 du satellite en construction ou regarder un vidéode son
lancement et voir sa toute première image!4 Pendant que vous y êtes, voyez comment la
télédétection par micro-ondes est utilisée dans une variété d'applications telles que
l'agriculture5, la foresterie6 et la géologie7. Voyez également les applications internationales8
de l'imagerie RADARSAT.
Voulez-vous apprendre comment réduire le chatoiement9 sur une image radar? C'est une
technique qui a été développée par des chercheurs du CCT en coopération avec des
chercheurs français. Voyez aussi comment un modèle numérique d'altitude (MNA) peut être
utilisé pour corriger les distorsions topographiques10 des images radar et comment une
image radar est calibrée au moyen d'un transpondeur de précision11. Ne manquez pas de
voir le mystifiant déplacement du transpondeur12 sur une image!
Vous trouverez un manuel de formation13 montrant comment l'on peut utiliser les données
radar pour obtenir des images en stéréo. Une autre technique fascinante qui est étudiée
activement au CCT, c'est l'interferométrie14. L'interférométrie a été expérimentée aussi bien
avec des données aéroportées qu'avec des données acquises par satellite et elle trouve des
applications dans la détection des changements de l'utilisation du sol15, du mouvement des
glaciers16 et dans l'étude des océans17.
Notre glossaire de télédétection est une mine d'information terminologique et comprend des
explications approfondies sur les concepts reliés aux micro-ondes. On y accède par des
termes particuliers de recherche18 ou en sélectionnant la catégorie « radar ».
1http://www.ccrs.nrcan.gc.ca/ccrs/data/satsens/radarsat/specs/rsatoview_f.html
2http://www.ccrs.nrcan.gc.ca/ccrs/data/satsens/radarsat/specs/radspec_f.html
3http://www.ccrs.nrcan.gc.ca/ccrs/data/satsens/radarsat/photos/radpix_f.html
4http://www.ccrs.nrcan.gc.ca/ccrs/data/satsens/radarsat/photos/radpix_f.html
5http://www.ccrs.nrcan.gc.ca/ccrs/data/satsens/airborne/sarbro/sbagri_f.html
6http://www.ccrs.nrcan.gc.ca/ccrs/data/satsens/airborne/sarbro/sbfort_f.html
7http://www.ccrs.nrcan.gc.ca/ccrs/data/satsens/airborne/sarbro/sbgeol_f.html
8http://www.ccrs.nrcan.gc.ca/ccrs/data/satsens/airborne/sarbro/sbgbsar_f.html
9http://www.ccrs.nrcan.gc.ca/ccrs/com/rsnewsltr/2303/2303ap1_f.html
10http://www.ccrs.nrcan.gc.ca/ccrs/com/rsnewsltr/2401/2401ap3_f.html
11http://www.ccrs.nrcan.gc.ca/ccrs/data/satsens/radarsat/trans/transpo_f.html
12http://www.ccrs.nrcan.gc.ca/ccrs/rd/ana/transpond/rpt_f.html
13http://www.ccrs.nrcan.gc.ca/ccrs/learn/tutorials/stereosc/chap1/chapter1_1_f.html
14http://www.ccrs.nrcan.gc.ca/ccrs/data/satsens/airborne/sarbro/sbinter_f.html
15http://www.ccrs.nrcan.gc.ca/ccrs/com/rsnewsltr/2301/2301rn2_f.html
16http://www.ccrs.nrcan.gc.ca/ccrs/data/satsens/radarsat/images/ant/rant01_f.html
17http://www.ccrs.nrcan.gc.ca/ccrs/rd/ana/split/insar_f.html
18http://www.ccrs.nrcan.gc.ca/ccrs/learn/terms/glossary/glossary_f.html
3. Le saviez-vous?
3.1 Le saviez-vous?
Les fours à micro-ondes utilisent des magnétrons utilisant la bande «S» dans la gamme de
fréquence située entre 2 et 4 GHz (correspondant à des longueurs d'ondes se situant entre
15 et 7,5 cm). Le grillage de métal utilisé dans la fabrication de la porte est tellement fin (à
maille beaucoup plus petite que 7,5 cm) qu'il agit comme une surface de métal uniforme. Ce
grillage évite aux micro-ondes de s'échapper tout en permettant une bonne visibilité à
l'intérieur (en utilisant les longueurs d'ondes visibles qui sont beaucoup plus petites).
3.2 Le saviez-vous?
Les produits de télédétection typiques (une image RADARSAT, par exemple) sont constitués
de données en format de 8 ou 16 bits. Pour obtenir toutes les caractéristiques physiques
originales des valeurs de rétrodiffusion ( sigma zéro ou beta zéro) des produits radars
calibrés, on doit inverser les étapes finales de la chaîne de traitement du RSO. Pour
l'imagerie RADARSAT, on doit d'abord mettre les valeurs numériques au carré et appliquer
une table de rehaussement radiométrique (dont la valeur varie en fonction de la portée).
Comme vous pouvez le constater, les relations entre les valeurs numériques de l'image ne
sont pas simples!
3.4 Le saviez-vous?