Jusqu’ici nous n’avons balayé que les méthodes qualifiées de directes, i.e. basée uniquement sur des mesures effectuées sur le terrain. Or, il n’est pas toujours nécessaire de réaliser des campagnes de terrain longues et coûteuses pour obtenir des informations géométriques et attributaires sur des objets. Les techniques abordées dans ce chapitre présentent l’avantage de couvrir rapidement des zones étendues, en limitant l’ampleur des mesures de terrain, sans toutefois les rendre obsolètes.

Nous abordons les techniques de télédétection sous deux aspects : le premier est la photogrammétrie, technique la plus répandue de la télédétection ; puis la télédétection aérospatiale, couvrant une plus large gamme de longueurs d’onde d’acquisition et de couverture géographique.

5.1.  La photogrammétrie

La photogrammétrie est l’ensemble des techniques et méthodes permettant de restituer la géométrie d’un objet à partir d’un couple de clichés, pris dans des positions différentes, de cet objet.

5.1.1.   Photogrammétrie classique

5.1.1.1.                       Historique

C’est en 1859 que le colonel français A. Laussedat présenta à l’Académie des Sciences, une méthode de détermination de coordonnées de points basée sur un calcul d’intersection spatiale à partir d’un couple de clichés de l’objet. Parallèlement, l’architecte allemand A. Meydenbauer, à qui l’on doit le terme de photogrammétrie, utilise avec succès ces techniques dans des travaux architecturaux de grande envergure.

De nombreux progrès techniques et théoriques ont permis, dès le début du 20ème siècle, à cette science nouvelle d’évoluer rapidement : la stéréophotogrammétrie développée par C. Pulfrich (1901), la définition de principes pour une mise en œuvre rationnelle des restituteurs optico-mécaniques par O. von Gruber… Actuellement, le développement des moyens de calculs est tel, qu’ils permettent de traiter toujours plus de données, avec des algorithmes toujours plus complets.

5.1.1.2.                       Les grands principes de la photogrammétrie

La photogrammétrie exploite la faculté de l’homme à percevoir le relief à partir de deux images planes d’un objet, prises de deux points de vue différents. C’est ce que nous faisons quotidiennement grâce à nos yeux et leurs rétines.

Comme le montre la figure (Figure 1), les points P et Q de l’espace objet sont à des éloignements différents du point d’observation. Il en résulte une parallaxe horizontale (P2Q2), qui différencie les deux images rétiniennes lors du fusionnement. Il est intéressant de noter que l’acuité en vision binoculaire est de l’ordre de 5’’ à 10’’, soit 16 à 48µm pour une distance de mise au point de 1m, alors qu’elle n’est que de 30’’ en vision monoculaire, soit 160µm pour la même distance de mise au point.

A partir de deux clichés, on peut reconstituer le même processus. La détermination de l’objet est alors basée sur la mesure des coordonnées, dans l’espace image, de la trace que cet objet a laissée sur l’émulsion photographique. L’élément fondamental de la mesure stéréoscopique est, dans le cas normal, la parallaxe horizontale (Figure 1), à partir de laquelle peut être calculé la distance à l’objet.

Au final, les coordonnées tridimensionnelles de l’objet, dans un système de référence qui lui est propre, sont issues d’une transformation spatiale, dite projective ou de similitude.

 

Figure 1. Principe de la vision binoculaire,
plan d’observation horizontal (Kraus et Waldhäusel, 1998)

5.1.1.3.                       La mesure photogrammétrique

Cette opération porte le nom de stéréorestitution, et nécessite des calculs préalables, le premier étant l’orientation interne. Cette étape permet de définir le référentiel des mesures effectuées sur un cliché. Elle est réalisée grâce aux repères de fond de chambre, lorsqu’ils existent.

Enfin, l’orientation externe permet de se rapporter à l’objet. Cette orientation peut être faite en une étape, en établissant un lien direct entre les mesures sur le cliché et le système de référence de l’objet ou en deux étapes, soit une orientation relative, qui crée un modèle plastique permettant l’observation stéréoscopique, puis une orientation absolue qui projette ce stéréomodèle sur le système objet, par le biais d’une similitude spatiale.

                                                                                                                                             [Eq. 1]

Plus concrètement, la mesure photogrammétrique consiste, après élimination de la parallaxe verticale, à déterminer la parallaxe horizontale (Figure 2), dans les référentiels image de chacun des clichés. La parallaxe verticale est éliminée lors de l’orientation relative du couple. On satisfait alors la condition de coplanéité, fondamentale pour autoriser toute mesure ultérieure.

Dans un cadre général, on pourra alors déterminer les coordonnées modèle de tout point, pour ensuite les projeter dans le système terrain ou objet. Les relations permettent le passage des coordonnées image aux coordonnées terrain, dans le cas normal, c’est à dire seulement lorsque les axes de prises de vue sont parallèles.

                                                                                                                                                                   [Eq. 2]

Dans ces relations apparaissent B la base, ou distance entre les deux prises de vue, et c, la distance principale de la chambre photographique employée.

 

Figure 2. Parallaxe horizontale sur un couple de clichés

5.1.2.   Photogrammétrie numérique

L’évolution actuelle des moyens de calcul informatique est telle que l’emploi de la photogrammétrie numérique est devenue très abordable, par le biais de nombreux logiciels de traitement fonctionnant sur PC et plates-formes logicielles classiques.

5.1.2.1.                       Définition de l’image numérique

Une image numérique est une matrice bidimensionnelle de valeurs numériques, de niveaux de gris, correspondant aux valeurs radiométriques issues de l’objet. Chaque élément de l’image, ou pixel (picture element) porte donc une information, étalée sur une palette allant de 0 à 255 pour les images codées sur 8 bits, ce qui est un cas courant.

Dans le cas de photographies numérisées, il est alors important de connaître la résolution de scannage, car elle sera nécessairement inférieure ou égale à la résolution initiale du cliché, tant au sens spatial que radiométrique du terme. Une telle constatation impose de considérer certaines limitations dans l’emploi des images numériques dans le cadre de traitements photogrammétriques poussés.

A cette image numérique, on associe un référentiel dont l’axe x est orienté vers la droite et l’axe y vers le bas, centré sur un point décalé d’un demi pixel en x et y du coin supérieur gauche de la matrice. On référence alors les coordonnées des centres de chaque pixel. Dès lors, un grand nombre de traitements sont possibles pour améliorer les qualités d’image, automatiser les processus de mesures ou les extractions des données.

 

 

5.1.2.2.                       Images épipolaires ou normales

Les images normales sont capitales pour rendre possible l’application des méthodes de mise en relation automatique des pixels. Ainsi, la vision par ordinateur s’apparente à la vision humaine, puisqu’elle va en reproduire le processus.

Le calcul d’images normales, à partir de prises de vues quelconques, suppose une orientation relative par rotation des clichés préalable. Le calcul consiste alors à déterminer la nouvelle matrice image de l’image normale, en veillant à le paramétrer de telle sorte que toute perte de pixels soit proscrite. Les relations entre pixels de chaque image et les méthodes de rééchantillonnage permettent une réattribution des valeurs radiométriques dans l’image normale.

5.1.2.3.                       Corrélation d’image

Le traitement numérique des données photographiques pour la photogrammétrie permet d’utiliser des algorithmes de recherche automatique de points homologues par corrélation sur les clichés d’un couple, basés sur les techniques d’analyse d’image et de traitement du signal.

Mathématiquement, on peut considérer que la valeur de gris d’un pixel d’une image numérique est exprimable sous la forme d’une fonction de deux variables, à valeurs discrètes. Dans un couple, chaque image aura alors une fonction de ce type, et la corrélation entre les deux s’exprimera sous la forme d’une somme finie.

                                                                           [Eq. 3]

f* est le complexe conjugué de f. L’étude des variations de cette fonction permet de déterminer le maximum de corrélation, avec une taille (M,N) fixée de matrice de pixels, pour une position (x,y) dans l’image.

De façon plus générale et pragmatique, la quasi-totalité de ce type d’algorithmes travaille avec une matrice de pixels, de taille variable, centrée sur un pixel. Les éléments de la matrice sont les valeurs de niveaux de gris des pixels avoisinant le pointé. L’algorithme utilisé par bon nombre de logiciels commerciaux utilise une matrice, ou fenêtre, de corrélation dont la taille est fixée par l’utilisateur. Pour trouver l’homologue d’un point saisi sur l’image de gauche, le logiciel applique un filtre de moyenne afin de réduire le bruit. La fenêtre est alors déplacée jusqu’à obtenir un maximum de corrélation. A partir de la position déterminée, le logiciel recalcule le point à une précision sub-pixellaire. En conclusion, un point homologue n’est validé que si le coefficient de corrélation c est supérieur au seuil minimum fixé.

                                                                                                                 [Eq. 4]

où les I sont les valeurs de niveau de gris des pixels, Imoy est une moyenne des valeurs de niveaux de gris à l’intérieur de la matrice de corrélation. Le coefficient ainsi défini est situé dans l’intervalle [-1,1].

5.1.2.4.                       Orthophotographies et orthophotoplans

Actuellement, on constate un effort de développement considérable des orthophotos et des orthophotoplans. La richesse d’information qu’ils présentent, comparé à une cartographie vectorielle, est en fait leur atout principal. Les différentes méthodes de réalisation n’emploient qu’un seul cliché de l’objet. Or, sachant qu’il est impossible de restituer la forme d’un objet sans un couple, il est nécessaire de disposer d’une information supplémentaire telle qu’un modèle numérique de terrain.

L’obtention d’une orthophotographie se fait à partir des clichés originaux, corrigés du point de vue géométrique. En appliquant des surcharges graphiques, des données vecteur on obtient l’orthophotoplan.

Concernant la qualité de ce type de travaux, il est nécessaire de disposer de clichés de qualité photographique élevée. Toute imprécision se ressent inévitablement sur la qualité du produit final.

Pratiquement, la création d’une orthophoto numérique consiste à créer une matrice image dans le plan horizontal des coordonnées terrain, à partir de la matrice image définie dans le système de la caméra. Ceci revient en fait à déterminer une nouvelle image plaquée sur un MNT grâce à des points de contrôles, connus dans les deux surfaces.

5.1.3.   La triangulation photogrammétrique ou aérotriangulation

5.1.3.1.                       Définition de l’aérotriangulation

Les principes de base de la stéréorestitution font apparaître que pour travailler sur un stéréomodèle, il faut disposer d’au moins trois points de calage, déterminés par des méthodes géodésiques (tachéométrie, GPS…)

L’aérotriangulation est une extension des méthodes de stéréorestitution, qui permet de restituer de façon globale un bloc de clichés tout en minimisant le nombre de points de calage à déterminer sur le terrain. On peut donc survoler des zones possédant une faible densité de points géodésiques.

5.1.3.2.                       Exigences de l’aérotriangulation

Les résultats finaux peuvent alors provenir de deux méthodes de calcul différentes. On dispose tout d’abord d’une méthode de compensation en bloc par modèles indépendants. Celle ci se base sur une transformation de similitude spatiale appliquée à des coordonnées modèle.

Usuellement, cette méthode est employée avec des prises de vues réalisées avec des chambres métriques, et nécessite la détermination des stéréomodèles, afin d’en obtenir les coordonnées de points qui seront transformées dans le système de référence de l’objet. On doit donc effectuer l’orientation relative des clichés avant de s’intéresser à la transformation qui ramènera dans ce système. Dans ce cas, la disposition des points de calage va avoir une importance considérable quant aux précisions tant planimétrique qu’altimétrique. Il est également à noter que ces deux paramètres n’ont pas d’influence réciproque dans un tel calcul.

La seconde méthode qui peut être employée est celle dite de compensation par les faisceaux. Celle-ci est développée ci-dessous.

D’après les recommandations de la Société Américaine de Photogrammétrie, il faut veiller à répartir les points de calage de façon suffisamment homogène, en vue d’atteindre une bonne précision, sachant que la solution la plus satisfaisante sera de les disposer dans les coins et sur les bords des bandes constituant le modèle. Le but essentiel est finalement d’éviter toute extrapolation. De plus, il est recommandé de disposer de 4 à 5 points de calage sur le premier modèle afin de pouvoir effectuer le calcul de l’échelle et de l’orientation absolue avec une précision aussi élevée que possible. C’est en quelque sorte une condition sine qua non pour démarrer le calcul de l’aérotriangulation.

5.1.3.3.                       Préparation d’un vol photographique

Le plan de vol se détermine à partir des différents paramètres de vol, qui doivent être fixés à priori, et des caractéristiques de la chambre de prise de vues employée. Les différentes relations employées pour la détermination des paramètres de vol sont les suivantes (Kraus et Waldhäusel, 1998) :

                               Longueur de côté sur le terrain                                                      

                               Hauteur de vol au-dessus du sol                                                   

                               Recouvrement longitudinal                                                             

                               Recouvrement latéral                                                                       

                               Longueur de base pour l fixé                                                          

                               Distance entre bandes pour q fixé                                  

                               Intervalles de temps entre prises de vues                     

Figure 3. Paramètres d’un vol photographique (a), position des points
de calage et de jonction sur un bloc (b) (d’après Henry et al.)

Ces relations sont exprimées dans le cas habituel de la photographie aérienne, c’est à dire avec l’emploi d’un format d’image carré (23x23 cm2 généralement pour les clichés IGN) et des axes de prise de vues verticaux.

5.1.3.4.                       Effet de filé

La préparation du vol suppose également de s’intéresser aux conditions d’utilisation de la chambre de prise de vues. En effet, pour effectuer les prises, on va employer une vitesse d’obturation pour une ouverture de diaphragme donnée. Cependant, il faut tenir compte du fait que l’avion se déplace, et que ce déplacement aura pour conséquence un filé sur le cliché, détériorant sa qualité.

Concrètement, l’effet de filé a la conséquence suivante : un point de l’objet ne donnera pas un point sur l’émulsion mais une traînée dont la longueur est fonction de la vitesse de déplacement et du rapport d’échelle, c’est à dire de la distance à l’objet et de la focale de l’objectif.

                                                                                                                                                                         [Eq. 5]

où v est la vitesse de l’avion, t le temps d’exposition et mb le coefficient d’échelle. On obtient alors le filé théorique uth, et on a empiriquement constaté que le filé effectif s’élève à 50% de cette valeur (Kraus et Waldhäusel, 1998). Compte tenu de la vitesse de croisière de l’appareil, il convient de choisir un temps d’exposition de l’émulsion suffisamment court afin de limiter les effets de ce désagrément, en veillant à adapter l’ouverture du diaphragme.

5.1.4.   Principes de compensation

5.1.4.1.                       Méthode de compensation par les faisceaux

Cette méthode repose sur l’utilisation des coordonnées image comme observations, et sur l’emploi d’une projection centrale. Elle permet de lier directement les coordonnées image aux coordonnées objet, sans passer par les coordonnées modèle. Elle nécessite un bloc de clichés présentant un recouvrement minimum de 60% en longitudinal, et de 20% en latéral.

D’autre part, cette méthode a un avantage considérable puisqu’elle autorise l’introduction dans le calcul de paramètres additionnels. On peut donc inclure dans le calcul les éléments d’orientations interne comme inconnues, mais aussi des paramètres de déformation de l’image, qui peut provenir non seulement des distorsions de l’objectif utilisé mais également des déformations du film, de diverses anomalies de réfraction ou de toute autre source d’erreur. Par conséquent, on tiendra compte des erreurs systématiques quelles que soient leurs origines. Ceci est particulièrement important dans le cas de l’utilisation d’une chambre de prises de vues amateur. De fait, les qualités citées font de cette méthode la plus précise de l’aérotriangulation.

5.1.4.2.                       Calcul d’une compensation par les faisceaux

On peut donc faire intervenir un certain nombre de paramètres complémentaires afin d’affiner la détermination. Cependant, l’introduction d’inconnues supplémentaires dans le calcul demande que le nombre de points de calage connus soit suffisant. Les conditions de cette introduction sont développées dans la suite. Attachons-nous tout d’abord à l’explicitation de la méthode.

La matrice des coefficients des équations normales, puis la matrice N, est calculée à partir des relations de base de la photogrammétrie, qui expriment les coordonnées image en fonction des coordonnées objet, exprimé dans un système de référence choisi par l’utilisateur.

                                                                                       [Eq. 6]

Ces relations font apparaître les paramètres ou variables suivants :

·        (ξ,h) : coordonnées image d’un point

·        (X,Y,Z) : coordonnées du point dans le système objet

·        (ξ 0,h0) : coordonnées image du point principal

·        (X0,Y0,Z0) : coordonnées du centre de projection

·        rij : coefficients de la matrice rotation [A.1] (fonctions de v, f, k)

Ces équations sont ensuite linéarisées pour pouvoir leur appliquer le principe des moindres carrés. La forme des équations normales permet de simplifier le calcul matriciel. En effet, le système des équations normales fait apparaître une matrice constituée de blocs, ou sous-matrices, bien distincts. De plus, certaines d’entre elles étant hyperdiagonales (diagonales par bloc), l’inversion en est facilitée. Le système des équations normales s’exprime sous la forme développée suivante :

                                                                                                                                         [Eq. 7]

Les matrices N11 et N22 sont diagonales par blocs, l’une avec des blocs (6,6), l’autre avec des blocs (3,3). On peut alors éliminer un des deux vecteurs inconnus et déterminer l’autre assez simplement [9] :

                                                                                                             [Eq. 8]

5.2.  La télédétection aérospatiale

La photogrammétrie n’exploite que des photographies de l’objet à restituer géométriquement. Les techniques actuelles de télédétection cherche à tirer parti à la fois de la détection de la géométrie des objets et de leur signature spectrale dans des gammes de longueurs d’onde fixées. Les capteurs sont ici bien différents des appareils photographiques utilisés en photogrammétrie : ils doivent assurer une cohérence des données acquises tant sur le plan géométrique que radiométrique. Le texte est tiré du cours de télédétection du Centre Canadien de Télédétection (CCT).

5.2.1.   Fondamentaux

Avant de présenter les différents type de système de télédétection, accessibles sur les plate-formes spatiales ou aéroportées, nous rappelons quelques notions de base sur les éléments physiques de ces techniques.

5.2.1.1.                       Définition générale

La télédétection est la technique qui, par l’acquisition d’images, permet d’obtenir de l’information sur la surface de la Terre sans contact direct avec celle-ci. La télédétection englobe tout le processus qui consiste à capter et à enregistrer l’énergie d’un rayonnement électromagnétique émis ou réfléchi, à traiter et à analyser l’information, pour ensuite mettre en application cette information (CCT).

Figure 4. Principe de l’acquisition d’information par télédétection (CCT)

Ces sept étapes couvrent le processus de la télédétection, du début à la fin.

5.2.1.2.                       Le spectre électromagnétique

Plusieurs régions du spectre électromagnétique sont utilisées en télédétection.

Le spectre électromagnétique s’étend des courtes longueurs d’onde (dont font partie les rayons gamma et les rayons X) aux grandes longueurs d’onde (micro-ondes et ondes radio).

Les plus petites longueurs d’onde utilisées pour la télédétection se situent dans l’ultraviolet. Ce rayonnement se situe au-delà du violet de la partie du spectre visible. Certains matériaux de la surface terrestre, surtout des roches et minéraux, entrent en fluorescence ou émettent de la lumière visible quand ils sont illuminés par un rayonnement ultraviolet.

 

 

La lumière que nos yeux (nos tout premiers "capteurs de télédétection") peuvent déceler se trouve dans ce qui s’appelle le "spectre visible". Il est important de constater que le spectre visible représente une bien petite partie de l’ensemble du spectre. Une grande partie du rayonnement électromagnétique qui nous entoure est invisible à l’œil nu, mais il peut cependant être capté par d’autres dispositifs de télédétection. Les longueurs d’onde visibles s’étendent de 0,4 à 0,7 mm. Il est important de noter que c’est la seule portion du spectre que nous pouvons associer à la notion de couleurs.

·         violet : 0.4 - 0.446 mm

·         bleu : 0.446 - 0.500 mm

·         vert : 0.500 - 0.578 mm

·         jaune : 0.578 - 0.592 mm

·         orange : 0.592 - 0.620 mm

·         rouge : 0.620 - 0.7 mm

Le bleu, le vert et le rouge sont les couleurs (ou les longueurs d’onde) primaires du spectre visible. Une couleur primaire ne peut être créée par deux autres couleurs, mais toutes les autres couleurs peuvent être créées en combinant les couleurs primaires. Même si nous voyons la lumière du Soleil comme ayant une couleur uniforme ou homogène, en réalité, elle est composée d’une variété de longueurs d’onde dans les parties de l’ultraviolet, du visible, et de l’infrarouge du spectre. La portion visible de ce rayonnement se décompose en ses couleurs composantes lorsqu’elle traverse un prisme.

L’infrarouge s’étend approximativement de 0,7 à 100 mm, ce qui est un intervalle environ 100 fois plus large que le spectre visible. L’infrarouge se divise en deux catégories : IR réfléchi et IR émis ou thermique. Le rayonnement dans la région de l’infrarouge réfléchi est utilisé en télédétection de la même façon que le rayonnement visible. L’infrarouge réfléchi s’étend approximativement de 0,7 à 3 mm. L’infrarouge thermique est très différent du spectre visible et de l’infrarouge réfléchi. Cette énergie est essentiellement le rayonnement qui est émis sous forme de chaleur par la surface de la Terre et s’étend approximativement de 3 à 100 mm.

 

Depuis quelques temps, la région des hyperfréquences suscite beaucoup d’intérêt en télédétection. Cette région comprend les plus grandes longueurs d’onde utilisées en télédétection et s’étend approximativement de 1 mm à 1 m. Les longueurs d’onde les plus courtes possèdent des propriétés semblables à celles de l’infrarouge thermique, tandis que les longueurs d’onde les plus grandes ressemblent aux ondes radio.

 

 

 

 

 

 

 

 

 

 


5.2.1.3.                       Les orbites

Les systèmes d’observation de la Terre, selon leurs objectifs peuvent être placés sur différentes orbites, autrement dit à une certaine distance de leur objet d’étude. Les grandes familles d’orbites sont les suivantes :

·         Géostationnaire : à une altitude d’environ 36 000 kilomètres, ils se déplacent à une vitesse qui correspond à celle de la Terre, donnant ainsi l’impression qu’ils sont stationnaires. Cette configuration orbitale permet au satellite d’observer et d’amasser continuellement de l’information sur une région spécifique. Les satellites de communication et d’observation des conditions météorologiques sont situés sur de telles orbites.

·         Quasi-polaire : cette configuration, combinée à la rotation de la Terre (ouest-est), fait qu’au cours d’une certaine période, les satellites ont observé la presque totalité de la surface de la Terre. Elle est appelée orbite quasi polaire à cause de l’inclinaison de l’orbite par rapport à une ligne passant par les pôles Nord et Sud de la Terre. La plupart des satellites sur orbite quasi-polaire sont aussi héliosynchrones ; de cette façon, ils observent toujours chaque région du globe à la même heure locale solaire. Pour une latitude donnée, la position du Soleil dans le ciel au moment où le satellite survole une certaine région au cours d’une saison donnée sera donc toujours la même. Cette caractéristique orbitale assure des conditions d’illumination solaire similaires, lorsqu’on recueille des données pour une saison particulière sur plusieurs années ou pour une région particulière sur plusieurs jours. Ceci est un facteur important lorsqu’on compare deux images successives ou lorsqu’on produit une mosaïque avec des images adjacentes, puisque les images n’ont pas à être corrigées pour tenir compte de l’illumination solaire.

Lorsqu’un satellite est en orbite autour de la Terre, le capteur "observe" une certaine partie de la surface. Cette surface porte le nom de couloir-couvert ou fauchée. Les capteurs sur plate-forme spatiale ont une fauchée dont la largeur varie généralement entre une dizaine et une centaine de kilomètres. Pour les satellites à orbite quasi-polaire, le satellite se déplace selon une trajectoire nord-sud. Cependant, vue de la Terre, la trajectoire du satellite semble avoir une composante vers l’ouest à cause de la rotation de la Terre. Ce mouvement apparent du satellite permet à la fauchée du capteur d’observer une nouvelle région à chacun des passages consécutifs du satellite. L’orbite du satellite et la rotation de la Terre travaillent donc de concert, permettant une couverture complète de la surface de la planète après un cycle orbital complet.

5.2.2.   Capteurs passifs

Un capteur passif est un dispositif de mesure qui s’intéresse à la portion d’énergie solaire renvoyée par la surface terrestre (ultraviolet, visible, infra-rouge), ou émise (infra-rouge thermique, micro-ondes). Plusieurs grandeurs caractérisent ces systèmes de mesure : les résolutions spatiale, spectrale, radiométrique et temporelle.

5.2.2.1.                       Résolution spatiale

Le détail qu’il est possible de discerner sur une image dépend de la résolution spatiale du capteur utilisé. La résolution spatiale est fonction de la dimension du plus petit élément qu’il est possible de détecter. Les images de télédétection sont composées d’une matrice d’éléments appelés pixels. Le pixel est le plus petit élément d’une image. Il est souvent carré et représente une partie de l’image. Il est cependant important de faire la distinction entre l’espacement des pixels et la résolution spatiale. Si un capteur a une résolution spatiale de 20 mètres et qu’il est possible de charger à l’écran une image provenant de ce capteur avec la pleine résolution, chaque pixel à l’écran représentera une superficie correspondant à 20 m sur 20 m au sol. Dans ce cas, la résolution et l’espacement des pixels sont identiques. Par contre, il est possible d’afficher la même image avec un espacement des pixels qui soit différent de la résolution. Sur de nombreuses affiches montrant des images de la Terre prises à partir d’un satellite, on combine plusieurs pixels en les moyennant, mais ceci ne modifie en rien la résolution spatiale du capteur utilisé.


Les images sur lesquelles seuls les grands éléments sont visibles ont une résolution grossière ou basse. Les images à résolution fine ou élevée permettent l’identification d’éléments de plus petites dimensions. Les capteurs utilisés par les militaires par exemple, sont conçus pour obtenir le plus de détails possible. Ils ont donc une résolution très fine. Les satellites commerciaux ont une résolution qui varie de quelques mètres à plusieurs kilomètres. De façon générale, plus la résolution augmente, plus la superficie de la surface visible par le capteur diminue.

5.2.2.2.                       Résolution spectrale

La résolution spectrale décrit la capacité d’un capteur à utiliser de petites fenêtres de longueurs d’onde. Plus la résolution spectrale est fine, plus les fenêtres des différents canaux du capteur sont étroites.

Une pellicule noir et blanc utilisée dans un appareil photographique enregistre les longueurs d’onde sur presque toutes les longueurs d’onde situées dans le spectre visible. Sa résolution spectrale est assez grossière, car les différentes longueurs d’onde ne sont pas différenciées par la pellicule qui n’enregistre que l’ensemble de l’énergie lumineuse captée par l’objectif. Une pellicule couleur est sensible elle aussi à l’ensemble des longueurs d’onde visibles, mais elle possède une résolution spectrale plus élevée puisqu’elle peut distinguer les longueurs d’onde dans le bleu, le vert et le rouge. Cette pellicule peut donc caractériser l’intensité lumineuse détectée selon ces intervalles de longueurs d’onde.

Plusieurs instruments de télédétection peuvent enregistrer l’énergie reçue selon des intervalles de longueurs d’onde à différentes résolutions spectrales. Ces instruments sont appelés capteurs multispectraux. Certains, plus développés, appelés capteurs hyperspectraux, sont capables de détecter des centaines de bandes spectrales très fines dans la portion du spectre des ondes électromagnétiques réunissant le visible, le proche infrarouge et l’infrarouge moyen. La très grande résolution spectrale des capteurs hyperspectraux facilite la différenciation des caractéristiques d’une image basée sur la réponse différente dans chacune des bandes spectrales.

5.2.2.3.                       Résolution radiométrique

Chaque fois qu’une image est captée par une pellicule ou un capteur, sa sensibilité à l’intensité de l’énergie électromagnétique détermine la résolution radiométrique. La résolution radiométrique d’un système de télédétection décrit sa capacité à reconnaître de petites différences dans l’énergie électromagnétique. Plus la résolution radiométrique d’un capteur est fine, plus le capteur est sensible à de petites différences dans l’intensité de l’énergie reçue. La gamme de longueurs d’onde à l’intérieur de laquelle un capteur est sensible se nomme plage dynamique.

Les données images sont représentées par une valeur numérique variant entre 0 et 2 à une certaine puissance moins un. Cet intervalle correspond à un nombre de bits utilisés pour encoder des valeurs en format binaire. Chaque bit représente un exposant de la base 2 (par exemple, 1 bit = 21 = 2). Le nombre maximum de niveaux d’intensité disponibles dépend du nombre de bits utilisés pour représenter l’intensité enregistrée. Par exemple, un capteur utilisant 8 bits pour enregistrer les données aura 28 = 256 niveaux d’intensité disponibles car il aura 256 valeurs numériques disponibles allant de 0 à 255. Si seulement 4 bits sont utilisés, alors seulement 24 = 16 valeurs allant de 0 à 15 seront disponibles. La résolution radiométrique sera donc plus faible.

5.2.2.4.                       Résolution temporelle

En plus de la résolution spatiale, spectrale et radiométrique, l’autre concept important en télédétection est celui de la résolution temporelle. Le temps que prend un satellite pour effectuer un cycle orbital complet est généralement de quelques jours. Il faut donc quelques jours à un tel satellite pour qu’il puisse observer de nouveau exactement la même scène à partir du même point dans l’espace. La résolution temporelle absolue du système de télédétection est égale à cette période. Toutefois, certaines régions de la surface peuvent être observées plus fréquemment puisqu’il y a chevauchement entre les couloirs-couverts adjacents et que ces zones de chevauchement deviennent de plus en plus grandes en s’approchant des pôles. Certains satellites ont aussi la possibilité de pointer leurs capteurs en direction du même point pour différents passages. La résolution temporelle effective du satellite dépend donc d’une variété de facteurs dont la grandeur de la zone de chevauchement entre les couloirs-couverts adjacents, la capacité du satellite et de ses capteurs et également la latitude.

 

5.2.3.   Capteurs actifs

Les capteurs actifs à hyperfréquences fournissent leur propre source de rayonnement pour illuminer la cible. Le plus répandu des systèmes est le radar. De l’anglais (RAdio Detection And Ranging) radar veut dire détection et télémétrie par ondes radio. Les radars transmettent vers la cible un signal radio dans les hyperfréquences et détectent la partie rétrodiffusée du signal. L’intensité du signal rétrodiffusé est mesurée pour discerner les différentes cibles, et le délai entre la transmission et la réception du signal sert à déterminer la distance (ou la portée) de la cible.

Puisque le radar est un capteur actif, il peut aussi être utilisé pour représenter la surface à n’importe quel moment du jour ou de la nuit. Ce sont là les deux principaux avantages du radar : imagerie sous toutes conditions et de jour comme de nuit. Fait important à comprendre, la différence fondamentale de fonctionnement qui existe entre le radar actif et les capteurs passifs (décrits précédemment), font qu’une image radar est très différente et possède des propriétés distinctes des images obtenues dans la partie visible et infrarouge du spectre électromagnétique. Ces différences font que, les données radars et les données obtenues dans le visible peuvent être complémentaires puisqu’elles offrent différentes perspectives de la surface de la Terre et apportent donc des informations différentes.

 

6.      Références bibliographiques