Ressources éducatives - Applications
Introduction
Comme nous l'avons vu dans le chapitre qui traite des capteurs (chapitre 2), chaque capteur est conçu pour des applications spécifiques. Les bandes spectrales acquises par un capteur optique déterminent les applications pour lesquelles il sera utile. Quant au capteur radar, ce sont l'angle d'incidence et la fréquence utilisés qui en détermine l'utilisation.
Pour chaque application, il existe une combinaison spécifique de résolutions spectrale, spatiale et temporelle. Revoyons ces trois types de résolutions.
La résolution spectrale fait référence à la largeur ou l'étendue de chaque bande enregistrée. Par exemple, les images panchromatiques, qui captent une grande étendue de toutes les longueurs d'ondes visibles, ne sont pas aussi sensibles au stress de la végétation que les images utilisant une bande étroite dans l'infrarouge, la chlorophylle absorbant fortement le rayonnement infrarouge.
La résolution spatiale fait référence au détail perceptible dans une image. La cartographie détaillée des marécages requiert une résolution spatiale beaucoup plus détaillée que la cartographie de régions physiographiques.
La résolution temporelle fait référence au laps de temps écoulé entre deux images. Plusieurs applications (la surveillance de feux de forêt, un déversement d'hydrocarbures ou le mouvement de la glace océanique) nécessitent des images répétitives, prises avec la plus grande fréquence possible. Certaines autres applications (identification de récoltes, invasion d'insectes et surveillance des marécages) demandent des images saisonnières, tandis que d'autres, comme la cartographie des structures géologiques, demandent une seule série d'images. Les applications où le temps est un facteur important nécessitent un traitement et une livraison rapides des images pour permettre aux utilisateurs d'en retirer l'information le plus rapidement possible.
Dans le cas où des images répétitives sont nécessaires, le cycle de passage du capteur (la période de temps écoulée avant qu'il ne repasse au-dessus d'un même point) et sa fiabilité sont très importants pour l'obtention de données valables. Les capteurs optiques sont limités dans les environnements nuageux où les cibles sont souvent difficiles à voir. Dans certaines régions, particulièrement sous les tropiques, il s'agit là d'une condition presque permanente, tandis qu'aux pôles, c'est la luminosité qui est inadéquate pendant plusieurs mois de l'année. Le radar fournit des données fiables car le capteur produit sa propre illumination et utilise une longueur d'onde qui pénètre les nuages, la fumée et le brouillard, ce qui assure qu'une cible ne sera jamais dégradée par les conditions climatiques ou par de mauvaises conditions d'illumination.
Souvent, il faut utiliser plusieurs capteurs pour bien répondre à tous les besoins d'une application. La combinaison de plusieurs sources de données s'appelle la fusion ou l'intégration d'images. Les données additionnelles qui peuvent aider à l'analyse ou l'interprétation des images sont nommées données auxiliaires.
Les applications de la télédétection décrites dans ce chapitre sont représentatives, mais ne forment pas une liste exhaustive de toutes les applications possibles. Nous ne parlerons pas, par exemple, des domaines de la recherche et des applications pratiques en climatologie et en météorologie. Le lecteur notera aussi que plusieurs autres applications spécialisées (analyse de la praticabilité de terrain, investigations archéologiques, planification de routes ou autres passages, etc.) ne sont pas discutées dans ce texte.
Utilisations de plusieurs sources d'information
Chaque bande de données recueillie par un capteur contient des informations importantes et uniques. Nous savons qu'une cible interagit différemment selon la longueur d'onde de l'énergie incidente qui est reflétée, absorbée, diffusée ou retransmise dans des proportions différentes. L'apparence d'une cible peut facilement changer avec le temps, parfois en quelques secondes. Pour plusieurs applications, le fait d'utiliser l'information en provenance de différentes sources de données garantit une identification correcte de la cible et une cueillette de données aussi précises que possible.
Voici des façons de combiner plusieurs ensembles de données pour retirer le plus d'information possible d'une cible ou d'une région.
Données multispectrales
L'utilisation de plusieurs bandes spectrales vise à exploiter des "vues" différentes de la cible pour en faciliter l'identification. Plusieurs études ont été faites pour identifier les meilleures bandes spectrales pour l'identification et l'analyse de cibles spécifiques, comme des arbres endommagés par des insectes.
Données multicapteurs
Différents capteurs fournissent des informations différentes et complémentaires qui lorsqu'elles sont intégrées, peuvent faciliter l'interprétation et la classification des images. Un exemple de cette fusion de données provenant de plusieurs capteurs serait la fusion d'images panchromatiques de haute résolution avec des images multispectrales à faible résolution. Nous pouvons aussi combiner des données acquises de façon active et passive. Un exemple spécifique serait l'intégration d'images RSO à des images multispectrales. L'imagerie RSO ajoute l'expression de la topographie ou du relief de surface à une image qui en paraît dépourvue. L'image multispectrale fournit l'information spectrale significative de la composition et de la couverture de la surface du sol. Ce type d'images est souvent utilisé en géologie où la lithologie (ou la composition minérale) est représentée par la composante spectrale, et où la structure est représentée par la composante radar.
Données multitemporelles
L'information multitemporelle est tirée d'une série d'images prises pendant une période de temps. Multitemporel peut signifier que les images ont été acquises à quelques jours, semaines, mois ou années d'intervalle. La surveillance du changement de la couverture du sol ou de la croissance urbaine nécessite des images acquises à différentes périodes. Des données calibrées, avec des contrôles attentifs sur l'aspect quantitatif de la réponse spectrale et de la rétrodiffusion, sont requises pour la bonne surveillance des activités. Avec des données non calibrées, une classification de l'image la plus ancienne est comparée à une classification de l'image plus récente, et les changements dans les frontières des classes sont tracés. Un autre outil multitemporel utile est l'observation de la phénologie (les changements de la végétation durant la saison de croissance), ce qui implique l'acquisition d'images à des intervalles fréquents durant la période de croissance.
L'information multitemporelle provient de l'interprétation d'images prises au-dessus de la même région, mais à différents moments. L'intervalle de temps entre les images est choisi de façon à surveiller un événement dynamique. Des événements catastrophiques (glissements de terrains, inondations, feux, etc.) nécessitent un intervalle de quelques jours, tandis que les événements plus lents (fonte de glacier, croissance d'une forêt) requièrent quelques années d'intervalle. Ce genre d'application exige aussi une uniformité dans la condition d'illumination (angle solaire ou géométrie d'images radars) pour produire des résultats de classification comparables.
Pour augmenter la précision de l'analyse multitemporelle critique et quantitative, il faut des données calibrées. C'est seulement en établissant une relation entre les niveaux de luminosité d'une image et des unités de mesure qu'on peut comparer des images de façon précise et quantifiable, et déterminer ainsi la nature et la grandeur des changements observés.
Détails de la page
- Date de modification :