Suite

Comment créer une carte NDVI à partir de l'intensité LiDAR et de l'image RVB


Je suis nouveau avec les SIG et j'ai cherché des moyens de créer une carte NDVI à partir d'une intensité LiDAR et d'une image RVB. Y a-t-il un moyen que je puisse faire?

J'ai lu que vous pouviez créer une image d'intensité, mais comment pouvons-nous la fusionner avec l'image RVB ? Existe-t-il un logiciel SIG pour cela ?


Il n'y a pas de logiciel SIG spécifique pour cela : la plupart traiteront l'image RVB et les données Lidar.

Fondamentalement, NDVI est (NIR - RED)/(NIR + RED). La plupart du temps, le Lidar aérien vous donne la valeur NIR (à vérifier dans les métadonnées) et la première bande de votre image RVB vous donne la valeur ROUGE. Assurez-vous simplement que vos données sont calibrées en réflectance (ou, si ce n'est pas possible, normalisées dans la même plage de valeur -> cela vous donnera une bonne discrimination, mais aucun seuil absolu ne pourra alors être utilisé).

A noter que Lidar ne fournit pas toujours les informations d'intensité. Parfois, seules les informations de distance sont disponibles.


Cartographier les zones sensibles à l'érosion après les incendies de forêt à l'aide de techniques de travail sur le terrain, de télédétection et de systèmes d'information géographique à l'échelle régionale

[1] Les altérations du cycle hydrologique à la suite d'un incendie de forêt dues à la perte de la végétation de la couverture végétale et aux modifications des propriétés du sol ont été documentées dans de nombreuses études. Néanmoins, le processus rapide de rétablissement de la végétation réduit ces effets négatifs. La couverture végétale avant le feu, la gravité du feu et les propriétés géophysiques sont des facteurs importants qui contrôlent les discontinuités spatiales impliquées dans le processus de couverture végétale. L'objectif de cette étude était d'estimer la probabilité d'une forte érosion afin de cartographier les zones sensibles à l'érosion après incendie. L'analyse a été réalisée dans différentes communautés végétales brûlées par les feux de forêt d'été dans la zone pré-pyrénéenne (Espagne). Des images Landsat Thematic Mapper (TM) sur trois ans ont été utilisées pour cartographier les zones de feux de forêt et les niveaux de gravité. La conversion en réflectance spectrale a été appliquée pour la correction radiométrique en normalisant les effets topographiques et atmosphériques. De même, d'autres variables physiques ont également été incorporées dans le système d'information géographique (SIG) : types de végétation, matériel parental, éclairage, pente, aspect et précipitations. La variable dépendante a été caractérisée au moyen de travaux de terrain et d'un processus de photo-interprétation basé sur des orthophotographies aériennes numériques à haute résolution prises 11 à 12 ans après l'incendie. Différents modèles de régression logistique ont été utilisés pour cartographier la probabilité d'érosion. Les résultats indiquent que les valeurs et l'aspect de l'indice de végétation de la différence normalisée avant le feu sont les variables les plus importantes pour estimer les zones sensibles à l'érosion après le feu (Nagelkerke r 2 = 0,66 valeurs Kappa = 0,65). Enfin, l'utilisation de modèles non paramétriques avec des informations numériques environnementales basées sur des SIG peut faciliter la gestion des zones brûlées.


Traitement Lidar à faible coût

La fonctionnalité améliorée d'analyse et d'édition lidar du module Global Mapper Lidar est proposée à un prix nettement inférieur à celui d'applications similaires. Le coût d'activation de ce module est comparable au coût d'achat d'une copie de Global Mapper avec des options de licence flexibles disponibles pour un usage réseau, entreprise et académique. Pour plus d'informations, contactez [email protected]

Fonctionnalités du module lidar

Le Lidar Module® est intégré à la version actuelle de Global Mapper® et est activé sur le module/License Extension Manager. En savoir plus sur les fonctionnalités du module Lidar ci-dessous. Un essai gratuit est disponible pour évaluation.

À l'aide d'un ensemble d'images superposées, telles que celles collectées à l'aide d'un drone, l'outil Pixels to Points génère un nuage de points à haute densité basé sur des paramètres sélectionnables par l'utilisateur. Utilisant les principes de la photogrammétrie dans lesquels les mesures sont dérivées de photographies, l'outil Pixels to Points analyse la relation entre les objets reconnaissables dans les images adjacentes pour déterminer les coordonnées tridimensionnelles de la surface correspondante. En tant que sous-produit de la capacité de génération de nuages ​​de points, l'outil Pixels to Points offre également la possibilité de créer une image orthorectifiée en quadrillant les valeurs RVB de chaque point, ainsi qu'un maillage 3D, avec des textures photoréalistes.

Le traitement de création du nuage de points commence par un simple chargement des images dans la boîte de dialogue Pixels en points. Pour des résultats optimaux, un chevauchement d'au moins 60 % et des photos uniformément réparties prises sous différents angles sont recommandées. Les images individuelles peuvent être prévisualisées et celles qui ne sont pas nécessaires pour le nuage de points final peuvent être supprimées. Différents paramètres peuvent ensuite être appliqués pour déterminer la qualité de sortie, la méthode d'analyse, etc. Enfin, des points de contrôle au sol peuvent éventuellement être ajoutés pour ajuster le positionnement horizontal et vertical du nuage de points. Une fois le traitement terminé, le nuage de points sera automatiquement ajouté à l'espace de travail actuel. Il peut être traité ou modifié avant d'être exporté vers l'un des formats de nuage de points pris en charge, notamment LAS et LAZ.

Le processus Pixels to Points est gourmand en mémoire et peut prendre plusieurs heures à traiter en fonction des données d'entrée et du paramètre de qualité. Il est recommandé d'effectuer ce processus sur un ordinateur dédié avec au moins 16 Go de RAM. L'outil Pixels to Points nécessite également un système d'exploitation 64 bits.

En utilisant un groupe sélectionné de points lidar, ce processus utilise la géométrie 3D inhérente des points ainsi que les couleurs associées si elles sont présentes et crée un maillage ou un modèle 3D. Lorsqu'il est visualisé en 3D, ce modèle s'affiche sous la forme d'une représentation 3D photo-réaliste à multiples facettes de la caractéristique correspondante. Ce processus produit une sortie similaire à l'option de création de modèle dans l'outil Pixels en points.

Algorithmes de classification automatique des points

Le module Lidar comprend une barre d'outils pratique pour rationaliser la classification des points sélectionnés en un seul clic. Cette barre d'outils comprend des boutons pour les types de classification les plus courants, notamment le sol, la végétation et les bâtiments. De plus, les points sélectionnés peuvent être modifiés manuellement et attribués à n'importe quel type de classification lidar ASPRS à l'aide de la fonction d'édition du numériseur.

Sur la base des propriétés géométriques et d'autres caractéristiques du fichier lidar ou du nuage de points, l'outil de reclassification automatique du module Lidar est capable d'identifier avec précision et de reclasser automatiquement les points représentant les types d'entités ponctuelles importants. Tout d'abord, l'identification des points au sol, qui est utilisée pour la création d'un modèle MNT ou de la terre nue. Dans les points restants au-dessus du sol, des algorithmes spécifiques peuvent être appliqués pour identifier et reclasser la végétation haute, les bâtiments et les lignes électriques.

Le module Lidar offre un outil pour vérifier la précision verticale d'un nuage de points. En utilisant des points de contrôle au sol levés, les valeurs d'altitude dans toute la couche peuvent être vérifiées et ajustées si nécessaire.

Les points peuvent être filtrés à l'aide de divers critères et à différentes étapes du workflow de traitement du nuage de points. Lors de l'importation, les points peuvent être filtrés en fonction de la classification, du nombre de retours, du nombre d'échantillons ou en fonction de leur répartition géographique. Les mêmes options de filtrage peuvent être utilisées pour filtrer l'affichage des points dans la vue cartographique. Lors de la création d'une surface maillée ou d'un MNT, un niveau de filtrage supplémentaire est disponible et peut être utilisé pour supprimer des points en fonction de la plage d'altitude, de la classification, de l'intensité, de la couleur ou de nombreuses autres caractéristiques du nuage de points.

Répondant à une préoccupation majeure des utilisateurs de lidar, le module Global Mapper Lidar fournit un moyen efficace et efficient de supprimer le bruit des données de nuages ​​de points. Ce puissant outil de filtrage peut reclasser ou supprimer automatiquement tous les points situés au-delà d'une élévation ou d'une hauteur prescrite au-dessus du seuil du sol dans une zone locale.

Le module Lidar comprend de nombreux outils pour interroger des points en fonction à la fois des attributs du nuage de points et de leur répartition géographique. La fonction de recherche peut être utilisée pour créer une requête à plusieurs niveaux de classification de points, de plage d'altitude, d'intensité ou de toute autre variable. Les options de requête spatiale incluent l'identification des points contenus dans un polygone sélectionné ou des points qui se trouvent à une distance définie d'un certain type de type de point ou d'entité linéaire. Cette fonction est idéale pour la détection d'empiètement.

À l'aide d'un ensemble de paramètres personnalisables, cet outil réduit le nombre de points dans un nuage de points, ce qui se traduit par une taille de fichier plus gérable tout en éliminant la redondance. Ce processus d'amincissement peut être appliqué de manière cohérente sur l'étendue 2D de la couche ou il peut varier pour refléter la distribution 3D des points.

L'une des fonctionnalités les plus puissantes du module Lidar, l'outil d'extraction d'entités est utilisé pour créer des entités vectorielles (point, ligne ou polygone) dérivées de points correctement classés. Sur la base d'une série de paramètres personnalisables, des motifs de points représentant des bâtiments, des arbres, des poteaux et des câbles de services publics sont analysés et leur étendue est automatiquement délimitée comme une série d'objets vectoriels 3D ou, dans le cas de bâtiments, comme un maillage 3D.

À l'aide de la fonction Profil de trajectoire perpendiculaire, une série de vues en coupe transversale espacées personnalisées sont créées perpendiculairement à une trajectoire définie à travers un nuage de points. Les sommets 3D peuvent être placés rapidement et avec précision à intervalles réguliers dans chaque vue de profil successive. Une fois la séquence terminée, une entité linéaire ou surfacique 3D est créée à l'aide de l'outil de numérisation standard de Global Mapper. Il s'agit d'un outil idéal pour délimiter des bordures, des câbles de services publics, des canalisations, des fossés de drainage ou des lignes de toit de construction à partir de données de nuages ​​de points haute résolution.

L'affichage des points peut être ajusté pour refléter de nombreux attributs dans le nuage de points, notamment :

  • Élévation
  • Intensité
  • Classification
  • Numéro de retour
  • Hauteur au-dessus du sol
  • Identifiant de source de point
  • NDVI/NDWI (lorsque l'attribut NIR est présent)
  • Densité de points

En cas de superposition sur un calque raster ou quadrillé, la valeur RVB ou NIR de chaque pixel sous-jacent peut être ajoutée au point associé.

Le module Lidar offre de nombreuses options pour créer un modèle de surface. Complétant le processus de triangulation simple (TIN), le binning offre un moyen plus efficace et personnalisable de créer un DTM ou un DSM d'une résolution spécifique. L'hydro-aplatissement permet aux valeurs d'altitude inhérentes associées aux lignes vectorielles ou aux polygones 3D de remplacer les altitudes basées sur des points lors de la modélisation des plans d'eau ou des cours d'eau.

Le module permet l'affichage d'une section d'un nuage de points dans la vue Profil du chemin. Cette perspective latérale est initialement créée en établissant une largeur de bande pour s'assurer que suffisamment de points sont affichés pour la zone d'intérêt. La perspective latérale est idéale pour la sélection et l'édition manuelles de points, car elle distingue clairement les points décalés verticalement de ceux de la zone environnante.


Paramètres

Le jeu de données LAS à traiter.

L'emplacement et le nom du raster en sortie. Lors du stockage d'un jeu de données raster dans une géodatabase ou dans un dossier tel qu'une grille Esri, n'ajoutez pas d'extension de fichier au nom du jeu de données raster. Une extension de fichier peut être fournie pour définir le format du raster lors de son stockage dans un dossier, comme .tif pour générer un GeoTIFF ou .img pour générer un fichier au format ERDAS IMAGINE.

Si le raster est stocké sous forme de fichier TIFF ou dans une géodatabase, son type et sa qualité de compression raster peuvent être spécifiés à l'aide des paramètres d'environnement de géotraitement.

Les données lidar qui seront utilisées pour générer la sortie raster.

  • Élévation — L'élévation des fichiers lidar sera utilisée pour créer le raster. C'est la valeur par défaut.
  • Intensité — Les informations d'intensité des fichiers lidar seront utilisées pour créer le raster.
  • RVB : les valeurs RVB des points lidar seront utilisées pour créer des images à 3 bandes.

La technique d'interpolation qui sera utilisée pour déterminer les valeurs de cellule du raster en sortie.

L'approche de regroupement fournit une méthode d'attribution de cellule pour déterminer chaque cellule en sortie à l'aide des points qui se trouvent dans son étendue, ainsi qu'une méthode de remplissage vide pour déterminer la valeur des cellules qui ne contiennent aucun point LAS.

Méthodes d'attribution de cellule

  • AVERAGE —Affecte la valeur moyenne de tous les points de la cellule. C'est la valeur par défaut.
  • MINIMUM —Affecte la valeur minimale trouvée dans les points de la cellule.
  • MAXIMUM —Affecte la valeur maximale trouvée dans les points de la cellule.
  • IDW —Utilise l'interpolation à distance pondérée inverse pour déterminer la valeur de la cellule.
  • NEAREST —Utilise l'affectation du voisin le plus proche pour déterminer la valeur de la cellule.
  • NONE —NoData est affecté à la cellule.
  • SIMPLE —Moyenne les valeurs des cellules de données entourant immédiatement une cellule NoData pour éliminer les petits vides.
  • LINEAR —Triangule les zones vides et utilise une interpolation linéaire sur la valeur triangulée pour déterminer la valeur de la cellule. C'est la valeur par défaut.
  • NATURAL_NEIGHBOR —Utilise l'interpolation du voisin naturel pour déterminer la valeur de la cellule.

Les méthodes d'interpolation par triangulation dérivent les valeurs des cellules à l'aide d'une approche basée sur le TIN tout en offrant également la possibilité d'accélérer le temps de traitement en réduisant l'échantillonnage des données LAS à l'aide de la technique de taille de fenêtre.

Méthodes de triangulation

  • Linéaire : utilise l'interpolation linéaire pour déterminer les valeurs des cellules.
  • Voisins naturels : utilise l'interpolation du voisin naturel pour déterminer la valeur de la cellule.

Méthodes de sélection de la taille de la fenêtre

  • Maximum : le point avec la valeur la plus élevée dans chaque taille de fenêtre est conservé. C'est la valeur par défaut.
  • Minimum : le point avec la valeur la plus faible dans chaque taille de fenêtre est conservé.
  • Plus proche de la moyenne : le point dont la valeur est la plus proche de la moyenne de toutes les valeurs de point dans la taille de la fenêtre est conservé.

Spécifie le type de valeurs numériques stockées dans le raster en sortie.

  • Virgule flottante — Le raster en sortie utilisera une virgule flottante 32 bits, qui prend en charge des valeurs comprises entre -3,402823466e+38 et 3,402823466e+38. C'est la valeur par défaut.
  • Entier — Le raster en sortie utilisera une profondeur de bits entière appropriée. Cette option arrondira les valeurs z au nombre entier le plus proche et écrira un entier dans chaque valeur de cellule raster.

Spécifie la méthode qui sera utilisée pour interpréter la valeur du paramètre Sampling Value pour définir la résolution du raster en sortie.

  • Observations — Le nombre de cellules qui divisent le côté le plus long de l'étendue du jeu de données LAS sera utilisé.
  • Taille de cellule — La taille de cellule du raster en sortie sera utilisée. C'est la valeur par défaut.

Valeur utilisée conjointement avec le paramètre Type d'échantillonnage pour définir la résolution du raster en sortie.

Facteur par lequel les valeurs z seront multipliées. Ceci est généralement utilisé pour convertir les unités linéaires z pour correspondre aux unités linéaires x,y. La valeur par défaut est 1, ce qui laisse les valeurs d'altitude inchangées. Ce paramètre n'est pas disponible si la référence spatiale de la surface d'entrée a une référence z avec une unité linéaire spécifiée.

Le jeu de données LAS à traiter.

L'emplacement et le nom du raster en sortie. Lors du stockage d'un jeu de données raster dans une géodatabase ou dans un dossier tel qu'une grille Esri, n'ajoutez pas d'extension de fichier au nom du jeu de données raster. Une extension de fichier peut être fournie pour définir le format du raster lors de son stockage dans un dossier, comme .tif pour générer un GeoTIFF ou .img pour générer un fichier au format ERDAS IMAGINE.

Si le raster est stocké sous forme de fichier TIFF ou dans une géodatabase, son type et sa qualité de compression raster peuvent être spécifiés à l'aide des paramètres d'environnement de géotraitement.

Les données lidar qui seront utilisées pour générer la sortie raster.

  • ÉLÉVATION — L'élévation des fichiers lidar sera utilisée pour créer le raster. C'est la valeur par défaut.
  • INTENSITÉ — Les informations d'intensité des fichiers lidar seront utilisées pour créer le raster.
  • RVB — Les valeurs RVB des points lidar seront utilisées pour créer des images à 3 bandes.

La technique d'interpolation qui sera utilisée pour déterminer les valeurs de cellule du raster en sortie.

L'approche de regroupement fournit une méthode d'attribution de cellule pour déterminer chaque cellule en sortie à l'aide des points qui se trouvent dans son étendue, ainsi qu'une méthode de remplissage vide pour déterminer la valeur des cellules qui ne contiennent aucun point LAS.

Méthodes d'attribution de cellule

  • AVERAGE —Affecte la valeur moyenne de tous les points de la cellule. C'est la valeur par défaut.
  • MINIMUM —Affecte la valeur minimale trouvée dans les points de la cellule.
  • MAXIMUM —Affecte la valeur maximale trouvée dans les points de la cellule.
  • IDW —Utilise l'interpolation à distance pondérée inverse pour déterminer la valeur de la cellule.
  • NEAREST —Utilise l'affectation du voisin le plus proche pour déterminer la valeur de la cellule.
  • NONE : aucune donnée n'est affectée à la cellule.
  • SIMPLE —Moyenne les valeurs des cellules de données entourant immédiatement une cellule NoData pour éliminer les petits vides.
  • LINEAR —Triangule sur les zones vides et utilise une interpolation linéaire sur la valeur triangulée pour déterminer la valeur de la cellule. C'est la valeur par défaut.
  • NATURAL_NEIGHBOR —Utilise l'interpolation du voisin naturel pour déterminer la valeur de la cellule.

Les méthodes d'interpolation par triangulation dérivent les valeurs des cellules à l'aide d'une approche basée sur le TIN tout en offrant également la possibilité d'accélérer le temps de traitement en réduisant l'échantillonnage des données LAS à l'aide de la technique de taille de fenêtre.

Méthodes de triangulation

  • Linéaire : utilise l'interpolation linéaire pour déterminer les valeurs des cellules.
  • Voisins naturels : utilise l'interpolation du voisin naturel pour déterminer la valeur de la cellule.

Méthodes de sélection de la taille de la fenêtre

  • Maximum : le point avec la valeur la plus élevée dans chaque taille de fenêtre est conservé. C'est la valeur par défaut.
  • Minimum : le point avec la valeur la plus faible dans chaque taille de fenêtre est conservé.
  • Plus proche de la moyenne : le point dont la valeur est la plus proche de la moyenne de toutes les valeurs de point dans la taille de la fenêtre est conservé.

Spécifie le type de valeurs numériques stockées dans le raster en sortie.

  • FLOAT — Le raster en sortie utilisera une virgule flottante 32 bits, qui prend en charge des valeurs allant de -3,402823466e+38 à 3,402823466e+38. C'est la valeur par défaut.
  • INT — Le raster en sortie utilisera une profondeur de bits entière appropriée. Cette option arrondira les valeurs z au nombre entier le plus proche et écrira un entier dans chaque valeur de cellule raster.

Spécifie la méthode qui sera utilisée pour interpréter la valeur du paramètre Sampling Value pour définir la résolution du raster en sortie.

  • OBSERVATIONS — Le nombre de cellules qui divisent le côté le plus long de l'étendue du jeu de données LAS sera utilisé.
  • CELLSIZE — La taille de cellule du raster en sortie sera utilisée. C'est la valeur par défaut.

Valeur utilisée conjointement avec le paramètre Type d'échantillonnage pour définir la résolution du raster en sortie.

Facteur par lequel les valeurs z seront multipliées. Ceci est généralement utilisé pour convertir les unités linéaires z pour correspondre aux unités linéaires x,y. La valeur par défaut est 1, ce qui laisse les valeurs d'altitude inchangées. Ce paramètre n'est pas disponible si la référence spatiale de la surface d'entrée a une référence z avec une unité linéaire spécifiée.

Exemple de code

L'exemple suivant illustre l'utilisation de cet outil dans la fenêtre Python.

L'exemple suivant illustre l'utilisation de cet outil dans un script Python autonome.


Cette section fournit des directives sur le traitement de votre imagerie pour assurer une précision optimale dans le calcul des indices spectraux. Toutes ces étapes peuvent ne pas être nécessaires, selon la source de données.

Corriger les effets atmosphériques

Avant de calculer les indices spectraux, les valeurs brutes des pixels (également appelées numéros numériques ou alors Valeurs DN) doit être calibré en unités physiquement significatives. Les trois corrections radiométriques les plus courantes sont la radiance, la réflectance au sommet de l'atmosphère (TOA) et la réflectance apparente de la surface. Certaines publications suggèrent que les indices spectraux calculés à partir de l'un de ces types de données sont techniquement corrects, bien que chacun produise des résultats d'indice différents pour les mêmes conditions de surface. Cependant, le consensus général est que l'étalonnage pour réflectance apparente de la surface donne les résultats les plus précis avec les indices spectraux. Ceci est particulièrement important pour les capteurs hyperspectraux tels que AVIRIS et EO-1 Hyperion. L'étalonnage de l'imagerie par rapport à la réflectance de surface garantit également la cohérence lors de la comparaison des indices dans le temps et à partir de différents capteurs.

L'outil d'étalonnage radiométrique ENVI étalonne l'imagerie de la plupart des capteurs spatiaux modernes à la radiance et à la réflectance TOA. Un outil de correction atmosphérique tel que FLAASH ou QUAC peut encore supprimer les effets de la diffusion atmosphérique et des absorptions de gaz pour produire des données de réflectance de surface. Sauf indication contraire, les indices spectraux d'ENVI supposent que les images ont été calibrées pour la réflectance de surface.

Consultez les didacticiels suivants pour obtenir des instructions sur l'utilisation de FLAASH pour corriger l'imagerie hyperspectrale et multispectrale :

D'autres outils tels que la soustraction sombre, la correction de ligne empirique, la correction de champ plat et la correction de réflectance IAR offrent un moyen rapide de corriger les effets atmosphériques. Celles-ci peuvent être suffisantes pour préparer des données multispectrales pour les indices spectraux, mais ce ne sont pas des méthodes rigoureuses basées sur des modèles telles que FLAASH.

Échelle des données de réflectance

Les valeurs de données dans une image de réflectance représentent le pourcentage de réflectance (0 à 100), en utilisant des valeurs à virgule flottante de 0 à 1,0. FLAASH et QUAC mettent automatiquement à l'échelle les données de réflectance par 10 000 pour produire des données entières, qui consomment moins d'espace disque que les données à virgule flottante. Par exemple, une valeur de pixel de 3900 représente une valeur de réflectance de 0,39 ou 39% de réflectance dans cette bande.

Pour les indices basés sur des ratios normalisés tels que le NDVI et ses dérivés, vous n'avez pas besoin de redimensionner davantage les valeurs des données. Cependant, d'autres indices peuvent vous obliger à mettre à l'échelle les valeurs de pixel de 0 à 1,0. Pour ce faire, importez l'image de réflectance de FLAASH ou QUAC dans l'outil Appliquer le gain et le décalage (ou ENVIApplyGainOffsetTask dans l'ENVI API). Met le Gagner des valeurs pour toutes les bandes à 0,0001. Conservez la valeur par défaut de 0 pour Valeurs de décalage pour toutes les bandes. Enregistrez-le en tant que nouvelle image.

Créer des masques

Vous devez masquer les caractéristiques indésirables de votre image avant de calculer les indices spectraux. Cela garantira les résultats les plus précis. Vous pouvez choisir de le faire avant ou après la correction atmosphérique. Voir la rubrique Masques pour plus de détails.

Certaines images (par exemple, Landsat) contiennent des pixels d'arrière-plan qui doivent être masqués avant la correction atmosphérique. Dans ces cas, vous pouvez créer un masque à l'aide d'une valeur d'ignorance des données.

Les nuages ​​doivent être supprimés de l'imagerie avant de calculer les indices spectraux. Voici différentes options pour masquer les nuages :

  • Dessinez des régions d'intérêt (ROI) polygonales autour des nuages ​​et d'autres entités hautement saturées. Créez ensuite une image masquée, où les pixels dans les ROI sont masqués et définis sur les valeurs "NoData". Voir Options de création d'un masque.
  • Utilisez l'outil Calculer le masque de nuage à l'aide de Fmask pour créer un masque de nuage pour Landsat, Sentinel-2 et certains ensembles de données NPP VIIRS .

Valeurs de réflectance élevées du clip

Les images qui ont été corrigées des effets atmosphériques à l'aide de FLAASH ou QUAC peuvent avoir quelques pixels avec des valeurs de réflectance inférieures à 0 ou supérieures à 100 %. Ces pixels n'ont pas bien modélisé pendant le processus de correction atmosphérique et pourraient être causés par des nuages ​​ou d'autres caractéristiques hautement saturées de l'image. Ces pixels anormaux peuvent produire des valeurs d'indice spectral qui se situent en dehors de la plage attendue.

Vous pouvez vérifier la plage de valeurs de données en cliquant avec le bouton droit sur l'image dans le gestionnaire de calques et en sélectionnant Statistiques rapides. Dans la boîte de dialogue Affichage des statistiques, recherchez le tableau Statistiques de base. Voici un exemple d'une image de réflectance à quatre bandes dont les valeurs de pixels ont été précédemment mises à l'échelle de 0 à 1 :

Vous pouvez voir que les valeurs maximales dépassent 1,0 dans les quatre bandes. Pour résoudre ce problème, utilisez ENVI Modeler pour créer un modèle simple qui définit les pixels supérieurs à 1,0 à une valeur de 1,0. Le modèle doit utiliser le nœud High Clip (et éventuellement, un nœud Low Clip si des valeurs tombent en dessous de 0). Dans la boîte de dialogue Paramètres du nœud High Clip, entrez un tableau de valeurs de seuil de 1,0, en fonction du nombre de bandes dans votre image. Voici un exemple pour une image à quatre bandes :

Sélectionnez le Fichier option, puis spécifiez un nom de fichier de sortie et un emplacement. Exécutez ensuite le modèle.

Une fois le modèle exécuté, cliquez avec le bouton droit sur le raster découpé dans le gestionnaire de calques et sélectionnez Statistiques rapides. Vérifiez que la valeur de données maximale est de 1,0 pour toutes les bandes.

Créer une pile de couches (jeux de données métaspectraux uniquement)

Certains jeux de données sont organisés en différents groupes de bandes, avec différentes résolutions spatiales. ASTER, Landsat et Sentinel-2 sont des exemples courants. Ceux-ci sont appelés métaaspectral ensembles de données dans ENVI. Le gestionnaire de données affiche les différents groupes de bandes. Voici un exemple tiré d'un ensemble de données Sentinel-2 :

Tous les indices de végétation à large bande verte utilisent une combinaison de longueurs d'onde bleue, verte, rouge et proche infrarouge (NIR). Lors de l'exécution du Indices spectraux outil pour l'un de ces indices, il vous suffit de sélectionner le groupe de bandes visible-NIR comme entrée.

Cependant, les groupes d'indices spectraux suivants reposent sur une combinaison de bandes visible, à bord rouge, proche infrarouge, infrarouge à ondes courtes (SWIR) et/ou thermique :

Lorsque vous travaillez avec un jeu de données métaaspectral, vous devez créer une pile de couches des différents groupes de bandes si vous souhaitez calculer ces indices spectraux. En faisant cela, toutes les bandes seront disponibles dans un seul fichier. Le didacticiel Burn Indices montre un exemple de la façon de procéder avec l'imagerie Landsat. Reportez-vous également à la rubrique d'aide Build Layer Stack pour plus d'informations.


2 réponses 2

Je ne suis pas sûr de la matrice de projection fournie par Kitti, donc la réponse est que cela dépend. Si cette matrice de projection ne contient qu'une matrice de transformation, vous ne pouvez pas générer de carte de profondeur à partir de celle-ci. L'image 2D a une distorsion qui provient de la caméra 2D et le nuage de points n'a généralement pas de distorsion, vous ne pouvez donc pas mapper « précisément » le nuage de points à l'image rvb sans paramètres intrinsèques et extrinsèques.

PCL n'est pas obligé de le faire.

La carte de profondeur consiste essentiellement à mapper la valeur de profondeur sur l'image RVB. Vous pouvez traiter chaque point dans le nuage de points (chaque laser de lider) comme un pixel de l'image RVB. Par conséquent, je pense que tout ce que vous avez à faire est de trouver quel nuage de points correspond au premier pixel (coin supérieur gauche) de l'image RVB. Ensuite, lisez la valeur de profondeur du nuage de points en fonction de la résolution de l'image RVB.

Vous n'avez rien à voir avec la caméra. Il s'agit de données de nuages ​​de points. Disons que vous avez 10 millions de points et que chaque point a x,y,z en mètres. Si les données ne sont pas en mètres, convertissez-les d'abord. Ensuite, vous avez besoin de la position du lidar. Lorsque vous soustrayez la position de la voiture de tous les points un par un, vous prendrez la position du lidar au point (0,0,0), puis vous pourrez simplement imprimer le point sur une image blanche. Le reste est du calcul simple, il peut y avoir plusieurs façons de le faire. Tout d'abord, cela me vient à l'esprit : pensez aux rgb comme des nombres binaires. Disons que 1 cm est mis à l'échelle pour changer en 1 bleu, 256 cm de changement équivaut à changer en 1 vert et 256x256 qui est 65536 cm de changement équivaut à un changement en 1 rouge. Nous savons que la caméra est (0,0,0) si rgb du point est 1,0,0 alors cela signifie 256x256x1+0x256+0x1=65536 cm de la caméra. Cela pourrait être fait en C++. Vous pouvez également utiliser des algorithmes d'interpolation et de point le plus proche pour remplir les blancs s'il y a


1. Introduction

Les feux de forêt constituent l'une des principales menaces pour les espaces naturels, étant un problème saisonnier à caractère permanent [1], qui a été aggravé par des facteurs liés au changement climatique et aux conditions de vulnérabilité socio-économique [2] les feux de forêt nécessitent la réalisation et l'organisation d'un série de structures de défense par une administration pour assurer une réponse rapide et efficace [3].

Les conditions du climat méditerranéen, qui se caractérise par une longue période estivale avec des conditions très défavorables tant en termes de température que de précipitations, ainsi que les formations végétales typiques de la Méditerranée [4], font des feux de forêt un phénomène récurrent dans cette zone qui est encore aggravée par des facteurs anthropiques dans la causalité des incendies. En raison de ces facteurs, lors de la prise d'actions liées à la gestion des feux de forêt, une politique préventive doit prévaloir où des mesures proactives en période de danger faible et moyen sont prises, en dotant l'environnement d'infrastructures de défense et d'actions forestières spécifiques.

Au milieu des années 1980, des techniques basées sur la télédétection pour l'étude des feux de forêt ont commencé à être mises en œuvre. Ces dernières années, les progrès dans ce domaine se sont concentrés sur l'analyse ultérieure des dommages causés par les incendies de forêt [5,6], le degré de dommages à la végétation [7] après un incendie de forêt [8,9], clarifiant les principales causes d'inflammation [10], évaluant l'état du reboisement [11] après le passage du feu [12], ou identifiant les foyers actifs de feu [13]. D'autre part, une étude parallèle a utilisé l'imagerie satellitaire pour classer le modèle de carburant avec une précision moyenne et faible [14].

La classification du modèle de combustible est faite en fonction des caractéristiques des masses végétales. Ces données ont été obtenues grâce à des observations de terrain publiées dans l'Inventaire forestier national, ce qui était un processus long et coûteux [15]. Cependant, de telles informations peuvent être obtenues plus rapidement de nos jours avec les données LiDAR (Light Detection and Ranging) [16,17], ainsi que d'autres informations remarquables dans le modèle de classification des carburants [18] telles que la continuité verticale des masses d'arbres [19, 20], les caractéristiques topographiques [21] et la structure de la canopée [22,23,24]. Pour plus de précision dans la cartographie des modèles de carburant, des études ont été menées qui combinent les informations des images multispectrales avec les données LiDAR, par exemple dans les modèles de carburant du programme BEHAVE des États-Unis [25], et en simulant la comportement des feux de forêt [26] lorsque les satellites ne sont pas aussi accessibles ou ont une résolution temporelle et spatiale moindre. A partir du modèle combustible, la cartographie de l'intensité du feu [27], du CO2 qui seront émises [28], ou de la probabilité d'inflammation [29], peuvent toutes être prédites en effectuant des processus d'interpolation et d'analyse géostatistique des données météorologiques et des caractéristiques topographiques [30].

Dans cette étude, la télédétection a été mise en œuvre comme outil d'analyse dans le domaine des feux de forêt par exemple, les images satellites du satellite Sentinel 2 [31] ont été utilisées pour cartographier la végétation avec une résolution de 10 × 10 m. Cette cartographie a été mise en relation avec les données obtenues par LiDAR [32] du PNOA (Plan National d'Orthophotographie Aérienne) afin de caractériser les masses arboricoles et la topographie de la zone d'étude, et plus tard de créer un protocole d'analyse qui permet la mise à jour de cette la cartographie doit se produire périodiquement ou immédiatement. En outre, il permet la création de cartes spécialisées (telles que des cartes de modèle de combustible et de risque d'inflammation) à titre préventif plutôt que structurel dans le domaine des incendies de forêt dans la vallée du Jerte. Cela a, à son tour, permis la cartographie de modèles de carburant à haute résolution. Cette analyse en science de l'information géographique (SIG) dans la vallée du Jerte vise à obtenir une cartographie détaillée, fiable et actualisable du modèle de carburant avec un minimum d'investissement.

Une fois la carte des modèles de combustible obtenue, la carte de probabilité d'allumage est également obtenue, et ainsi les zones d'étude sont déterminées lorsque la priorité est donnée à la mise en œuvre de mesures préventives [33] et à la centralisation des ressources d'extinction. Les incendies dépendent des conditions météorologiques, et donc cet indice ne prend pas en compte l'effet des conditions climatiques passées, mais uniquement celles qui se produisent dans le présent [34].


Données d'altitude pour la cartographie des plaines inondables (2007)

UNE La carte des plaines inondables comporte trois éléments clés : une imagerie cartographique de base et/ou un travail de ligne cartographique, un modèle d'élévation représentant la surface de la terre ou le « terrain » et les résultats d'études d'inondation générés à partir d'analyses techniques. Ce chapitre décrit les technologies de télédétection qui peuvent être utilisées pour créer l'imagerie de la carte de base et le modèle d'élévation et se concentre sur l'élévation en raison de son importance particulière dans la précision de la carte finale de la plaine inondable. Les données d'élévation constituent la base du calcul technique des élévations de base des crues (BFE). Elles constituent également la surface sur laquelle la BFE est cartographiée pour délimiter les limites des crues. L'altitude (terrain) est de loin la cible la plus facile et le sujet le plus fréquent pour les appels des propriétaires individuels aux cartes d'inondation de l'Agence fédérale de gestion des urgences (FEMA). le facteur dont on peut le plus clairement démontrer qu'il est erroné» (Rooney et Godesky, 2006).

Que les données d'altitude &ldquobest-available&rdquo soient utilisées ou que de nouvelles données d'altitude soient acquises pour une étude d'inondation, des jugements éclairés doivent être faits sur la pertinence de ces ensembles de données et leur influence sur les calculs des données d'inondation. Toutes les données d'altitude (anciennes et nouvelles) proviennent d'une technologie de télédétection d'une forme ou d'une autre, chaque technologie a des caractéristiques uniques et des forces et faiblesses particulières. Pour discuter des questions fondamentales, qu'est-ce qu'une carte d'inondation &ldquogood&rdquo ? et La meilleure technologie disponible est-elle utilisée efficacement ? il faut être familiarisé avec les catégories de technologies cartographiques disponibles. Ce chapitre est destiné à fournir une introduction aux technologies de télédétection suffisante pour comprendre la disponibilité de données d'altitude adéquates pour relever les défis de gestion des plaines inondables auxquels notre pays est confronté.

4.1 CONCEPTS ET TERMES

Les termes et concepts les plus essentiels de la télédétection et de la cartographie sont abordés dans le texte suivant. Le lecteur est renvoyé à l'annexe C pour les définitions des termes et à l'annexe D pour une liste complète des acronymes qui apparaissent tout au long de ce chapitre.

4.1.1Systèmes de références et de coordonnées

Dans les domaines de la géodésie, de l'arpentage et de la cartographie, le terme données (pluriel références) se réfère à une surface de référence par rapport à laquelle les mesures de position sont faites simplement indiqué,

il définit &ldquozero&rdquo sur l'échelle de mesure. Les références horizontales sont utilisées pour décrire un emplacement en latitude et en longitude. Les références verticales sont utilisées pour décrire les hauteurs au-dessus ou les profondeurs en dessous de la surface de la terre.

Pour développer des références horizontales et verticales, la forme de la terre doit d'abord être définie. La science de la géodésie est consacrée à &ldquomesurer et représenter la Terre, y compris son champ de gravité, dans un espace tridimensionnel variant dans le temps&rdquo (Vanicek et Krakiwsky, 1986), et certains concepts de base de la géodésie sont expliqués avant de se plonger dans les applications de la géodésie à distance. technologie de détection à la cartographie des plaines inondables.

Le modèle mathématique qui est le plus souvent utilisé pour approximer la forme de la terre est un oblat ellipsoïde, un sphéroïde qui a été légèrement aplati aux pôles nord et sud. Le système de référence géodésique de 1980 (GRS80) est le système de référence géodésique largement accepté adopté par l'Assemblée générale de l'Union internationale de géodésie et de géophysique en 1979 (Moritz, 1980). GRS80 est un ellipsoïde de référence mondiale pour la navigation et la cartographie du centre de masse de la terre est définie comme son origine. Le système géodésique mondial de 1984 (WGS84) a été développé par la U.S. Defense Mapping Agency (DMA maintenant la National Geospatial-Intelligence Agency, NGA) et officiellement publié en 1987 WGS84 est la référence ellipsoïdale utilisée par le Global Positioning System (GPS). La différence entre GRS80 et WGS84 est très faible et peut être considérée comme négligeable pour la plupart des levés et cartographies (NIMA, 1987).

En pratique, il faut des repères physiques, ou les monuments, sur la surface terrestre qui ont des coordonnées connues de latitude et de longitude sur l'ellipsoïde de référence. Le National Geodetic Survey (NGS) maintient un système de bornes et de coordonnées publiées connu sous le nom de système de référence nord-américain de 1983 (NAD83). NAD83 est un point de référence horizontal qui représente le meilleur ajustement au GRS80 pour le continent nord-américain, c'est la norme actuelle (telle que définie par un Registre fédéral avis du 13 juin 1989) utilisé par l'U.S. Geological Survey (USGS), la FEMA et d'autres pour les programmes de cartographie nationaux, étatiques et locaux. Un nombre important de cartes topographiques de l'USGS ont été créées à l'aide d'un système de référence horizontal antérieur, le système de référence nord-américain de 1927 (NAD27), basé sur le sphéroïde de Clarke de 1866. NGS a cessé d'utiliser ce système de référence en faveur du NAD83.

La forme de la terre et le champ de gravité sont complexes et varient dans le temps, cependant, le champ de gravité est basé sur la variabilité de la masse et non sur la forme. L'eau s'écoule en descendant vers la mer en suivant les forces de gravité, et non en suivant la forme d'un ellipsoïde imaginaire. Par conséquent, nous avons besoin d'un système de référence vertical défini par la gravité, la surface de gravité qui coïncide en moyenne avec le niveau global de la mer est appelée le géoïde, comme le montre la figure 4.1. Dans certains endroits sur la terre, l'altitude zéro par rapport au géoïde est de plusieurs mètres au-dessus de zéro par rapport à l'ellipsoïde dans d'autres endroits, le géoïde peut être plusieurs mètres au-dessous de l'ellipsoïde. La différence est connue sous le nom de séparation du géoïde.

Comme le NAD83 pour l'horizontale, il existe également un système de référence vertical pour l'élévation appelé le système de référence vertical nord-américain de 1988 (NAVD88), qui a été établi par un minimum

FIGURE 4.1 Relation de la surface terrestre, du géoïde et d'un ellipsoïde géocentrique. La différence de hauteur entre le géoïde et l'ellipsoïde géocentrique (N) est la séparation du géoïde. SOURCE : URS Corporation.

ajustement contraint des observations de nivellement du levé, maintenant fixe un repère de marée primaire au Québec, Canada. NAVD88 remplace le National Geodetic Vertical Datum de 1929 (NGVD29), qui était à la base de nombreuses anciennes cartes de plaine inondable FEMA. La plupart des nouvelles cartes FEMA sont référencées au NAVD88. La conversion de NGVD29 en NAVD88 peut être effectuée à l'aide du programme NGS, VERTCON, sauf dans les régions d'affaissement important, comme indiqué au chapitre 3. Les modèles altimétriques numériques (DEM) dérivés des cartes de contour sur NAD27 sont couramment et facilement convertis en NAD83 pour la modernisation des cartes d'inondation. et adapté aux orthophotos numériques qui sont également compilées selon le système de référence horizontal NAD83. Le problème le plus important concerne le système de référence vertical, où les DEM doivent être convertis de NGVD29 en NAVD88. Ici, la FEMA a pour objectif de convertir les anciennes données topographiques en NAVD88, mais les problèmes sont complexes lorsque des études d'ingénierie antérieures ont toutes été effectuées sur l'ancien NGVD29.

Les hauteurs déterminées à partir du GPS ne sont pas relatives au niveau moyen de la mer plutôt, les hauteurs GPS sont relatives à l'ellipsoïde. La séparation du géoïde doit être appliquée afin de calculer une élévation par rapport au niveau moyen de la mer.Les modèles du géoïde sont mis à jour toutes les quelques années en fonction des nouvelles mesures du champ de gravité terrestre.

La différence entre les termes &ldquoelevation&rdquo et &ldquohheight&rdquo doit également être clarifiée. La hauteur fait généralement référence à la distance mesurée au-dessus ou au-dessous d'une surface de référence, une référence. L'altitude fait référence à un type spécifique de hauteur, une orthométrique hauteur, ce que la plupart des gens considèrent comme une hauteur au-dessus du niveau moyen de la mer. Le terme modèle d'élévation est utilisé ici pour signifier une représentation de la surface de la terre, le terrain, avec des hauteurs référencées à une donnée de hauteur orthométrique spécifiée.

4.1.2Exactitude, précision et résolution

La capacité des technologies de télédétection à produire des modèles d'élévation précis et la précision qui en résulte des cartes des plaines inondables sont parmi les questions centrales de cette étude. Les termes clés et leurs utilisations dans le contexte de ce rapport sont définis ici.

Précision est la proximité d'une valeur estimée, mesurée ou calculée à une valeur standard, acceptée ou vraie d'une quantité particulière. Les vraies valeurs des emplacements et des altitudes, par rapport aux systèmes de référence établis, sont rarement, voire jamais, connues. Toutes les coordonnées spatiales sont des mesures calculées, donc la précision elle-même ne peut être qu'estimée, jamais connue de manière absolue. La quantification de l'erreur et le langage de l'évaluation de l'exactitude reposent fortement sur les principes des statistiques et des probabilités.

Précision relative est une évaluation de la quantité d'erreur dans la détermination de l'emplacement d'un point ou d'une caractéristique par rapport à un autre. Par exemple, la différence d'élévation entre deux points sur la surface de la terre peut être mesurée très précisément, mais les élévations indiquées des deux points par rapport au point de référence pourraient contenir une grande erreur. Dans ce cas, la précision relative des élévations de points est élevée, mais la précision absolue est faible.

Précision est une mesure statistique de la tendance des mesures indépendantes et répétées d'une valeur à produire le même résultat. Une mesure peut être hautement répétable, donc très précise, mais inexacte si l'instrument de mesure n'est pas calibré correctement. La même erreur serait répétée précisément dans chaque mesure, mais aucune des mesures ne serait exacte.

Résolution spectrale décrit la façon dont un capteur optique réagit à diverses longueurs d'onde de la lumière. Une résolution spectrale élevée signifie que le capteur fait la distinction entre des bandes de longueurs d'onde très étroites. Une résolution spectrale faible signifie que le capteur enregistre l'énergie dans une large bande de longueurs d'onde en une seule mesure.

Résolution radiométrique fait référence à la capacité d'un capteur à détecter des différences de magnitude d'énergie. Les capteurs à faible résolution radiométrique ne sont capables de détecter que des différences relativement importantes dans la quantité d'énergie reçue. Les capteurs à haute résolution radiométrique sont capables de détecter des différences relativement faibles.

Résolution temporelle est définie comme la fréquence à laquelle les données sont capturées pour un endroit spécifique sur la terre. Plus elles sont capturées fréquemment, meilleure ou plus fine est la résolution temporelle dite. La résolution temporelle est pertinente lors de l'utilisation de jeux de données d'imagerie ou d'altitude capturés successivement au fil du temps pour détecter les changements dans le paysage.

Résolution spatiale est l'un des termes les plus fréquemment mal utilisés dans les spécifications de cartographie. Selon le Glossaire des sciences de la cartographie (ASCE, ACSM, ASPRS, 1994), c'est « la mesure du plus petit détail distinguable dans une image. » Alors que le détail distinguable dépend de la taille du pixel de l'image, la taille d'un objet qui peut être vu dans une image et la taille d'un seul pixel dans une image sont différentes.

Généralement, la résolution spatiale (la taille d'un pixel dans une image) est confondue avec la précision spatiale (emplacement de ce pixel par rapport à une donnée cartographique). Dire que la taille d'un pixel dans une image est de 1 pied en unités au sol n'est pas la même chose que de dire que les coordonnées au sol de ce pixel sont précises à 1 pied près de leur &ldquotrue valeur.&rdquo Une image peut avoir une résolution spatiale très élevée et une très faible précision spatiale, ou vice versa.

Distance d'échantillonnage au sol (GSD) est la taille d'un pixel projeté sur la surface du sol, comme indiqué en unités linéaires par pixel, par exemple, un quart de quadrilatère orthophoto numérique (DOQQ) de l'USGS a un GSD de 1 mètre car chaque pixel correspond à 1 mètre au sol. GSD est ce que beaucoup de gens (et les vendeurs de produits de télédétection) veulent dire lorsqu'ils parlent de la &ldquorésolution spatiale&rdquo d'une image GSD est le terme correct. Lorsque vous utilisez le terme en référence à un modèle d'élévation, GSD décrit l'espacement réel ou nominal entre les échantillons ou les mesures d'élévation du sol.

Espacement des poteaux décrit l'intervalle de distance au sol des cellules dans une grille d'élévation uniforme. Par exemple, dans la définition ci-dessus d'un USGS DEM, on peut dire que l'un des produits standard du National Elevation Dataset (NED) a un espacement de poste de 30 mètres, le terme est synonyme d'espacement de grille. Ce n'est pas exactement la même chose que GSD en référence aux modèles d'élévation. GSD fait référence à l'espacement des mesures réelles, tandis que l'espacement postérieur fait référence à l'intervalle du produit interpolé généré à partir de ces mesures. Le terme espacement des postes est souvent utilisé pour désigner le GSD. Ce rapport suit les définitions plus formelles, mais le lecteur doit être conscient de la manière dont ces termes sont couramment utilisés (ou mal utilisés) dans la littérature industrielle.

4.1.3Principes d'évaluation de la précision et normes

Maintenant que tous les termes nécessaires ont été définis, comment quantifier et faire des déclarations définitives sur la précision d'un modèle d'élévation ? Il a été souligné qu'il est impossible de faire une évaluation de la précision spatiale par rapport à la "vérité absolue". les déclarations d'exactitude sont relatives. Les altitudes sont mesurées par rapport à un système de référence vertical, et le système de référence vertical lui-même est une approximation de quelque chose d'idéal tel que le « niveau moyen de la mer », qui ne peut pas être exactement et complètement connu car il s'agit par définition d'une moyenne. Nous ne pouvons pas dire absolument qu'une altitude particulière est précise à 1 pied, 1 pouce ou 1 millimètre près de sa valeur réelle. Cependant, nous pouvons exprimer le niveau de confiance que nous avons dans une mesure basée sur un cadre de tests statistiques. Nous pouvons dire que nous avons un niveau de confiance (par exemple, 90 %, 95 %) que notre mesure se situe dans une certaine tolérance d'une valeur &ldquotrue&rdquo.

Les National Map Accuracy Standards (NMAS) de 1947 (U.S. Bureau of the Budget, 1947) ont défini la précision verticale pour les cartes de contour imprimées avec une échelle et un intervalle de contour publiés. Ces normes de précision sont antérieures aux données numériques et ne sont pas appropriées pour

évaluer et rendre compte de la précision verticale des DEM. Cependant, les courbes de niveau sont toujours si intuitivement attrayantes et historiquement ancrées que l'habitude de définir les exigences en matière de données et de décrire les produits d'altitude avec un langage NMAS obsolète a persisté.

En réponse au besoin d'évaluation de l'exactitude et de rapports indépendants de l'échelle présentés par les données numériques, le Comité fédéral des données géographiques (FGDC) a publié la Norme nationale pour l'exactitude des données spatiales (NSSDA) (FGDC, 1998), qui fournit des conseils sur la mise en œuvre de une méthodologie statistique pour déterminer la précision de la position. La NSSDA est fondée sur une hypothèse de base selon laquelle l'identification et la suppression de toutes les sources d'erreur systématique dans la mesure spatiale produisent une distribution normale des erreurs aléatoires. L'ensemble de données de l'échantillon est comparé à une source indépendante d'une plus grande précision (définie dans la NSSDA comme la plus haute précision possible et réalisable). En règle générale, les données de référence doivent être au moins trois fois plus précises que les données de l'échantillon. L'erreur quadratique moyenne (RMSE) telle que calculée entre l'ensemble de données de l'échantillon et la source indépendante est convertie en une déclaration de précision verticale à un niveau de confiance établi, normalement 95 %, qui est simplement le RMSE multiplié par 1,96. Le tableau 4.1 montre la relation entre le langage intuitif et familier NMAS et Vertical Map Accuracy Standard (VMAS) pour un intervalle de contour équivalent et les normes NSSDA à base statistique.

Le point important est qu'une déclaration telle que "la technologie X est capable d'atteindre une précision de 18,5 centimètres" n'a pas de sens. Voici des exemples d'énoncés corrects ayant la même signification :

La technologie X est capable de produire des données d'élévation conformes à la RMSE verticale de 18,5 centimètres (RMSEz).

La technologie X est capable de produire des données d'altitude qui répondent à une précision verticale de 36,3 centimètres au niveau de confiance de 95 %.

TABLEAU 4.1 Comparaison de la précision verticale NMAS et NSSDA

Intervalle de contour équivalent NMAS

Niveau de confiance NMAS VMAS 90 %

Précision NSSDAz Niveau de confiance de 95 %

SOURCE : Maune et al., 2007. Réimprimé avec la permission de l'ASPRS.

La technologie X est capable de produire des données d'altitude qui répondent à la norme NMAS pour les contours de 2 pieds, ce qui signifie que 90 pour cent des points testés se situeront à moins de 1 pied de la vérité terrain, ou la moitié de l'intervalle de contour.

Tout au long de ce rapport, le terme &ldquoprécision d'intervalle de contours&rdquo est utilisé. Le tableau 4.1 peut être utilisé pour relier la précision de l'intervalle de contour équivalent au RMSE ou au niveau de confiance de 95 %. La documentation FGDC référencée couvre les détails des méthodologies de test et les exigences de précision en profondeur.

4.2 PHOTOGRAMMETRIE

4.2.1notions

La photogrammétrie est définie par l'American Society for Photogrammetry and Remote Sensing (ASPRS) comme l'art, la science et la technologie d'obtenir des informations fiables sur les objets physiques et l'environnement grâce à des processus d'enregistrement, de mesure et d'interprétation d'images photographiques et de modèles de rayonnement électromagnétique enregistré. l'énergie et d'autres phénomènes. Cette définition large pourrait s'appliquer à toutes les technologies abordées dans ce chapitre, mais elle est utilisée ici pour désigner spécifiquement la cartographie réalisée à l'aide de films ou de photographies aériennes numériques. Les produits créés à partir de la photogrammétrie sont les suivants :

Bidimensionnel planimétrique des cartes et des jeux de données d'entités en trois dimensions,

Fond de carte orthophotographique numérique.

La taille, ou l'échelle, des objets sur une photographie aérienne varie avec l'élévation du terrain et avec l'inclinaison de la caméra par rapport au sol, comme le montre la figure 4.2. Des mesures précises ne peuvent être effectuées à partir d'une photographie aérienne sans rectification, le processus de suppression de l'inclinaison et du déplacement du relief. Afin d'utiliser une image rectifiée comme carte, elle doit également être géoréférencé ou lié à un système de coordonnées au sol.

Si des photographies aériennes sont acquises de telle sorte qu'il y a un chevauchement entre elles, alors les objets peuvent être vus sous plusieurs perspectives, créant une vue stéréoscopique, ou stéréomodèle. Le décalage apparent d'un objet par rapport à un arrière-plan en raison d'un changement dans la position de l'observateur est appelé parallaxe. Suivant le même principe que la perception de la profondeur dans la vision binoculaire humaine, les hauteurs des objets et les distances entre eux peuvent être mesurées avec précision à partir du degré de parallaxe dans l'espace image si le orientation relative des photos qui se chevauchent est connue (Figure 4.3). Si la orientation absolue du stéréomodèle au système de coordonnées au sol est connu, alors ces hauteurs et distances peuvent être mesurées et enregistrées en unités cartographiques telles que les pieds ou les mètres.

FIGURE 4.2 Orientation de la caméra et effets d'échelle pour les photographies aériennes verticales et obliques. SOURCE : Wolf et Dewitt, 2000. Réimprimé avec permission.

FIGURE 4.3 La photogrammétrie utilise plusieurs vues du même point sur le sol à partir de deux perspectives pour créer une image en trois dimensions. SOURCE : Image reproduite avec l'aimable autorisation de David Maune, Dewberry et Davis.

Aérotriangulation est la méthode utilisée pour établir l'orientation relative et absolue de gros blocs de photos aériennes stéréoscopiques. Un modèle mathématique rigoureux recrée la géométrie du chevauchement des blocs le long de la bande de vol et le chevauchement latéral entre les lignes de vol crée une redondance et surdétermine la solution du modèle mathématique (Figure 4.4). Un ajustement des moindres carrés est utilisé pour calculer la solution d'aérotriangulation, en trouvant le &ldquobest fit&rdquo aux observations redondantes en minimisant la somme des carrés des résidus en tant que RMSE. Les évaluations de précision basées sur des statistiques expriment la qualité des résultats d'aérotriangulation.

Historiquement, les points au sol arpentés étaient utilisés pour contrôler la géométrie des blocs et fournir un géoréférencement. Aujourd'hui, certains points au sol peuvent encore être nécessaires pour un référencement correct aux données cartographiques, mais la principale source de contrôle de l'aérotriangulation est fournie par le GPS et les unités de mesure inertielle (IMU) dans l'avion. Cette application de la technologie, mesurant l'emplacement du point focal de la caméra et l'orientation angulaire du plan focal au moment de l'exposition, est connue sous le nom de géoréférencement direct. Ces mesures sont incluses dans l'aérotriangulation, remplaçant le contrôle au sol tout en augmentant la redondance et en ajoutant une signification statistique aux résultats d'ajustement.

FIGURE 4.4 Le chevauchement dans la direction du vol est appelé tour final le chevauchement des bandes de vol adjacentes est appelé tour de côté. SOURCE : Wolf et Dewitt, 2000. Réimprimé avec permission.

L'extraction des informations sur les caractéristiques des photos aériennes stéréo commence une fois l'aérotriangulation terminée. Plusieurs approches manuelles peuvent être utilisées pour collecter des données d'altitude :

Dessiner des contours d'élévation constante

Profilage sur une grille régulière, suivi de l'élévation le long du profil et numérisation automatique des élévations à un espacement de poste prédéfini pour un DEM et

Capture de points de masse et de lignes de fracture et génération d'un modèle numérique de terrain (MNT).

Ces méthodes sont bien établies mais demandent également beaucoup de travail et de temps. La cartographie d'un comté typique par ces méthodes nécessite de nombreux mois-homme et n'est pas une approche pratique, rapide ou rentable pour cartographier des États entiers ou la nation. De plus, la capacité humaine d'interpréter l'élévation du sol sous une végétation dense est limitée par la capacité de trouver le sol dans l'ombre entre les arbres. Généralement, ces zones sont désignées comme &ldquoobscured&rdquo ou représentées par des contours en pointillés sur une carte.

De nombreuses recherches ont été consacrées à l'extraction automatisée de données d'altitude à partir de photos aériennes en utilisant la corrélation d'images numériques. La corrélation d'images numériques est réalisée en comparant des patchs de pixels sur des images ou des caractéristiques conjuguées, telles que des bords d'objets linéaires, dérivés des images numériques. Autocorrélation, comme cette technique est souvent appelée, peut développer une surface sur une grande surface très rapidement, mais nécessite toujours une édition humaine intensive pour produire un modèle d'élévation propre et en terre nue. L'autocorrélation ne fait pas la distinction entre le sol nu et les éléments au-dessus du sol. Les arbres et les bâtiments s'appuient dans des directions différentes sur des photos qui se chevauchent, ce qui rend difficile la correspondance des zones de pixels. Le problème de voir le sol dans l'ombre et entre les arbres dans les zones fortement végétalisées existe toujours. Les techniques de corrélation peuvent générer des points d'altitude très denses, mais elles ne délimitent pas automatiquement les caractéristiques clés telles que les crêtes, les drains et les bords de route avec des lignes de rupture, comme le ferait un compilateur de carte humain. L'autocorrélation est la plus efficace pour créer des modèles numériques de surface (DSM) pour des applications qui ne nécessitent pas de distinction entre les objets, les arbres et le sol nu.

À l'aide des informations d'orientation dérivées de l'aérotriangulation et d'un modèle d'élévation représentant le terrain, une photo aérienne peut être rééchantillonnée en une carte d'image à échelle constante, dans laquelle les effets de l'inclinaison et du déplacement du relief sont supprimés. Ce processus est appelé orthorectification. La résultante orthophoto possède les qualités d'interprétation inhérentes à la photo, mais des mesures précises peuvent être effectuées tout comme à partir de cartes linéaires.

Traditionnellement, les orthophotos sont créées à l'aide de modèles d'élévation de terre nue. D'autre part, la rectification avec un DSM, qui inclut les hauteurs des bâtiments, produit une &ldquotrue orthophoto&rdquo dans laquelle les toits sont correctement alignés avec les empreintes des bâtiments (Figure 4.5). L'avantage d'une véritable orthophoto est que les éléments au sol ne sont pas masqués par le bâtiment penché et que les polygones d'empreinte du bâtiment, numérisés à leur emplacement correct, n'entrent pas en conflit avec l'image du bâtiment

FIGURE 4.5 Dans une orthophoto conventionnelle, les toits des bâtiments sont déplacés de leur véritable emplacement horizontal en raison de la perspective de la caméra. Dans une véritable orthophoto, les toits des bâtiments sont correctement alignés avec l'empreinte du bâtiment. SOURCE : EarthData International.

lorsqu'il est superposé sur l'orthophoto. Dans les zones rurales avec peu de bâtiments de grande hauteur, les orthophotos conventionnelles créées à partir de modèles d'élévation de la terre nue sont suffisamment précises et rentables. Dans les zones urbaines, la dépense supplémentaire de création d'un DSM pour l'orthorectification peut valoir la peine d'obtenir les avantages décrits ci-dessus. Les orthophotos numériques, qu'elles soient vraies ou conventionnelles, constituent des cartes de base très utiles pour les systèmes d'information géographique (SIG) et sont devenues très populaires auprès des agences gouvernementales locales, étatiques et fédérales pour une grande variété d'objectifs, de l'évaluation fiscale à la planification urbaine et régionale. , la gestion des ressources et les interventions d'urgence.

Les méthodes de cartographie photogrammétrique peuvent être effectuées sur une photographie stéréo aérienne ou au sol (à courte portée) oblique pour extraire des mesures tridimensionnelles précises des structures, y compris les portes, les fenêtres, le mobilier urbain, les ponceaux et les ponts. La photogrammétrie oblique et rapprochée a trouvé une variété d'applications, notamment la conception architecturale, les reconstructions de scènes d'accidents, les plateaux de tournage, les études archéologiques et les études de génie civil.

4.2.2Instrumentation

Trois types de capteurs sont utilisés pour la cartographie photogrammétrique et les produits d'image : les caméras film aéroportées, les caméras cartographiques numériques aéroportées et les capteurs d'imagerie satellitaire. Chacun a des caractéristiques, des avantages et des inconvénients particuliers, mais les principes d'extraction de modèle d'élévation et de rectification d'image sont les mêmes.

Les appareils photo argentiques sont utilisés depuis des décennies. La fabrication de haute précision d'éléments de caméra tels que l'objectif, le corps et le plan focal Des techniques d'étalonnage de caméra rigoureuses et des améliorations continues des commandes électroniques ont abouti à une technologie mature capable de produire des produits d'image stables, géométriquement bien définis et de haute précision. La distorsion de l'objectif peut être mesurée avec précision et les mécanismes de compensation de mouvement de l'image modélisée suppriment le flou causé par le mouvement de l'avion pendant l'exposition. Le film aérien est développé à l'aide de procédés chimiques, puis numérisé à des résolutions pouvant atteindre 3 000 points par pouce. Dans l'environnement de production photogrammétrique d'aujourd'hui, pratiquement toutes les extractions d'aérotriangulation, d'élévation et de caractéristiques sont effectuées de manière entièrement numérique ou copie électronique, flux de travail. Il n'y a aucun développement en cours sur les caméras à film aérien, et les fabricants commerciaux ont cessé leur production à mesure que les caméras numériques mûrissent et deviennent plus abordables.

Les caméras de cartographie numérique aéroportées ont évolué au cours des dernières années, passant de la conception de prototypes à des systèmes opérationnels stables fabriqués en série. À bien des égards, ils offrent des performances supérieures aux caméras argentiques, réduisant considérablement le temps de production avec une résolution spectrale et radiométrique accrue. Les détails dans les ombres peuvent être vus et cartographiés plus précisément. Les bandes panchromatiques, rouges, vertes, bleues et infrarouges sont capturées simultanément afin que plusieurs produits d'image puissent être créés à partir d'une seule acquisition (Figure 4.6).

Les conceptions d'appareils photo numériques sont de deux types : les matrices de zone mosaïquées et les capteurs linéaires à balai-poussoir. Le réseau de zones mosaïquées utilise plusieurs réseaux de dispositifs à couplage de charge (CCD) bidimensionnels pour créer une image combinée équivalente à une image à cadre unique provenant d'une caméra aérienne. Avec ce type de système, les mêmes principes discutés dans la section 3.2.1 de la planification de vol, le géoréférencement direct optionnel, le réglage du bloc d'aérotriangulation et la rectification s'appliquent. Le capteur push-broom comprend plusieurs réseaux linéaires, orientés vers l'avant, vers le bas et vers l'arrière, qui capturent simultanément la couverture stéréo le long de la piste non pas dans des images de trame, mais dans de longues bandes continues composées de lignes de 1 pixel de profondeur (Figure 4.7). La reconstruction de l'orientation relative et absolue est mathématiquement plus complexe, et comme il n'y a pas de cadres d'image rigides, les informations de géoréférencement directes pour chaque ligne d'image sont obligatoires (Figure 4.8).

L'imagerie satellitaire à haute résolution est maintenant disponible à partir d'un certain nombre de sources commerciales, à la fois étrangères et nationales. Le gouvernement fédéral réglemente le GSD minimum autorisé pour la distribution commerciale, basé en grande partie sur des préoccupations de sécurité nationale. Un GSD de 0,6 mètre est actuellement disponible, des capteurs à plus haute résolution étant prévus dans un proche avenir (McGlone, 2007). Les capteurs d'image sont basés sur une conception à balai-poussoir linéaire, ce qui signifie

FIGURE 4.6 Avec une caméra numérique aéroportée, les images peuvent être capturées simultanément en vraies couleurs (RVB), en fausses couleurs infrarouge (CIR) et en niveaux de gris (également appelés panchromatiques) (PAN). SOURCE : EarthData International.

que chaque ligne de pixels transversale de l'image est un objet géométrique distinct, la reconstruction d'une géométrie d'image continue et homogène nécessite des informations de géoréférencement directes précises pour chaque ligne de l'image et est plus complexe que l'ajustement du bloc d'aérotriangulation. Chaque modèle de capteur est unique et contient des informations de conception exclusives. Par conséquent, les modèles de capteur ne sont pas distribués aux acheteurs ou aux utilisateurs des données. Les images satellites peuvent être collectées avec chevauchement pour créer des modèles stéréo. Cependant, la différence de perspective d'une image à l'autre, à partir d'altitudes orbitales élevées, réduit la perception de la profondeur et rend l'extraction d'altitude difficile.

4.2.3Produits et précisions

La photogrammétrie est une technologie mature pour la production de nombreux produits cartographiques standard :

Cartes planimétriques (bidimensionnelles) des routes, des bâtiments, des caractéristiques de drainage, des services publics, etc.

Fond de carte orthophotographique numérique et

Données d'altitude sous diverses formes : profil, coupe transversale, contour, DEM, DTM, DSM ou réseau irrégulier triangulé (TIN).

FIGURE 4.7 Configuration de plusieurs matrices CCD linéaires pour la caméra numérique aéroportée Leica ADS40. SOURCE : George Southard, Leica Geosystems, 2006, présentation au comité lors d'un atelier tenu du 17 au 19 octobre, présentation disponible auprès du National Academies Public Access Records Office et sur http://dels.nas.edu/besr/FpMT_workshop_presentations.shtml [consulté le 18 décembre 2006]. Voir l'annexe B pour l'ordre du jour de l'atelier. Utilisé avec l'autorisation de Leica Geosystems, Inc.

FIGURE 4.8 Images brutes des réseaux PAN linéaires arrière, nadir et avant de l'appareil photo numérique aéroporté Leica ADS40. Les distorsions sont causées par le mouvement de l'avion et sont supprimées à l'aide d'informations de géoréférencement directes collectées avec des capteurs GPS-IMU intégrés au système de caméra de l'avion. SOURCE : EarthData International.

Les techniques manuelles sont généralement utilisées pour capturer les caractéristiques planimétriques, les hauteurs de points, les lignes de rupture, les profils et les sections transversales. Les techniques automatisées sont généralement utilisées pour la capture des grilles d'élévation, l'autocorrélation des MSN et la rectification des orthophotos numériques. La génération de contours est automatisée, basée sur des modèles de données DTM ou DEM, mais une édition approfondie est nécessaire pour produire des contours lisses et cartographiques satisfaisants qui répondent aux spécifications de précision de la carte.

Sur la base des normes photogrammétriques publiées par l'ASPRS, l'US Army Corps of Engineers (USACE) a développé des spécifications détaillées pour la précision des cartes en fonction de l'échelle de la carte et de la hauteur de vol (USACE, 2002). Le point clé à retenir de cette discussion est le fait que les relations entre la hauteur de vol, l'aérotriangulation, l'échelle de la carte, l'intervalle de contour, la résolution de l'image et les évaluations statistiques de précision sont très bien connues pour la photogrammétrie. Les meilleures pratiques ont été développées et maintenues par la communauté professionnelle. Des normes et des spécifications documentées existent pour aider les agences contractantes et les utilisateurs finaux à définir les produits photogrammétriques qui répondent le mieux aux besoins de leurs applications. Les images de la carte de base peuvent être en noir et blanc ou en couleur. Ces caractéristiques et d'autres de la carte de base sont normalement déterminées par les communautés locales dans le cadre du processus de cadrage de leur application particulière. Les images de fond de carte en noir et blanc sont souvent préférables si de nombreuses données vectorielles doivent être tracées en superposition en fonction de la nature du terrain lui-même, il peut être difficile de trouver des couleurs pour tracer les données vectorielles qui se démarquent systématiquement lorsqu'elles sont superposées. une image en couleur.

4.2.4Résumé de la section

La photogrammétrie est une technologie mature qui a bénéficié de décennies de développement et d'expérience pratique. Les précisions n'ont pas besoin d'être testées pour chaque projet de cartographie individuel, une multitude de preuves empiriques montrent que si les meilleures pratiques sont suivies par le professionnel de la photogrammétrie, les résultats sont cohérents et prévisibles. Cependant, la photogrammétrie n'est pas suffisamment efficace en termes de coût ou de temps pour répondre à la demande actuelle de données d'altitude précises et à jour pour le pays.

La technologie habilitante du géoréférencement direct a d'abord été mise en œuvre dans le monde hautement contrôlé de la photogrammétrie, où elle était considérée comme une amélioration plutôt qu'une nécessité. Des sources d'erreur ont été identifiées et de nombreuses améliorations techniques ont été apportées pour augmenter la précision du géopositionnement dans les environnements aériens. Le géoréférencement direct devient une nécessité pour certains systèmes de caméras numériques et pour tous les systèmes de détection et de télémétrie lumineuse (lidar) et de radar interférométrique à synthèse d'ouverture (IFSAR). Les enseignements tirés des applications photogrammétriques ont accéléré l'adoption rapide de ces nouvelles technologies de cartographie.

Les principes de la modélisation des erreurs et de l'évaluation de la précision pour la photogrammétrie sont bien compris et se sont transformés en spécifications simples pour les projets et produits de cartographie. Alors que nous nous dirigeons vers de nouvelles technologies pour créer les mêmes produits de cartographie

plus rapidement et à moindre coût, nous devons viser la même rigueur statistique. Cependant, chaque nouvelle technologie pose des questions uniques sur les données et la caractérisation des produits, et les méthodes d'évaluation de l'exactitude doivent être étendues afin de les traiter de manière adéquate.

4.3 DÉTECTION DE LA LUMIÈRE ET TÉLÉCOMMANDE

4.3.1notions

Le lidar est une technologie de télédétection active qui utilise un laser pour mesurer les distances par rapport aux points cibles. Parce qu'il génère sa propre énergie, les relevés lidar peuvent être effectués à toute heure du jour ou de la nuit, et dans certaines conditions légèrement nuageuses ou brumeuses. L'émetteur laser émet une courte impulsion de lumière cohérente dans une bande de longueur d'onde très étroite (monochromatique) qui se déplace vers la cible et est réfléchie. Une horloge très précise est utilisée pour mesurer la différence de temps entre l'impulsion transmise et l'écho de retour. La distance à l'objet, ou gamme, est calculé en multipliant le temps écoulé par la vitesse de la lumière et en divisant par 2. Le balayage de la cible en déplaçant le laser enregistre la surface tridimensionnelle de la cible en tant que masse ou nuage de points individuels. La force de l'écho en tant que fraction de l'énergie transmise est également des images enregistrées construites à l'aide de ces intensité les valeurs peuvent être utiles pour l'extraction de caractéristiques.

Avoir mesuré une distance très précise à un objet n'est utile pour la cartographie que si la position absolue et la direction de pointage du laser sont connues par rapport à un système de coordonnées fixe. Le géoréférencement direct est la technologie habilitante clé qui rend le lidar utile pour la cartographie. Le GPS et l'IMU suivent la position et l'attitude du système de capteur d'avion. Des codeurs précis suivent la direction de pointage du dispositif laser par rapport au système de capteur d'avion. Les coordonnées des points tridimensionnels se trouvent dans le système de coordonnées opérationnel, qui est l'ellipsoïde WGS84. Le z la coordonnée n'est pas encore une élévation c'est une hauteur par rapport à l'ellipsoïde. Un modèle de géoïde, tel que GEOID03, doit être utilisé pour convertir la hauteur de l'ellipsoïde en une hauteur orthométrique référencée à NAVD88.

Le géoréférencement précis des données lidar nécessite un montage et un étalonnage minutieux du capteur dans l'avion. Les meilleures pratiques imposent que des vérifications d'étalonnage soient effectuées dans le cadre de chaque projet lidar. Le modèle d'élévation produit à partir de chaque mission de vol doit également être vérifié par rapport à une distribution de points de contrôle au sol avec des hauteurs ellipsoïdales et orthométriques publiées dans le système de référence cartographique approprié. Une plage d'étalonnage simple peut être établie à la base d'opérations de l'aéroport et un schéma de lignes de vol superposées peut être effectué au début et à la fin de chaque mission d'acquisition de données. Ce type de &ldquobest practice&rdquo rentable relève de la responsabilité du professionnel de la cartographie dans le cadre de la conception du projet et de l'assurance qualité.

L'impulsion lidar transmise est en fait une forme d'onde cohérente qui pourrait frapper un objet solide et être réfléchie en un retour cohérent. La forme d'onde pourrait aussi, par exemple, être

partiellement réfléchie par les feuilles et les branches près de la cime d'un arbre, à nouveau être partiellement réfléchie par la végétation du sous-étage, et enfin être réfléchie par le sol à la base de l'arbre (Figure 4.9). Certains systèmes lidar évaluent la forme d'onde entière du signal réfléchi, d'autres n'enregistrent que la synchronisation et l'intensité des retours discrets correspondant aux pics significatifs du signal réfléchi. Plus récemment, des systèmes avancés mettent en œuvre des techniques de télémétrie à photon unique, grâce auxquelles la distribution des hauteurs de cibles peut être efficacement construite à partir d'impulsions laser à très faible puissance et à très haut taux de répétition. Les systèmes lidar de cartographie commerciaux sont le plus souvent du type à retour discret, enregistrant jusqu'à cinq réflexions par transmission

FIGURE 4.9 Plusieurs échos lidar d'une seule impulsion transmise sont renvoyés par la cime des arbres et des branches. SOURCE : Jensen, 2006. Réimprimé avec la permission de Pearson Education, Inc.

pulser l'ensemble des points composé de tous les premier et seul ou alors dernier-de-plusieurs est le point de départ du modèle d'élévation de la terre nue. Le lidar de forme d'onde nécessite beaucoup plus de stockage et un traitement de données plus complexe. Ce type de système est le plus souvent utilisé dans des applications de recherche telles que l'étude de la structure détaillée du couvert végétal.

Lorsque le lidar a été proposé pour la première fois en tant que technologie de cartographie d'altitude efficace, de grandes inquiétudes ont été exprimées quant aux performances des systèmes lidar et des algorithmes de traitement dans la végétation dense. Ce qui est rapidement devenu évident, en particulier avec les systèmes à retours multiples, c'est que le lidar pouvait réellement &ldquose&rdquo le sol entre les arbres beaucoup plus efficacement qu'un photogrammètre ne pourrait le faire en regardant une paire stéréo de photos aériennes. Pour que le lidar enregistre un point au sol, un seul faisceau laser doit atteindre le sol à travers la canopée. En d'autres termes, si une personne marchant dans une forêt en levant les yeux peut voir le ciel, alors une impulsion lidar peut probablement atteindre le sol, en fonction de son angle d'incidence. Le même point sur le sol est moins susceptible d'être vu sur plusieurs photographies stéréo prises sous différents angles. De plus, la lecture de l'élévation d'un point au sol dans un modèle stéréo dans la végétation nécessite que l'opérateur humain interprète une projection d'images multiples et ombragées. Le lidar s'est avéré beaucoup moins ambigu, cependant, le problème du filtrage des points non terrestres du modèle d'élévation de la terre nue reste avec les données lidar et doit être résolu par un traitement, une édition et un contrôle qualité supplémentaires des données.

Les images peuvent également être créées à partir des retours lidar en enregistrant la quantité d'énergie, ou intensité, réfléchi par l'objet. Étant donné que le laser est monochromatique, les images d'intensité lidar sont généralement présentées en niveaux de gris (figure 4.10). Les objets à haute réflectivité pour la longueur d'onde infrarouge du laser seront brillants et les objets à faible réflectivité seront sombres. La réflectivité infrarouge a longtemps été utilisée pour distinguer la végétation et les plans d'eau

FIGURE 4.10 Lidar DSM (la gauche) et une image d'intensité en niveaux de gris (droite). Les images montrent les premières données lidar de retour de Baltimore, Maryland. SOURCE : Fowler et al., 2007. Réimprimé avec la permission de l'ASPRS.

et pour délimiter la couverture terrestre en imagerie infrarouge optique. Ces techniques d'interprétation ne sont pas simples à appliquer à l'imagerie d'intensité lidar pour les raisons suivantes : l'énergie sortante du laser est volontairement modifiée au cours d'une mission de vol afin d'optimiser la précision de la mesure de la télémétrie laser (distance), provoquant des variations de luminosité induites par l'instrument qui ne peut pas être corrigé par l'étalonnage, la réflectance des matériaux de surface varie en fonction de l'angle d'incidence du faisceau laser ainsi que de la composition et de la rugosité de la surface et l'énergie dans l'impulsion transmise unique est atténuée pendant chacune des réflexions multiples. Étant donné que les spots lidar sont espacés de manière quelque peu aléatoire sur le sol, les valeurs d'intensité pour chaque impulsion de retour sont rééchantillonnées sur une grille régulière afin qu'elles puissent être affichées avec un logiciel d'imagerie.

Une percée récente dans la cartographie lidar est la technologie de lidargrammétrie, un processus de création de paires d'images pseudostéréo à partir de données d'intensité lidar. Ces images peuvent être utilisées dans des systèmes photogrammétriques conventionnels pour numériser des caractéristiques linéaires telles que des routes, des bâtiments, des bords de plans d'eau et des lignes de rupture MNT avec une grande précision en trois dimensions.

Les systèmes lidar peuvent également être montés sur des trépieds ou des véhicules pour une cartographie rapprochée des structures. Les scanners lidar terrestres disponibles dans le commerce peuvent collecter des centaines de milliers de points par seconde sur un champ de vision de 360 ​​degrés avec une précision millimétrique. Ces instruments sont de plus en plus acceptés dans la profession d'arpenteur et sont largement utilisés pour créer des modèles tridimensionnels géoréférencés, détaillés et précis d'infrastructures de transport, de paysages urbains, d'intérieurs de bâtiments et d'installations industrielles. Le lidar terrestre offre des avantages potentiels, des économies de coûts et des gains de temps pour la collecte des données d'enquête nécessaires à la modélisation hydraulique.

4.3.2Instrumentation commerciale

Les instruments lidar commerciaux sont construits par un certain nombre de fabricants et chacun suit une conception légèrement différente. Cependant, la plupart utilisent une approche commune de détermination de distance (retours discrets) pour laquelle plusieurs paramètres sont importants pour définir les performances du système :

Longueur d'onde laser tous les systèmes commerciaux fonctionnent dans le proche infrarouge, le plus souvent à 1 064 &mum.

Le taux de répétition des impulsions varie selon le fabricant et le modèle de capteur, avec un maximum de 150 kHz (150 000 impulsions par seconde). Plusieurs fabricants de capteurs ont lancé la technologie à impulsions multiples dans l'air (MPIA), qui permet d'émettre une deuxième impulsion avant que tous les retours de la première impulsion n'aient été reçus. Cela augmente la limite effective de la fréquence d'impulsion imposée par la hauteur de vol.

Le taux de balayage varie selon le fabricant entre 25 et 40 Hz.

L'angle de balayage varie selon le fabricant, mais est généralement limité par les meilleures pratiques à 40 degrés pour une pénétration maximale de la végétation et une distorsion géométrique minimale.

Le nombre d'impulsions de retour capturées varie selon le fabricant de 1 (premier retour uniquement ou dernier retour uniquement) à 5. En pratique, les quatrième et cinquième retours sont rarement observés.

La densité de points est fonction de l'altitude de vol, de la fréquence du pouls, de la fréquence de balayage et de l'angle de balayage. Avec les systèmes antérieurs, des densités de 1 point par 3 à 5 mètres carrés étaient courantes avec les systèmes de pointe et la technologie MPIA d'aujourd'hui, il est possible d'atteindre des densités de 5 à 10 points par mètre carré.

Le nombre de systèmes lidar en exploitation commerciale dans le monde a considérablement augmenté au cours des 10 dernières années (tableau 4.2), passant de 3 en 1995 à près de 150 en 2005. Ces nombres croissants indiquent la maturité de la technologie et la nature concurrentielle de l'industrie.

Selon le choix de la longueur d'onde laser, le lidar aéroporté peut être utilisé pour la cartographie topographique ou bathymétrique. Les systèmes lidar peuvent également être montés sur des trépieds. Des véhicules ou des navires sont utilisés pour cartographier des structures dans des environnements urbains ou industriels ou pour surveiller des paramètres environnementaux. Bien que ces autres applications ne soient pas abordées dans ce rapport, le lidar bathymétrique peut apporter une contribution importante à la modélisation des ondes de tempête côtières et à la cartographie des risques d'inondation, et les systèmes lidar au sol peuvent être utilisés pour étudier les ponts, les ponceaux et d'autres structures importantes dans la modélisation hydraulique. .

TABLEAU 4.2 Nombre de capteurs Lidar en exploitation commerciale

SOURCE : Fowler et al., 2007. Réimprimé avec la permission de l'ASPRS.

4.3.3Produits et précisions

Lidar produit naturellement un DSM détaillé. Avec le post-traitement, tous les autres types de modèles d'altitude peuvent être dérivés des données lidar, notamment les MNT, DEM, les lignes de rupture, les contours et les données d'entités tridimensionnelles. Il vaut la peine de faire la distinction entre la précision d'une impulsion lidar unique (précision du système) et la précision du modèle d'élévation dérivé (précision du produit). Les précisions du système sont fonction de la hauteur de vol au-dessus du sol (AGL) les précisions verticales citées par les fabricants vont de 6 centimètres RMSE à 500 mètres AGL à 23 centimètres RMSE à 6 000 mètres AGL les précisions horizontales sont de 7 à 64 centimètres RMSE pour le mêmes altitudes, respectivement.

Une précision verticale de 18,5 centimètres RMSE, qui correspondait auparavant à une précision de contour équivalente à 2 pieds, est réalisable à partir de hauteurs de vol de 3 000 à 5 000 mètres AGL, qui est la plage de fonctionnement préférée pour la plupart des avions utilisés par les fournisseurs de cartographie commerciale. Les principes existants de planification de mission, d'estimation des coûts et de calendriers d'acquisition dérivés de nombreuses années d'expérience en photogrammétrie peuvent être appliqués directement aux projets de cartographie lidar à l'échelle de l'État et du pays visant à cette spécification de précision. Les vols inférieurs peuvent atteindre une précision de contour équivalente à 1 pied, le comité conclut qu'il est nécessaire dans les zones très plates.

La précision du produit est fonction de la précision du système lidar et des techniques de planification de mission, de traitement des données et de génération de produits. La précision du contour équivalent à 2 pieds peut être atteinte de manière fiable si les meilleures pratiques sont suivies en matière d'acquisition et de traitement des données avec une précision de contour équivalente lidar à 1 pied est plus difficile à atteindre, mais peut être satisfaite avec une approche de projet plus stricte (et plus coûteuse).Dans les zones montagneuses ou à végétation très dense, un effort manuel supplémentaire important peut être nécessaire pour produire un produit final de précision de contour équivalent à 2 pieds acceptable à partir des mêmes techniques d'acquisition et de traitement couramment utilisées sur des terrains moins difficiles. Des méthodologies pour tester les produits d'élévation dérivés du lidar ont été publiées par l'ASPRS (2004), le National Digital Elevation Program (NDEP, 2004) et la FEMA (2003). Ces méthodologies de test sont basées sur l'utilisation de points de contrôle au sol, conformément aux spécifications NMAS et NSSDA pour la précision des rapports.

4.3.4Résumé de la section

Le lidar est un moyen puissant et rentable pour l'acquisition à grande vitesse de données ponctuelles tridimensionnelles pour répondre à une grande variété d'exigences des utilisateurs et est la technologie de télédétection la plus robuste pour la création de modèles d'élévation transparents à l'échelle de l'État et du pays. Comme toute technologie de télédétection, l'interaction humaine est toujours requise pour la production d'ensembles de données propres et de terre nue et la cartographie des caractéristiques linéaires. La recherche sur le filtrage automatisé et l'extraction de caractéristiques contribue progressivement à une efficacité de production accrue.

les améliorations sont rapidement transformées par les fournisseurs de données en économies de temps et d'argent pour les utilisateurs finaux. Les améliorations de l'instrumentation de télédétection et de géoréférencement direct contribuent également à l'amélioration de la qualité des données et de l'efficacité du traitement automatisé.

L'importance de la lidargrammétrie et son impact sur le modèle coût-bénéfice pour la cartographie lidar ne peuvent pas être surestimés. La nécessité préalable de collecter des photographies aériennes en plus des données lidar pour répondre aux exigences des lignes de fracture et de la cartographie des caractéristiques planimétriques était une véritable pierre d'achoppement pour les fournisseurs de données et les utilisateurs finaux. Le lidar pourrait clairement fournir un modèle d'élévation supérieur des points de masse, mais la nécessité d'utiliser la photogrammétrie pour effectuer d'autres tâches de cartographie requises a entraîné deux missions aériennes distinctes et séparées et des coûts beaucoup plus élevés. La lidargrammétrie a ouvert la voie à une utilisation beaucoup plus efficace et efficiente de la technologie lidar pour une modélisation d'altitude détaillée et complexe, satisfaisant le besoin d'ingénierie de lignes de fracture pour prendre en charge la génération de TIN sans sacrifier la richesse des données de points de masse lidar denses. Alors que la lidargrammétrie offre un potentiel incroyable pour numériser les caractéristiques planimétriques directement à partir des données lidar, la précision planimétrique correspondante par rapport à la photogrammétrie doit être étudiée et quantifiée.

Les lignes directrices et les normes actuelles des tests d'exactitude et des rapports ne répondent pas à toutes les questions qui pourraient être posées sur la qualité des produits de cartographie dérivés du lidar. Les tentatives du NDEP, de l'ASPRS et de la FEMA pour établir des lignes directrices et des spécifications sont un pas dans la bonne direction, mais elles ne vont pas assez loin. Par exemple, la relation entre l'espacement des points lidar et la précision du modèle d'élévation est complexe et difficile à quantifier, en particulier avec une technologie en évolution rapide qui permet d'obtenir facilement des espacements de points denses et de les transformer en modèles d'élévation de terre nue. La question de l'espacement des points peut également être importante pour déterminer la nécessité de la délimitation d'entités linéaires, telles que les lignes de rupture, en tant que livrable supplémentaire. De meilleurs moyens de mesurer et de rendre compte de la qualité et de l'exactitude sont nécessaires pour tenir compte des sources appropriées et de la variabilité spatiale de l'erreur. Lors de la session de clôture de la conférence spécialisée 2006 de l'ASPRS-Management Association for Private Photogrammetric Surveyors (MAPPS) le 10 novembre 2006, à San Antonio, Texas, Paul Rooney de la FEMA a déclaré : « Nos méthodes de test actuelles ne caractérisent pas adéquatement les données. &rdquo La communauté d'experts en télédétection et en cartographie, avec des représentants du gouvernement, de l'industrie privée et du milieu universitaire, a la capacité de combler cette lacune si elle est dotée d'une orientation claire et du mandat de le faire.

4.4 RADAR À OUVERTURE SYNTHÉTIQUE INTERFÉROMÉTRIQUE

4.4.1notions

Le radar (détection et télémétrie radio) mesure la force et le temps d'aller-retour d'un signal hyperfréquence (3-40 000 MHz) émis par une antenne radar et réfléchi comme un signal écho hors d'un

surface ou objet distant. Les radars montés sur des avions ou des satellites se déplacent le long d'une trajectoire de vol, éclairant la surface de la terre dans une fauchée, créant une image à partir de l'énergie d'impulsion réfléchie vers l'antenne, appelée rétrodiffusion. La valeur de luminosité de l'image est déterminée par la force de la rétrodiffusion, qui est fonction de la composition et de la rugosité de la surface.

La longueur de l'antenne radar dans le sens de la trajectoire détermine la résolution de l'image : plus l'antenne est longue, plus la résolution est fine. Le radar à synthèse d'ouverture (SAR) fait référence à une technique utilisée pour synthétiser une très longue antenne à partir du mouvement de l'avion le long de la trajectoire de vol. L'antenne radar est orientée dans une direction perpendiculaire à la trajectoire de vol, appelée distance ou direction transversale. L'antenne émet des impulsions très rapidement, enregistrant et combinant les échos comme s'ils étaient détectés avec une très longue antenne (Figure 4.11).

Les systèmes SAR conventionnels ne mesurent que deux coordonnées : l'une se situe le long d'un axe orienté parallèlement à la direction du vol l'autre est la distance (ou distance) de l'antenne

FIGURE 4.11 Géométrie d'imagerie SAR. Une géométrie d'imagerie SAR typique a une plate-forme contenant un instrument radar se déplaçant dans le sens de la trajectoire et imageant le terrain d'un côté de la trajectoire de vol. Le SAR transmet une série d'impulsions à intervalles réguliers le long de la piste qui éclaire simultanément une zone dans la direction le long de la piste beaucoup plus grande que la résolution d'azimut souhaitée. En enregistrant l'écho renvoyé par chaque impulsion et en utilisant des techniques de traitement du signal pour "synthétiser" une antenne plus grande, une résolution fine en azimut est obtenue. Le carré bleu au centre du faisceau indique la taille d'un élément de résolution par rapport à la zone éclairée à partir d'une seule impulsion indiquée en vert. SOURCE : Hensley et al., 2007. Réimprimé avec la permission de l'ASPRS.

au point d'être imagé. Avec deux antennes SAR séparées spatialement dans le plan transversal, il est possible de mesurer l'emplacement du point d'image en trois dimensions avec un degré élevé de précision (Figure 4.12). La mesure de la troisième coordonnée est basée sur une mesure de la distance entre les deux signaux radar, qui en termes très simplifiés peut être assimilée à la parallaxe entre deux photographies aériennes stéréo. La différence de portée est déterminée à partir de la différence de phase entre deux échos de signaux radar cohérents à l'aide d'une technique appelée interférométrie. Ces systèmes SAR sont appelés radars interférométriques à synthèse d'ouverture (IFSAR ou InSAR).

Une autre technique d'interférométrie consiste à utiliser deux ensembles de mesures de distance collectées à des moments différents, plutôt que deux antennes spatialement séparées. De très petits changements ou décalages peuvent provoquer des différences de phase entre les deux ensembles de mesures. La prise en compte de ces différences de phase implique le traitement des données d'écho radar afin de détecter les différences de phase dans le signal brut. L'amplitude du déplacement de terrain détectable dépend de la longueur d'onde du radar et peut être aussi petite que quelques millimètres. Ce type d'interférométrie est utilisé pour étudier les déformations de surface dues aux forces sismiques, les affaissements dus au pompage de l'eau ou du pétrole et le mouvement des glaciers.

L'interférométrie radar nécessite une connaissance précise de la position et de l'attitude des antennes radar les unes par rapport aux autres et dans un sens absolu par rapport au sol

FIGURE 4.12 Géométrie d'imagerie IFSAR. Le SAR interférométrique pour la cartographie topographique utilise deux ouvertures séparées par une &ldquobaseline&rdquo pour imager la surface. La différence de phase entre les ouvertures pour chaque point d'image, ainsi que la portée et la connaissance de la ligne de base, peuvent être utilisées pour déduire la forme précise du triangle d'imagerie (en rouge) afin de déterminer la hauteur topographique d'un objet. SOURCE : Hensley et al., 2007. Réimprimé avec la permission de l'ASPRS.

système de coordonnées. Sur les plates-formes aéroportées, ces informations sont dérivées à l'aide de la même instrumentation de géoréférencement direct et des méthodes utilisées en photogrammétrie et des suiveurs d'étoiles lidar couplés à des IMU sont utilisés sur les plates-formes spatiales.

Comme indiqué précédemment, la luminosité de l'image est déterminée à partir de la rétrodiffusion, qui est proportionnelle à la rugosité et à la composition de la surface (figure 4.13). Les traits brillants indiquent qu'une grande partie de l'énergie transmise a été réfléchie vers le radar, tandis que les zones sombres indiquent que peu d'énergie a été réfléchie. Les surfaces rugueuses paraissent brillantes, les surfaces planes paraissent sombres. Les surfaces inclinées vers le radar réfléchissent plus d'énergie que les surfaces inclinées à l'opposé du radar et semblent brillantes. Les surfaces inclinées à l'opposé du radar réfléchissent moins d'énergie et semblent sombres. La force de la réflexion dépend également de la constante diélectrique du matériau de surface : les objets les plus humides apparaîtront brillants et les objets plus secs apparaîtront sombres. L'exception est un plan d'eau lisse, qui agira comme une surface plane et reflétera les impulsions entrantes loin de l'antenne, apparaissant sombre ou comme une image vide. L'aspect rugueux d'une surface au radar dépend de la longueur d'onde de l'impulsion radar. Une surface qui semble lisse à une longueur d'onde peut sembler rugueuse à une autre. Les longueurs d'onde plus courtes de la bande X interagissent avec les couronnes feuillues et les petites branches de la végétation, suivant le sommet de la canopée. Des longueurs d'onde plus longues dans la bande P interagissent avec des branches et des troncs plus gros, pénétrant plus profondément dans la canopée et suivant de plus près la surface du sol. Le tableau 4.3 montre les

FIGURE 4.13 Cinq types de couverture de sol communs trouvés dans l'imagerie SAR. Les surfaces lisses telles que les routes ou l'eau ont tendance à réfléchir l'énergie loin du radar et apparaissent sombres sur les images radar. Les surfaces rugueuses, que l'on trouve souvent dans les champs et les terres cultivées, présentent un type de motif en damier dont la texture et le niveau de luminosité varient selon l'état des cultures et des champs. Des lignes extrêmement lumineuses parallèles à la direction du regard en raison d'une escale couplée à des régions ombragées se trouvent généralement dans les régions montagneuses. Les zones boisées semblent généralement relativement lumineuses car la nature rugueuse de la canopée à la plupart des longueurs d'onde génère des niveaux élevés de rétrodiffusion. Selon la résolution du SAR, les zones urbaines peuvent afficher des bâtiments individuels ou des groupes de bâtiments et les routes associées. SOURCE : Hensley et al., 2007. Réimprimé avec la permission de l'ASPRS.

TABLEAU 4.3 Relations de fréquence et de longueur d'onde pour quels systèmes existent pour collecter des données topographiques

REMARQUE : Différentes conventions peuvent être utilisées pour attribuer des bandes de fréquences et des codes de lettres (voir par exemple, http://www.radioing.com/eengineer/bands.html).

SOURCE : Hensley et al., 2007. Réimprimé avec la permission de l'ASPRS.

relation entre les fréquences, les longueurs d'onde et les codes de lettres de désignation de bande attribués par convention pour décrire les systèmes radar opérationnels.

Un traitement d'image sophistiqué est nécessaire pour former des images reconnaissables à partir de données IFSAR brutes. L'analyse diffère considérablement de l'interprétation des photos aériennes et nécessite une formation spécialisée. Les trois caractéristiques communes propres à l'imagerie SAR (figure 4.14) sont les suivantes :

Raccourcissement est similaire dans son concept au déplacement en relief dans l'imagerie optique, mais a l'effet inverse. Les pentes tournées vers le radar seront imagées presque en même temps avec des portées très similaires, en fonction de l'angle d'incidence relatif du faisceau radar. Ces caractéristiques inclinées apparaissent plus rapprochées en vue planimétrique, comprimées ou groupées, par rapport à leur position réelle, elles apparaîtront également brillantes en raison d'une forte rétrodiffusion. Les pentes tournées vers l'extérieur seront à l'inverse sombres et élargies ou étirées par rapport à leurs positions réelles.

Halte est un cas extrême de raccourcissement qui se produit lorsque la pente du terrain est supérieure à l'angle d'incidence du faisceau radar. Le haut de l'objet est imagé avant le bas et la caractéristique apparaît inversée ou superposée dans l'image. Les effets d'escale empêchent une détermination utile de l'altitude.

Ombrage se produit lorsque le faisceau radar est empêché d'atteindre des parties du terrain obscurcies par d'autres objets. Ces zones apparaissent dans l'image comme des zones sombres ou vides

FIGURE 4.14 Raccourcissement, escale et ombre. Le monde tridimensionnel est réduit à deux dimensions dans l'imagerie SAR conventionnelle. Après la formation de l'image, le retour radar est résolu en une image en coordonnées distance-azimut. Cette figure montre un profil du terrain à azimut constant, avec la trajectoire de vol radar dans la page. SOURCE : Hensley et al., 2007. Réimprimé avec la permission de l'ASPRS.

sans signal interférométrique utile. Comme pour les escales, les valeurs d'altitude ne peuvent pas être déterminées.

Une compréhension de haut niveau des étapes impliquées dans le traitement des données SAR est utile pour comprendre les sources d'erreur potentielles dans les DEM générés par IFSAR.

Les données brutes stockées à bord de l'avion sont décodées et combinées avec des informations de géo-référencement directes pour créer des images d'un seul coup à partir de chaque antenne.

Une image pour la paire à vue unique est rééchantillonnée pour se superposer à l'autre, et les deux images sont multipliées pour former un interférogramme. Le recalage des deux images doit être réalisé dans une petite fraction de pixel pour éviter la décorrélation de phase.

La mesure de phase absolue (qui représente la distance de l'antenne à la cible) est déterminée pour chaque pixel de l'interférogramme dans un processus appelé phase déballer. Le lissage des mesures de phase est effectué pour réduire le bruit de phase et faciliter le processus de dépliage. Cela implique de faire la moyenne de la phase d'une fenêtre, qui est souvent plus grande que la taille du poste du DEM. Ainsi, la résolution effective du produit DEM final peut être inférieure à la taille du poteau en fonction du terrain.

Une position cible tridimensionnelle est calculée à partir des mesures de phase déroulées. Ces mesures sont interpolées sur une carte d'élévation quadrillée dans un système de coordonnées naturel aligné avec la trajectoire de vol.

Les bandes qui se chevauchent sont mosaïquées et combinées en un produit cartographique homogène.

Les hauteurs (qui peuvent à ce stade être référencées au système de référence ellipsoïdal natif du GPS) sont corrigées au niveau de référence orthométrique souhaité, et la grille est re-projetée dans la projection cartographique souhaitée.

Les lacunes dans les données des régions de chevauchement, d'ombre ou à faible signal peuvent être comblées en utilisant des données provenant d'autres sources disponibles ou par des algorithmes d'ajustement de surface, en fonction de la taille des trous à combler et de l'utilisation prévue du DEM.

L'édition des données est effectuée pour corriger les pointes et les puits causés par les erreurs de déroulement de la phase. Les plans d'eau nécessitent également une modification approfondie pour supprimer le bruit et aplanir la surface de l'eau.

La végétation peut être supprimée à l'aide de techniques similaires à celles utilisées dans les données lidar s'il existe suffisamment de mesures d'élévation de la terre nue pour utiliser des algorithmes d'ajustement de surface. Des techniques utilisant la luminosité de l'image et la corrélation de signaux à double bande ont également été développées et utilisées avec un certain succès. L'importance d'obtenir un modèle altimétrique numérique dépourvu de végétation est décrite au chapitre 3 (voir la section 3.10).

4.4.2Instrumentation

Les systèmes IFSAR existent dans une variété de configurations optimisées pour une large gamme d'applications. Plusieurs catégories importantes d'instruments IFSAR sont basées sur le type de plate-forme (aéroportée ou spatiale) et la méthode de collecte de données (passe unique ou passe répétée). L'interférométrie à passe unique (SPI) signifie que les observations ont été faites en même temps avec deux antennes SAR sur la même plate-forme en interférométrie à passes répétées (RPI) les observations sont séparées dans le temps d'une fraction de seconde ou aussi longtemps comme années. Un certain nombre de systèmes basés sur RPI produisent des produits et des images DEM. Cependant, les sources de données IFSAR DEM les plus précises et les plus fiables, pertinentes pour cette étude, sont les systèmes SPI (Hensley et al., 2007).

Un fournisseur commercial IFSAR exploite actuellement quatre systèmes IFSAR aéroportés avec un système supplémentaire qui deviendra opérationnel en janvier 2007. STAR-3i fonctionne dans la bande X, qui, en tant que SAR de longueur d'onde plus courte, se reflète près du sommet de la canopée dans les zones de végétation. TopoSAR prend en charge l'acquisition en bande X à passe unique et en bande P à passe répétée. Les systèmes STAR-4 sont tous des conceptions à passe unique en bande X.

Un autre fournisseur commercial exploite GeoSAR, un système SPI à double fréquence (bandes X et P) conçu pour mesurer les élévations en haut et en bas du couvert végétal (figure 4.15). Le système est opérationnel depuis 2003. Le système a également été complété par un lidar de profilage qui collecte des données d'altitude au nadir avec une précision RMSE de 15 à 20 centimètres. Les données lidar sont utilisées pour calibrer les données GeoSAR et pour prendre en charge le traitement des modèles de terrain en terre nue avec des observations de la surface du sol sous la canopée.

FIGURE 4.15 Bande GeoSAR. GeoSAR collecte des bandes de 10 kilomètres simultanément sur les côtés gauche et droit de l'avion sur les bandes X et P. SOURCE : Hensley et al., 2007. Réimprimé avec la permission de l'ASPRS.

La National Aeronautics and Space Administration (NASA) et la NGA ont parrainé le seul système spatial SPI piloté à ce jour, la Shuttle Radar Topography Mission (SRTM), en février 2000. Une perche rétractable de 60 mètres a été utilisée pour déployer la bande C et X- antennes de réception à bande seule le deuxième ensemble d'antennes était situé dans la soute de la navette (figure 4.16). En 10 jours, les données IFSAR ont été collectées pour presque toutes les surfaces terrestres entre 60 degrés de latitude nord et 54 degrés de latitude sud. Les données radar brutes ont été traitées par le Jet Propulsion Laboratory (JPL) de la NASA. Les entrepreneurs ont effectué l'édition finale des données et la génération du produit DEM selon les spécifications NGA.

4.4.3Produits et précisions

Les systèmes STAR et TopoSAR produisent trois produits de base destinés à être distribués dans le cadre d'accords de licence : les images radar orthorectifiées (ORI), les DSM et les DEM. Les images ORI, créées à partir de la bande X, ont une distance d'échantillonnage au sol de 1,25 mètre et un RMSE de 2,0 mètres. Les produits d'élévation ont une précision de 1 à 3 mètres RMSE. Les précisions s'appliquent à la surface cartographiée par l'IFSAR, qui, comme on l'a vu, n'est pas toujours la terre nue.

GeoSAR produit des images ORI en bande X et P de 50 centimètres à 5 mètres GSD et 5 mètres affichant des DSM et DEM en bande X et P. Acquisitions GeoSAR

FIGURE 4.16 La configuration du système de vol SRTM. Les antennes SIR-C/X-SAR L, C et X étaient situées dans la soute de la navette. Les systèmes radar en bandes C et X ont été complétés par des antennes de réception uniquement déployées à l'extrémité d'une flèche de 60 mètres de long. Des dispositifs de mesure de la longueur de la ligne de base et de l'attitude interférométriques ont été montés sur une plaque fixée à la structure principale de l'antenne en bande L. Pendant les opérations de cartographie, la navette était orientée de manière à ce que la flèche soit à 45 degrés de l'horizontale. SOURCE : Hensley et al., 2007. Réimprimé avec la permission de l'ASPRS.

sont adaptés aux exigences du projet, les précisions des produits ne sont pas indiquées par le fournisseur, mais on peut supposer qu'elles sont comparables à d'autres produits IFSAR disponibles dans le commerce. L'unicité de GeoSAR est la capacité de pénétrer la végétation dense Les données GeoSAR, une fois achetées par l'acheteur, peuvent être distribuées sans restriction.

Les données de la mission SRTM ont été combinées et formatées dans des DEM d'une seconde d'arc. Une validation et des tests approfondis ont été menés par le JPL, la NGA et d'autres chercheurs et ont été rapportés dans Rodriguez et al. (2005).Le produit dépassait les spécifications de conception, la comparaison avec les données de référence au sol indiquait une précision verticale de 8 mètres et une précision planimétrique de 20 mètres au niveau de confiance de 90 pour cent (Hensley et al., 2007).

Il convient de souligner qu'en général, les précisions IFSAR indiquées dans les tableaux référencés se rapportent à la qualité du modèle de surface réfléchissante, et non à un MNT propre et en terre nue. Une carte d'erreur de hauteur statistique locale peut être générée à partir des mesures de corrélation de phase et fournit à l'utilisateur une estimation point par point de la précision du DEM vertical.

Des données de référence au sol d'une précision au moins trois fois supérieure à la précision estimée de l'IFSAR sont utilisées pour valider le modèle d'erreur. Les estimations d'erreur de hauteur sont supposées valides pour l'ensemble de données entier si au moins 90 % des points de test se situent à moins de 20 % des valeurs indiquées sur la carte d'erreur.

4.4.4Résumé de la section

L'IFSAR a atteint une maturité telle qu'il existe un nombre limité de systèmes et de produits exploités commercialement auprès de fournisseurs du secteur privé. L'investissement dans un système de cartographie IFSAR est nettement supérieur à celui requis pour la photogrammétrie ou le lidar, et les procédures de traitement des données et les flux de travail se chevauchent très peu avec ces autres technologies de cartographie en termes de matériel, de logiciels et de personnel technique.

Les développements futurs de l'IFSAR promettent des produits d'élévation et d'image améliorés. Des résolutions plus fines, une précision accrue de la hauteur et une meilleure caractérisation de la surface ont été obtenues avec des systèmes aéroportés expérimentaux. Différencier les hauteurs de diverses surfaces physiques, de la cime des arbres à la terre nue, reste un défi de recherche important. Les interféromètres entièrement polarimétriques à fréquences multiples constituent le prochain saut technologique à franchir (Hensley et al., 2007). Le développement de nouveaux systèmes nécessite d'importants investissements en recherche. D'autres innovations peuvent nécessiter un financement fédéral continu à l'appui de programmes scientifiques ou liés à la défense d'intérêt national, en plus des projets de recherche et de technologie en cours financés commercialement.

De nombreux concepts de systèmes spatiaux ont été proposés pour tirer parti du succès du STRM, mais aucun n'a été approuvé pour financement. Les systèmes géosynchrones pointant en continu sur un site d'intérêt pourraient mesurer de très faibles changements des conditions de surface d'une heure nation.

4.5 RÉSUMÉ DU CHAPITRE

Le but de ce chapitre est de fournir les concepts fondamentaux des technologies de télédétection pour la création d'ensembles de données d'élévation et d'autres produits cartographiques de base d'intérêt pour un programme national de cartographie des plaines inondables. Les trois technologies discutées en détail sont la photogrammétrie, le lidar et l'IFSAR.

La photogrammétrie est flexible quant au nombre de produits pouvant être réalisés à partir d'une seule source : la photographie aérienne. La technologie est mature, les sources d'erreurs sont bien comprises et rigoureusement modélisées. La photogrammétrie a réussi une transition vers l'ère numérique avec des caméras aériennes numériques grand format et des flux de travail de traitement de copie électronique. De nombreux processus sont automatisés, mais les tâches d'extraction de caractéristiques détaillées nécessitent toujours une implication humaine importante. Les modèles d'élévation de la terre nue sont particulièrement chronophages

et de main-d'œuvre pour créer, ce qui rend la photogrammétrie bien adaptée aux petits projets de cartographie, avec des besoins d'informations divers et des délais prudents. L'exception est que la photogrammétrie de production d'orthophotos entièrement numérique est capable de fournir très rapidement de grands volumes d'images orthorectifiées de haute résolution et de haute précision et est devenue la technologie de choix pour la cartographie de base d'images des comtés, des États et du pays.

Le lidar est récemment devenu une technologie opérationnelle robuste pour la production de modèles d'élévation de la terre nue à grande surface, haute résolution et haute précision. Parce qu'il s'agit d'un capteur actif qui crée une mesure d'altitude à partir d'une seule impulsion laser, il peut cartographier la surface du sol sous le couvert végétal de manière plus fiable que la photogrammétrie ou l'IFSAR. Il s'appuie sur les principes du géoréférencement direct aéroporté qui ont mûri au cours des années 1990 dans le cadre des applications de cartographie photogrammétrique. De nombreux principes photogrammétriques de traitement des données et de génération de produits s'appliquent aux outils logiciels lidar, y compris la visualisation stéréo et les systèmes d'extraction de caractéristiques ont été adaptés pour fonctionner avec les données de point et d'intensité lidar. Les principes d'évaluation de la précision des cartes issus des normes de cartographie photogrammétrique sont couramment utilisés pour définir les exigences du projet lidar. Cependant, le lidar présente de nouvelles opportunités et de nouveaux défis pour repenser la façon dont les précisions sont mesurées et rapportées. Ce domaine pourrait bénéficier de recherches plus approfondies. Des améliorations de l'évaluation de la précision et des rapports sont nécessaires pour caractériser entièrement les ensembles de données d'altitude dérivés du lidar et pour les exploiter le plus efficacement possible pour un large éventail d'applications d'ingénierie et de planification.

IFSAR est une technologie unique et importante pour la création de modèles d'élévation à l'échelle mondiale et dans des régions localisées de la terre perpétuellement couvertes de nuages. Les modèles d'élévation sont intrinsèquement de résolution inférieure et moins précis que ceux produits par photogrammétrie ou lidar. Des problèmes particuliers existent dans les zones urbaines et végétalisées. L'imagerie IFSAR ORI est utile comme carte de base lorsqu'aucune autre imagerie n'est disponible, mais elle peut être difficile à interpréter pour le public. D'un autre côté, l'imagerie ORI peut être très utile si la détection de cible ou l'identification de caractéristiques spécifiques est l'intérêt principal de l'utilisateur final. Les améliorations de la technologie IFSAR ont généré un ORI de 1,25 mètre qui peut rendre la reconnaissance des caractéristiques plus intuitive pour les non-experts à interpréter. La carte d'erreur de hauteur IFSAR aborde le concept de variabilité spatiale de la précision dans un modèle d'élévation, en donnant des estimations d'erreur point par point. Les modèles d'altitude dérivés de l'une des trois technologies présentées varient probablement en précision en raison de la couverture terrestre et de la pente. Les normes traditionnelles de précision des cartes ont été développées sur un critère de réussite-échec plus simpliste. Comme indiqué ci-dessus, une caractérisation plus robuste des données d'altitude et une évaluation et des rapports de précision améliorés qui reconnaissent la variabilité spatiale de l'erreur sont nécessaires. Les travaux réalisés dans ce domaine pour l'IFSAR peuvent être utiles pour l'élaboration de nouvelles normes et spécifications intégrant ces principes.


À propos des nuages ​​de points et des données LiDAR

Par:

Les nuages ​​de points sont de grands ensembles de données composés de données ponctuelles 3D. Les scanners laser aériens LiDAR (Light Detection And Ranging) sont les instruments les plus couramment utilisés pour collecter des données de nuages ​​de points géographiques.

Les données géographiques LiDAR sont le plus souvent disponibles au format LAS (LiDAR Aerial Survey) ou ASCII (.xyz). LAS est un format de fichier standard de l'industrie défini par la Société américaine de photogrammétrie et de télédétection qui comprend un système de classification par points. Un fichier LAS traité peut avoir des points classés comme terre nue, végétation haute ou basse, bâtiment, etc.

Zoomez sur le nuage de points pour voir la distribution des points individuels.

Les nuages ​​de points sont dérivés de données brutes numérisées à partir d'objets physiques tels que les extérieurs et intérieurs de bâtiments, les usines de traitement, les topographies et les articles manufacturés. Après avoir collecté les données brutes, elles doivent être converties en fichiers de nuage de points lisibles. Autodesk ReCap ™ convertit les données de numérisation brutes en fichiers de numérisation (fichiers RCS) et en fichiers de projet (fichiers RCP) qui font référence à plusieurs fichiers RCS. Ces deux formats peuvent être associés à votre dessin dans AutoCAD Map 3D toolset . Après cela, vous pouvez ajouter une couche de nuage de points au gestionnaire d'affichage, où vous pouvez filtrer les données de nuage de points ou appliquer une stylisation des couleurs.


Abstrait

La végétation urbaine est d'une importance stratégique pour la qualité de vie dans les sociétés de plus en plus urbanisées. Cependant, il est encore difficile d'extraire avec précision la répartition verticale de la végétation urbaine avec des images de télédétection. Cet article présente une méthode efficace pour extraire la couverture végétale multicouche dans les zones urbaines à l'aide de points discrets aéroportés de détection et de télémétrie de la lumière (LiDAR) avec des informations sur l'intensité. Il a été appliqué dans la ville de Nanjing, l'une des villes écologiques de Chine. Tout d'abord, un algorithme de filtrage médian basé sur des points discrets a été utilisé pour restreindre le bruit à haute fréquence. Les intensités de données LiDAR aéroportées de différents objets urbains ont été analysées et ont obtenu trois règles, qui permettent de distinguer la végétation de la non-végétation dans les zones urbaines, après avoir supprimé l'influence de la topographie. Selon la taille de l'empreinte et les principes de distribution du nuage de points, la couverture végétale multicouche, y compris les arbres, les arbustes et l'herbe, a été obtenue par la méthode d'interpolation de la pondération par distance inverse (IDW). Les résultats montrent que la précision globale de la classification des points de végétation est de 94,57 %, ce qui est beaucoup plus précis que celui des méthodes du logiciel TerraSolid, en comparant avec l'enquête sur le terrain et les cartes orthophotographiques numériques (DOM). Cette méthode proposée dans notre travail peut être appliquée à l'extraction de la couverture végétale multicouche en zone urbaine.


Voir la vidéo: Lab3 Creating multispectral images and computing NDVI (Octobre 2021).