Suite

Modeleur QGIS - comment extraire des polygones par plusieurs arguments ?


J'utilise le modeleur QGIS pour extraire des lignes par non pas un, mais plusieurs attributs. Par exemple, j'ai un réseau routier et je souhaite extraire uniquement la route avec des valeurs de caractère dans le champ TYPE : value_one et value_two. Comment faire cela en utilisant le modeleur QGIS ?


utilisez l'opérateur ou : "||" ou le et si vous voulez les deux : "&&"

Par exemple "val1" || "val2"


Une des réponses possibles est d'utiliser plusieurs Extraire par attribut les fonctions.

Alternativement, Sélectionner par expression et Intersection ensuite pourrait être utilisé. Dans Sélectionner par expression fonction, il est possible de créer des expressions telles que :

"Variable_name" = 'Value_one' OU "Variable_name" = 'Value_two'

Projection de plusieurs images sur un objet avec les modificateurs UV Project

Je viens de maîtriser le modificateur UV Project. J'ai déballé mon objet dans une carte UV avec l'image que je veux projeter, puis je l'ai appliqué en utilisant une caméra comme projecteur.

Cependant, je veux projeter sous plusieurs angles. J'ai donc créé une autre carte UV de la même manière avec ma deuxième image et créé un autre modificateur de projet UV. Mais cela ne fonctionnera pas, car je ne peux sélectionner qu'une seule carte UV à la fois. Je veux que les deux projections soient mélangées (ou, mieux encore, choisies par programme en fonction de la surface normale qui a l'angle le plus proche du projecteur lorsque je passe finalement à l'automatisation de ce processus en Python).

Voici à quoi cela ressemble lors de la projection depuis la caméra de gauche. Il projette la même image qu'il verrait si la maison était correctement texturée. De même, la caméra de droite a une image de la maison correctement texturée sous son angle, prête à « combler les lacunes » de ce que la caméra de gauche ne peut pas voir.


3 réponses 3

Vous pouvez ensuite accéder au paramètre à l'intérieur de la fonction avec thisIsAString .

Non, vous n'avez pas besoin d'un prototype.

Je dirais de ne plus jamais utiliser String. Lorsque le code grossit et que l'utilisation de la mémoire devient critique, vous vous retrouvez dans une impasse. Je sais que c'est plus pratique, mais essayez les tableaux de caractères. Quelque chose comme:

J'ai changé la fonction en bool. Cela signifie que vous pouvez l'utiliser dans une instruction if, où vous voudriez qu'il soit terminé avant de continuer avec votre code.

Vous devrez allouer de la mémoire vous-même pour le tableau, déclarez-le comme ceci :

Ici, j'alloue 32 octets pour les données et un octet supplémentaire pour le caractère qui signifie "fin de chaîne" (c'est ce ).


3 réponses 3

"Non statistiquement significatif" signifie que le résultat que vous avez observé est susceptible de se produire (ce qui signifie généralement avec une probabilité > 5 %) sous l'hypothèse que les deux méthodes sont également bonnes (hypothèse nulle).

Le problème est donc de déterminer dans quelle mesure il serait probable d'observer le résultat sous cette hypothèse. Dans ce cas, cela peut être dû à :

  • cet ensemble de données particulier favorise simplement l'algorithme de forêt aléatoire
  • vous avez eu de la chance avec les processus aléatoires dans les algorithmes

Pour le deuxième problème, vous pouvez certainement exécuter vos expériences plusieurs fois et voir si la méthode de la forêt aléatoire surpasse systématiquement l'autre.

Si vous disposez d'un ensemble de données de test suffisamment volumineux, vous pouvez le diviser au hasard et voir si vos résultats sont cohérents entre les différents sous-ensembles.

Cependant, comme je l'ai laissé entendre dans un commentaire ci-dessus, ce qui est important, c'est que vous vous posiez la question et indiquiez (en rapportant les résultats) les mesures que vous avez prises pour vérifier l'importance. Trop de gens passent ces problèmes sous le tapis ou revendiquent simplement leur importance sans plus de détails.

Notez que certaines revues ont interdit certaines formes de tests statistiques en raison d'une mauvaise utilisation.


Différents types de DEM

Les types courants de DEM incluent DSM, DTM, Point Cloud et 3D. Les détails sont comme ci-dessous :

DSM ou le modèle numérique de surface :Cela montre l'élévation du sol ainsi que toutes les choses sur le sol comme les arbres, les tours et tout. Cela peut être utile pour mettre en place des tours de signalisation mobiles qui vous donneraient une meilleure compréhension de l'impact de ces structures au sol sur le flux du signal.

MNT ou modèle numérique de terrain :Ce modèle montre la surface de la terre nue sans tenir compte des arbres ou de la structure à la surface. Le type de modèle DTM devient plus utile lorsque l'on considère le niveau d'eau qui peut inonder la zone ou la quantité de saleté requise pour une construction.

Contours :Les contours représentent le terrain avec des lignes de même valeur d'altitude. Lorsque vous regardez toutes les lignes ensemble, vous verrez l'image 3D du terrain sur une carte 2D. Les contours, bien que peu répandus actuellement, sont toujours utilisés pour l'étude des terrains montagneux et dépendent en grande partie des données d'arpentage.

Nuage de points: Il s'agit essentiellement d'un modèle DSM d'altitude ou d'un modèle de terrain numérique, mais au format de nuage de points. Ce qui signifie que ses points sont placés aléatoirement comme un nuage. Et par conséquent, le modèle de nuage de points.

3D :Cette 3D est une imagerie du futur. Il s'agit d'une transformation des images 2D en une représentation 3D. Vous n'obtenez pas seulement des images d'en haut. Vous voyez la surface sous tous les angles, ce qui vous donne une vision réaliste du monde.

De plus, le DEM peut être représenté comme un raster, qui est une grille de carrés connue sous le nom de heightmap, ou comme un réseau irrégulier triangulaire basé sur un vecteur connu sous le nom de TIN. Le TIN est souvent appelé DEM primaire tandis que le DEM raster est appelé DEM secondaire. Il existe diverses méthodes utilisées pour obtenir des données pour l'étude d'altitude. dont quelques-uns comprennent comme ci-dessous :

  • Lidar
  • Photogrammétrie stéréo à partir de relevés aériens
  • Structure à partir du mouvement
  • Interférométrie à partir de données radar
  • GPS cinématique en temps réel
  • Cartes topographiques
  • radar Doppler
  • Variation de mise au point
  • Drones d'arpentage et de cartographie
  • Imagerie à distance.

De nombreux cartographes préparent le MNT de plusieurs manières en utilisant fréquemment des données de télédétection plutôt que des données d'arpentage. Les DEM sont utilisés pour le DIS et constituent la base des cartes en relief produites numériquement. Une technique très puissante utilisée est le radar interférométrique à synthèse d'ouverture dans lequel deux passages d'un satellite radar collectent des données pour générer une carte d'élévation numérique avec une résolution d'environ dix mètres.

Les premières données d'élévation utilisables pour une partie importante de la Terre ont été fournies par le satellite SPOT1 en 1986. D'autres données utilisant la même technique ont été fournies en 1991 par le satellite européen de télédétection, ERS, en 2000 par la Shuttle Radar Topography Mission, SRTM, utilisant le SAR à passage unique et le radiomètre spatial avancé d'émission et de réflexion thermiques, l'instrumentation ASTER 2000 sur le satellite Terra à l'aide de SAR à double passage.

Les méthodes plus anciennes impliquaient la génération de MNT par interpolation de cartes de contours numériques produites par l'arpentage direct. Bien qu'elle ne soit pas une méthode très courante maintenant, elle est encore utilisée dans les zones de montagne.

Le DEM est largement utilisé pour l'étude du terrain et divers autres levés connexes. Certaines des utilisations courantes sont :

  • DEM est couramment utilisé dans les SIG
  • Pour l'étude archéologique
  • Systèmes avancés d'aide à la conduite
  • Système de transport intelligent
  • Agriculture de précision et foresterie
  • Analyse de surface
  • Cartographie de base
  • Simulation de vol
  • Navigation par satellite
  • L'analyse de la ligne de mire
  • Cartes en relief
  • Travaux publics
  • Arpentage pour la géomorphologie
  • Gravimétrie et géodésie physique
  • Rectification d'images 2D provenant d'un drone ou d'un satellite
  • Dérivation des paramètres de terrain pour la géomorphologie
  • Extraction d'informations sur le débit d'eau pour l'hydrologie ou les mouvements de masse comme les glissements de terrain
  • Modélisation de l'humidité du sol avec indice DTW cartographique
  • Création de cartes en relief
  • Rendu de la visualisation 3D
  • Planification de vol 3D et TERCOM
  • Création de cartes en relief pour le relief ou l'arpentage stratégique.

Données sur les impacts humains

Il existe de nombreuses causes de perte de biodiversité, notamment la déforestation, le développement agricole, l'urbanisation, la pollution et le changement climatique. Comprendre les façons dont les humains interagissent avec l'environnement et comment les changements qui en résultent ont un impact sur les systèmes de la Terre est important pour préserver la biodiversité.

Réflectance de surface

L'image Landsat acquise le 10 juillet 2019 montre les points chauds du défrichement des forêts depuis l'établissement de plantations de palmiers à huile au Pérou.

La réflectance de surface est utile pour mesurer la verdure de la végétation, qui peut ensuite être utilisée pour déterminer les dates de transition phénologique, y compris le début de la saison, la période de pointe et la fin de la saison. Les instruments à résolution modérée qui sont principalement utilisés pour cette mesure comprennent l'instrument MODIS (Moderate Resolution Imaging Spectroradiometer) de la NASA à bord des satellites Terra et Aqua et la Visible Infrared Imaging Radiometer Suite (VIIRS) à bord du partenariat commun NASA/NOAA Suomi National Polar-orbiting Partnership ( Suomi NPP). Les produits de réflectance MODIS sont disponibles à des résolutions spatiales de 250 m, 500 m, 1000 m et 5600 m. Les produits de réflectance VIIRS sont disponibles à des résolutions spatiales de 500 m et 1000 m. Les données MODIS sont acquises tous les un à deux jours, tandis que la largeur de bande plus large du VIIRS permet une couverture mondiale quotidienne.

Le radiomètre spatial avancé d'émission et de réflexion thermique (ASTER) - un effort de coopération entre la NASA et le ministère japonais de l'Économie, du Commerce et de l'Industrie - est un autre instrument à haute résolution qui acquiert des données de réflectance visible et proche infrarouge (VNIR) à une résolution de 15 m et SWIR (jusqu'en 2009) données de réflectance à une résolution de 30 m. Notez qu'ASTER est un capteur chargé, ce qui signifie qu'il n'acquiert des données que lorsqu'il est invité à le faire sur des cibles spécifiques, ce qui rend sa résolution temporelle variable en fonction de votre région cible d'intérêt. Les produits ASTER Surface Reflectance sont traités à la demande et doivent donc être demandés avec des paramètres supplémentaires. Notez qu'il y a une limite à 2000 granules par commande.

Les produits de données de réflectance de surface de qualité de recherche sont accessibles directement via Earthdata Search ou le pool de données MODIS, VIIRS et ASTER du Land Processes Distributed Active Archive Center (LP DAAC) de la NASA sont disponibles sous forme de fichiers HDF, mais sont également personnalisables en GeoTIFF :

LP DAAC fournit également un outil appelé Application for Extracting and Exploring Analysis Ready Samples (AppEEARS). AppEEARS offre un moyen simple et efficace d'accéder, de transformer et de visualiser les données géospatiales à partir d'une variété d'archives de données fédérales. Les données de réflectance de surface MODIS et VIIRS sont disponibles dans AppEEARS, ainsi que le produit de réflectance de surface USGS Landsat Analysis Ready Data (ARD). D'autres produits utiles pour les applications de biodiversité disponibles dans AppEEARS incluent les paramètres météorologiques quotidiens Daymet, les produits Soil Moisture Active Passive (SMAP) et les produits MODIS de couverture neigeuse.

Le laboratoire national d'Oak Ridge de la NASA DAAC (ORNL DAAC) fournit également des outils de sous-ensemble à la demande des données terrestres MODIS et VIIRS. En particulier, l'API des sous-ensembles permet aux utilisateurs de récupérer des sous-ensembles personnalisés, des analyses et une visualisation des produits de données MODIS et VIIRS.

Pour une résolution plus élevée, le capteur Landsat 7 Enhanced Thematic Mapper (ETM+) et l'instrument Landsat 8 Operational Land Imager (OLI) acquièrent des données à une résolution spatiale de 30 m en VNIR tous les 16 jours (ou moins lorsque vous vous éloignez de l'équateur). Landsat 8 a été développé en collaboration entre la NASA et l'USGS. L'USGS dirige maintenant les opérations satellitaires et l'archivage des données au centre d'observation et de science des ressources terrestres (EROS).

Les données Landsat peuvent être découvertes à l'aide de Earthdata Search, cependant, vous aurez besoin d'une connexion USGS Earth Explorer pour télécharger les données.

Une autre option à haute résolution est le nouveau projet (mais actuellement PROVISOIRE) Harmonized Landsat and Sentinel-2 (HLS), qui fournit des données cohérentes de réflectance de surface et de luminosité au sommet de l'atmosphère de l'OLI à bord du satellite commun NASA/USGS Landsat 8 et du Multi- Spectral Instrument (MSI) à bord des satellites européens Copernicus Sentinel-2A et Sentinel-2B. La mesure combinée permet des observations globales de la terre tous les 2-3 jours à une résolution spatiale de 30 mètres (m). Explorez la mise en route avec les données HLS natives du cloud dans le bloc-notes Python Jupyter pour extraire une série temporelle EVI de HLS.


Matériels et méthodes

Matériel végétal et disposition des champs

Blé de printemps (Triticum aestivum L.) utilisées pour les mesures CT provenaient du programme de sélection de blé du Centre international d'amélioration du maïs et du blé (CIMMYT). Les essais ont été plantés le 21 novembre 2017, à Norman E Borlaug Experiment Station (27뀢�.6″N, 109끕�.7″W) à Ciudad Obregon, Sonora, Mexique pendant la saison 2017� . L'expérience consistait en 1800 entrées uniques de blé de printemps réparties en 60 essais. Chaque essai a été organisé sous la forme d'un plan de réseau alpha en deux blocs. Les parcelles servaient d'unités expérimentales et mesuraient 1,7 m à 3,4 m, consistant en une plantation en planches surélevées sur deux planches espacées de 0,8 m avec des rangées appariées sur chaque planche à un espacement de 0,15 m pour chaque parcelle. Les détails sont dans le tableau supplémentaire 1.

Blé d'hiver (Triticum aestivum) des lignées de sélection du programme de sélection de blé de la Kansas State University ont été utilisées pour les mesures du NDVI de la canopée et de la couverture végétale à un stade précoce. Un essai pour les mesures du NDVI de la canopée a été semé le 19 septembre 2017 à la ferme agronomique KSU Ashland Bottom (39ଇ�.2″N, 96뀷�.6″W), Manhattan, Kansas, et l'autre essai pour les mesures de couverture végétale précoce a été semé le 17 septembre 2018 à la ferme KSU (39ଇ�.4″N, 96뀷�.1″W). Au total, 146 et 150 entrées de blé d'hiver ont été plantées au cours de la saison 2017� et 2018�, respectivement. Au cours de chaque saison, l'ensemble de l'expérience sur le terrain a été organisé en deux blocs. Les entrées comprenaient des lignées de sélection et des variétés de contrôle. Dans chaque bloc, une lignée de sélection a été plantée dans une seule parcelle, tandis que les chèques ont été plantés plusieurs fois. La parcelle expérimentale était une parcelle individuelle à six rangs avec un espacement de 20 cm (8″) avec des dimensions de parcelle de 1,5 m × 2,4 m. Les détails de chaque expérience sur le terrain sont répertoriés dans le tableau supplémentaire 1.

Pour améliorer la précision géospatiale des images orthomosaïques et orthorectifiées, des points de contrôle au sol (G) constitués de marqueurs carrés blancs brillants/réfléchissants ont été uniformément répartis dans l'expérience sur le terrain avant l'acquisition d'images et relevés à une résolution de cm. Les GCP d'Obregon, au Mexique, ont été levés à l'aide d'un système de positionnement global (GPS) Trimble R4 RTK (Trimble Inc., Sunnyvale, Californie, États-Unis). Les GCP du Kansas ont été sondés à l'aide de l'unité GNSS (Global Navigation Satellite System) Precis BX305 Real-Time Kinematic (RTK) (Tersus GNSS Inc., Shanghai, Chine).

UAS, capteurs et acquisition d'images

L'UAS utilisé pour l'acquisition d'images était un DJI Matrice 100 (DJI, Shenzhen, Chine). Les plans de vol ont été créés à l'aide de l'application Android Litchi (VC Technology Ltd., Royaume-Uni) et de l'application de planification de mission CSIRO 2 pour DJI Matrice100. En conséquence, la vitesse de vol, l'altitude de vol au-dessus du sol et la largeur entre deux trajectoires de vol parallèles ont été ajustées en fonction du taux de chevauchement et du champ de vision de la caméra. Les deux caméras ont été déclenchées automatiquement avec l'unité GNSS embarquée après un intervalle constant de distance parcourue. Un résumé des paramètres de vol est répertorié dans le tableau supplémentaire 2.

Pour collecter l'image thermique des pépinières de blé de printemps, une caméra thermique FLIR VUE Pro R (FLIR Systems, États-Unis) a été emportée par le DJI Matrice 100. Dix tôles blanches carrées de 0,25 m × 0,25 m montées sur des poteaux de 0,50 m ont été utilisés comme GCP. Deux collectes de données ont été réalisées entre 11h et 13h le 2 mars et le 19 mars 2018, lors de la phase de remplissage des grains. Le taux de chevauchement d'images aériennes entre deux images géospatialement adjacentes a été fixé à 80 % à la fois séquentiellement et latéralement pour assurer une qualité optimale d'assemblage de photos orthomosaïques. Les deux vols étaient fixés à 60 m au-dessus du sol (AGL) à 5 m/s et pouvaient couvrir les 3600 parcelles de reproduction en environ 16 min. Pour préserver les informations sur les pixels de l'image, la caméra FLIR a été configurée pour capturer des images JPEG radiométriques (R-JPEG).

Une caméra multispectrale MicaSense RedEdge-M (MicaSense Inc., États-Unis) a été utilisée pour collecter des images de la canopée du blé d'hiver au cours des saisons 2017� et 2018�. Des carreaux carrés blancs d'une dimension de 0,30 m × 0,30 m ont été utilisés comme GCP. Neuf et quatre GCP ont été placés et étudiés sur le terrain au cours des saisons 2017� et 2018�, respectivement. Tous les vols UAS ont été effectués entre 11h00 et 14h00. Au total, cinq vols UAS ont été effectués pendant la phase de remplissage du grain au cours de la saison 2017�, et quatre vols UAS ont été effectués au début de la période d'établissement de l'automne pour la saison 2018�. Les dates de vol détaillées sont répertoriées dans le tableau supplémentaire 2. Le taux de chevauchement des images aériennes entre deux images géospatialement adjacentes a été fixé à 80 % à la fois séquentiellement et latéralement pour assurer une qualité optimale d'assemblage de photos orthomosaïques. Tous les vols UAS étaient fixés à 20 m AGL à 2 m/s et pouvaient couvrir 360 (saison 2017�) et 336 (saison 2018�) parcelles en 14 et 11 min, respectivement. Pour préserver l'intensité des pixels de l'image, la caméra MicaSense RedEdge-M a été configurée pour capturer des images TIFF non compressées.

Génération d'images orthomosaïques et orthorectifiées

Dans cette étude, des modèles ajustés à un trait extrait de l'image orthomosaïque ont été utilisés comme contrôle de référence, contre lequel comparer les estimations des modèles ajustés aux mêmes traits extraits de plusieurs images individuelles orthorectifiées. Contrairement à l'approche proposée par Deery et al. (2016), dans cette étude, nous devions encore générer l'image orthomosaïque d'un champ complet comme point de départ pour calculer la position de chaque image individuelle. Grâce au processus de photogrammétrie, les pixels d'une image brute ont été projetés vers leur emplacement géographique réel. Suite à cette orthorectification, chaque image brute individuelle a été convertie en une image orthorectifiée. Par conséquent, il n'était pas nécessaire d'identifier manuellement les parcelles de terrain dans chaque image orthorectifiée, car le même fichier de formes avec les limites des parcelles pouvait être utilisé pour identifier une parcelle existant dans différentes images orthorectifiées. La génération d'images orthomosaïques et orthorectifiées à partir d'images brutes consistait en (étape 1) un prétraitement de l'image (y compris l'étalonnage radiométrique), (étape 2) la détection des GCP, (étape 3) un processus de photogrammétrie, (étape 4) et l'exportation de l'image orthomosaïque et des images orthorectifiées (comme illustré à la figure 1), comme expliqué ci-dessous en détail. La procédure a été implémentée en Python, et le code source est disponible en ligne 3 .

Figure 1. Workflow pour générer des images orthomosaïques et orthorectifiées à partir d'images brutes.

La procédure de prétraitement d'image pour les images multispectrales a converti la valeur de pixel dans chaque image spectrale brute en réflectance avant le processus de photogrammétrie. Les valeurs de pixels dans les images thermiques brutes, cependant, n'ont pas été converties en valeurs de température à cette étape. Comme chaque déclenchement de la caméra MicaSense RedEdge-M générait cinq images de chaque bande spectrale (bleu, rouge, vert, proche infrarouge et RedEdge), le contrôle de complétude a supprimé les images ayant moins de cinq bandes. Selon l'altitude (c'est-à-dire la hauteur de la caméra au-dessus du niveau moyen de la mer) intégrée dans les propriétés de l'image, les images ont été divisées en deux groupes : les images capturées au sol et les images capturées dans les airs. Les panneaux de calibration radiométrique MicaSense ont ensuite été automatiquement détectés à partir des images capturées au sol si elles existaient. Suite à la procédure d'étalonnage radiométrique MicaSense 4 , les facteurs d'étalonnage des cinq bandes ont été calculés puis appliqués aux images capturées dans l'air, convertissant les images brutes en images de réflectance pour le processus de photogrammétrie ultérieur.

La procédure de détection des GCP a automatiquement identifié le GCP dans chaque image capturée dans les airs si elle existe et a fait correspondre le GCP avec la position relevée du GCP le plus proche de la position de l'image. Comme des carreaux carrés blancs avec la taille pré-connue ont été utilisés comme GCP dans le champ de blé, des motifs clairs de GCP ont pu être détectés par traitement d'image. Selon la position de l'image (c'est-à-dire la longitude et la latitude) intégrée dans les propriétés de l'image, le GCP relevé, dont les coordonnées étaient géographiquement proches de la position de l'image, a été mis en correspondance avec le GCP détecté dans l'image. Un espace suffisant (c. Tous les noms de fichiers d'images et les coordonnées GCP détectées ont été enregistrés dans une liste pour l'optimisation géospatiale dans le processus de photogrammétrie. En raison de la faible résolution de la caméra thermique et du motif peu clair des GCP dans les images thermiques, les GCP ont été détectés manuellement pendant le processus de photogrammétrie des images thermiques.

Le traitement photogrammétrique des images aériennes comprenait la génération de nuages ​​de points épars, l'optimisation géospatiale, la génération de nuages ​​de points denses et la génération de modèles en 3 dimensions (3D). Le processus a été mis en œuvre à l'aide de l'API Python Agisoft PhotoScan (version 1.4.0, Agisoft LLC, Russie). Une image orthomosaïque d'une expérience complète sur le terrain a été exportée après le processus. Toutes les images utilisées pour générer l'image orthomosaïque ont été exportées en tant qu'images orthorectifiées avec les coordonnées de la limite de l'image (c'est-à-dire les coins nord-ouest et sud-est) et la position d'origine de la caméra (c'est-à-dire la longitude, la latitude et l'altitude) où l'image a été capturée intégrée dans le propriétés de l'image.

Extraction des caractéristiques au niveau de la parcelle

L'extraction des valeurs phénotypiques au niveau de la parcelle à partir d'images orthomosaïques et orthorectifiées consistait (1) à recadrer des images à parcelle unique à partir d'une orthomosaïque du champ complet ou à partir de plusieurs images orthorectifiées, dont chacune couvrait une petite partie de l'ensemble du champ, (2) convertir les valeurs de pixel en valeurs de trait via le calcul raster, et (3) résumer le trait au niveau de la parcelle dans chaque image (comme le montre la figure 2). La procédure a été implémentée à l'aide de Python, et le code source est disponible en ligne 5 .

Figure 2. Flux de travail pour l'extraction de traits au niveau de la parcelle à partir d'images orthomosaïques et orthorectifiées.

Suite à la génération de l'image orthomosaïque d'un champ entier, une carte de champ – un fichier de formes de polygones délimitant les quatre coins de chaque parcelle a été généré semi-automatiquement dans Quantum Geographic Information System (QGIS, www.qgis.org) avec le Plugin de géoprocesseur HTP (Wang et al., 2016). Plus précisément, les quatre points d'angle de l'ensemble du champ d'expérimentation ont d'abord été définis manuellement dans QGIS. Ensuite, les coordonnées des quatre coins du polygone pour chaque parcelle ont été automatiquement calculées avec la taille géométrique de parcelle pré-connue (longueur et largeur) à l'aide d'un script Python QGIS. Enfin, chaque polygone de parcelle s'est vu attribuer un identifiant de parcelle à l'aide du plugin HTP Geoprocessor (Wang et al., 2016). Selon la carte de terrain, une image de chaque parcelle pourrait être recadrée à partir de l'image orthomosaïque de l'ensemble de l'expérience sur le terrain et enregistrée en tant qu'image GeoTiff. Contrairement à l'image orthomosaïque de l'expérience complète sur le terrain, chaque image orthorectifiée ne couvrait qu'une petite partie de l'ensemble du champ. Par conséquent, seules les parcelles qui étaient complètement incluses dans l'image orthorectifiée ont été recadrées et enregistrées en tant qu'images GeoTiff. En conséquence, chaque parcelle était représentée par une seule image GeoTiff orthomosaïque recadrée et plusieurs images GeoTiff orthorectifiées.

Pour extraire le trait CT, les valeurs de pixels dans chaque image GeoTiff contenant la bande infrarouge thermique ont été directement utilisées comme indicateurs de mesures de température absolue, car (1) les images R-JPEG ont des données de température intégrées dans chaque pixel 6 et (2) Sagan et al. (2019) a démontré que la température absolue peut être convertie à partir de la valeur du pixel en suivant une équation linéaire :

ThermiqueIR est la valeur du pixel dans la bande infrarouge thermique de l'image GeoTiff, T est la mesure de température absolue en degrés Celsius, et K et T0 sont des paramètres constants. Dans cette étude, K et T0 ont été fixées à 0,04 et �.15 (Flir Systems Inc., 2017 Williamson et al., 2019 Song and Park, 2020).

Pour générer le trait NDVI à partir de l'image GeoTiff à partir de l'image GeoTiff multispectrale à cinq bandes, l'équation suivante a été utilisée lors du calcul raster :

NIR et rouge sont respectivement la bande proche infrarouge et la bande rouge des images multispectrales GeoTiff, et NDVI est la couche raster en sortie.

Pour le calcul GC de la canopée, l'image GeoTiff multispectrale à cinq bandes a d'abord été convertie en une image GeoTiff RVB en rendant les bandes rouge, verte et bleue. Ensuite, l'image RVB a été convertie en une image GeoTiff Teinte-Saturation-Valeur (HSV). Enfin, une image binaire a été générée à partir de la bande de teinte de l'image HSV par des valeurs de seuil sélectionnées manuellement, laissant des pixels blancs représentant la zone de la canopée dans l'image RVB. Dans cette étude, la valeur seuil a été sélectionnée dans le premier ensemble de données d'image (3 octobre 2018) et a été appliquée aux ensembles de données d'image suivants.

Pour l'extraction des traits CT et NDVI, nous avons utilisé le mode de toutes les valeurs non nulles (Figure 2) dans une zone de tracé en tant que CT et NDVI au niveau de la parcelle, respectivement. Ceci était destiné à compenser le bruit des pixels non végétatifs dans la zone de la parcelle, bien que la plupart des parcelles aient été entièrement couvertes par des auvents lors de l'acquisition d'images. La couverture végétale au stade précoce au niveau de la parcelle (GC sur la figure 2) a été calculée comme le pourcentage global de pixels blancs dans l'image binaire. En conséquence, chaque type de trait au niveau de la parcelle extrait de l'image orthomosaïque n'avait qu'une seule observation par parcelle, alors que les mêmes traits extraits des images orthorectifiées avaient plusieurs observations, une par image orthorectifiée dans laquelle cette parcelle donnée semblait complète.

Des images orthomosaïques et orthorectifiées collectées à deux dates (tableau supplémentaire 2) ont été utilisées pour extraire deux ensembles de données indépendants pour le trait CT. De même, les images collectées à cinq et quatre dates ont été utilisées pour extraire cinq et quatre ensembles de données indépendants pour les traits NDVI et GC, respectivement (tableau supplémentaire 2).

Analyses statistiques

Quatre modèles mixtes linéaires généraux (modèles I à IV) ont été spécifiés et ajustés à chacun des caractères extraits, à savoir CT, NDVI et GC. Pour chaque trait, un modèle nul (Modèle I) a été ajusté aux observations extraites de l'image orthomosaïque (une observation par parcelle Modèle Iune) et à la moyenne des multiples observations par placette, extraites des images orthorectifiées (Modèle Ib). Les trois modèles restants (II, III et IV) ont été adaptés aux traits extraits des images orthorectifiées (c'est-à-dire plusieurs observations par parcelle) et étaient destinés à reconnaître différents aspects du processus de collecte de données. L'ajustement du modèle a été mis en œuvre à l'aide du package ASReml-R (Ver. 4) dans R (Butler et al., 2009 Gilmour et al., 2015), avec des composantes de variance estimées par le maximum de vraisemblance résiduelle (REML) (Butler et al., 2009 Gilmour et al., 2015). Des détails supplémentaires pour chaque modèle suivent.

Modèle I

Le modèle I a été développé pour s'adapter à une seule observation par placette, cette seule observation étant soit extraite d'une seule image orthomosaïque par placette (ouim, Modèle Iune) ou en faisant la moyenne de plusieurs observations au niveau de la parcelle ( y r ¯ ) extraites d'images orthorectifiées (Modèle Ib). Spécifiquement,

où les exposants (jeune) et moib) indiquent le modèle auquel correspond chaque paramètre. Dans chaque modèle, μ représente l'interception, gje est l'effet aléatoire de la i ème entrée supposée distribuée comme iid G i ∼ N ⁢ ( 0 , σ G 2 ) , B j est l'effet aléatoire du j ème bloc supposé distribué comme iid B j & #x223C N ⁢ ( 0 , σ B 2 ) , R k ⁢ ( j ) est l'effet aléatoire de la k ème rangée imbriquée dans un bloc et supposée distribuée comme iid R ( j ) ⁢ k ∼ N ⁢ ( 0 , σ R 2 ) , C l ⁢ ( j ) est l'effet aléatoire de la l ème colonne imbriquée dans le bloc et distribuée comme iid C ( j ) ⁢ l & #x223C N ⁢ ( 0 , σ C 2 ) Enfin, ei ⁢ j ⁢ k ⁢ l ( I a ) ∼ N ⁢ ( 0 , σ e ( I a ) 2 ) et ei ⁢ j ⁢ k ⁢ l ( I b ) ∼ N ⁢ ( 0 , σ e ( I b ) 2 ) sont des résidus résiduels spécifiques au modèle unique à la parcelle ijkl th.

Modèle II

Compte tenu des multiples observations sur chaque parcelle qui ont été extraites des images orthorectifiées (ouir), il est possible d'évaluer la variabilité entre les observations au sein d'une parcelle (c'est-à-dire la variance à l'intérieur de la parcelle) en développant le modèle I comme suit.

où μ, gje,Bj,Rk(j), et Cl(j) sont définis comme pour le modèle I. Pendant ce temps, (R×C)(B)kje(j) (II) est l'effet aléatoire d'un tracé individuel identifié par la combinaison de la k ème ligne et de la l ème colonne dans le j ème bloc, supposé distribué iid ( R × C ) ⁢ ( B ) k &# x2062 l ⁢ ( j ) ( II ) ∼ N ⁢ ( 0 , σ R × C ⁢ ( B ) ( II ) 2 ) , et ε i ⁢ j ⁢ k ⁢ l ⁢ m ( II ) est le bruit résiduel restant de l'observation collecté sur la m ème image orthorectifiée du ijkl ème tracé, et supposé comme distribué iid ε i ⁢ j & #x2062 k ⁢ l ⁢ m ( II ) ∼ N ⁢ ( 0 , σ ε ( II ) 2 ) Notamment, dans le modèle II, les termes résiduels restants ε i ⁢ j ⁢ k ⁢ l ⁢ m ( II ) sont uniques à chaque ijklm ième observation dans une parcelle donnée et représentent donc une réplication technique (c'est-à-dire un sous-échantillonnage) des parcelles dans le processus de collecte de données.

Modèle III

Rappelons que chaque image orthorectifiée comprend plusieurs tracés dans le champ de vision de la caméra (Figures 3𠄵) et que les images ont été capturées par l'UAS suivant une trajectoire sinueuse (se déplaçant le long de la direction de la colonne et se retournant au niveau des lignes de délimitation) pour couvrir l'ensemble domaine. Par conséquent, pour le modèle III, nous envisageons de remplacer la spécification des effets spatiaux de la ligne et de la colonne par un effet de clustering de l'image, comme suit :

Figure 3. Illustration de l'angle d'azimut de la caméra. L'image RVB a été capturée par l'UAS montrant une petite partie du champ. Le point bleu représentait la position projetée de la caméra au sol. Les points rouges représentaient le centre de chaque parcelle. L'angle d'azimut de la caméra (θ) était l'angle entre le vrai est (comme 0°) et le vecteur du centre du tracé à la position de la caméra.

Figure 4. Images orthomosaïques et orthorectifiées de CT. Les images thermiques brutes pour CT ont été capturées le 2 mars 2018, à 60 m AGL et ont été traitées pour générer (UNE) une image orthomosaïque du champ partiel et plusieurs images orthorectifiées de sections du champ, dont deux sont représentées ici (AVANT JC). Des polygones noirs délimités par de fines lignes pointillées à l'intérieur de chaque image délimitent les limites des parcelles. Des polygones noirs en traits pointillés épais mettent en évidence une section de champ d'intérêt commune aux trois images. Dans chaque image, une étoile noire marque le même tracé. La plage de température (en degrés Celsius) est indiquée sur chaque image. Les zones bleues continues (AVANT JC) sont des pixels non efficaces en raison de l'orthorectification des images brutes.

Figure 5. Images orthomosaïques et orthorectifiées du NDVI. Les images brutes pour NDVI ont été capturées le 4 avril 2018, à 20 m AGL de l'expérience de champ de blé 2017&# x201318 et ont été traitées pour générer (UNE) une image orthomosaïque d'un bloc sur le terrain et plusieurs images orthorectifiées de sections d'un tel bloc, dont deux sont représentées ici (AVANT JC). Des polygones noirs délimités par de fines lignes pointillées à l'intérieur de chaque image délimitent les limites des parcelles. Yellow rectangles in dashed lines delimit the same subset of six plots in all three images. The range of NDVI (unitless) is marked in each image. The continuous white areas (B,C) are non-effective pixels due to orthorectification to the raw images.

where μ, gje, et Bj are defined as for Model II. In turn, I n ( III ) is the random effect of the n th image and is assumed distributed as iid I n ( III ) ∼ N ⁢ ( 0 , σ I ( III ) 2 ) Meanwhile, each plot is identified by the combination of the i th entry in the j th block, namely ( G × B ) i ⁢ j ( III ) and assumed iid ( G × B ) i ⁢ j ( III ) ∼ N ⁢ ( 0 , σ G × B ( III ) 2 ) Finally, ε i ⁢ j ⁢ n ( III ) is the left-over residual noise of the observation collected on the n th orthorectified image of the ij th plot, assumed distributed as iid ε i ⁢ j ⁢ n ( III ) ∼ N ⁢ ( 0 , σ ε ( III ) 2 ) Much like in Model II, residual terms ε i ⁢ j ⁢ n ( III ) in model III are unique to an observation within a plot and thus represent technical replication (i.e., subsampling) in the data collection process.

Model IV

Model IV extends Model III to recognize that orthorectified images on a given plot are captured from different angles. Thus, Model IV incorporated camera view angle as an explanatory covariate in the linear predictor. This angle is defined from the center of the field plot to the camera’s position where the image is captured. As the UAS’s altitude could not be held constant during image acquisition, the absolute camera height above the ground level could not be accurately measured. Therefore, only the latitude and longitude (i.e., y and x coordinates) values of both the plot center and the camera were used to calculate the camera azimuth angle (Figure 3). Model IV was specified as follows:

Xijn is the camera azimuth angle corresponding to the n th orthorectified image for the ij th plot, β is the associated partial regression coefficient, and all remaining terms are defined as in Equation (6).

Model Comparison

Specific model comparisons were targeted to address questions of interest. Specifically, Model Ib was compared to Model Iune to evaluate the effect of an averaged plot-level observation extracted from multiple orthorectified images compared to a single observation extracted from blended pixels in an orthomosaic image. Next, Model II was compared to Model I to investigate the effect of subsampling on estimation of the additive genetic variance (and functions thereof) based on multiple plot-level observations extracted from orthorectified images (II) compared to a single plot-level observation extracted from an orthomosaic image (Iune) or from the average of multiple orthorectified images (Ib). Furthermore, a comparison between Models II and III were intended to consider alternative ways of accounting for spatial variation, namely through rows and columns (II) vs. image clusters (III). Finally, Model IV expanded Model III to adjust for potential technical effects of the UAS with respect to the camera view angle.

Two metrics were selected for model comparisons, specifically the broad-sense heritability (H 2 ) or repeatability, and the Bayesian Information Criterion (BIC) (Neath and Cavanaugh, 2012).

For all models, variance component estimates were used to compute H 2 as follows. Specifically, to Models Iune et moib (Equations 3 to 4), H 2 was calculated as,

Using estimates of the entry-level variance σ ε 2 and the plot-level variance σ e 2 from Models Iune et moib, et r defined as the number of plots per entry (i.e., number of blocks). For Models II, III, and IV (Equation 5 to 7), the calculation of H 2 included plot-level variance estimates (i.e., σ R × C ⁢ ( B ) ( II ) 2 , σ G × B ( III ) 2 , σ G × B ( IV ) 2 ) , and estimates of σ ε 2 characterizing subsampling, weighted by the number of subsamples (n) per plot, calculated as the harmonic mean number of observations across plots. Specifically, for model II

And for each of Models III and IV:

As Models Iune, Ib, and II have different response variables, and BIC is used for model comparison assuming the same set of observations on the response variable, BIC is only used for Models II, III and IV in this study. Values of BIC were obtained from the ASReml-R (Ver. 4) package output. Smaller values of BIC are considered to indicate better fitting models.

Disponibilité des données

Data associated with these experiments, including the cropped, plot-level orthomosaic images and corresponding orthorectified images, can be accessed at the public repository 7 .


A topological enabled three-dimensional model based on constructive solid geometry and boundary representation

Ordinary triangular mesh model can be constructed from discrete point cloud. However, this kind of model contains large amount of data. It is not only difficult to split, but also lacks topological relation information. We proposed a CSG–BRep (Constructive Solid Geometry—Boundary Representation) topological model to overcome these problems. CSG–BRep model can record topological relationship of 3D model in great detail. We first introduced aspects of the topological model: location, orientation and sub-shape. Then we proposed two algorithms to access topological structure. We also proposed algorithms for performing Boolean operation on CSG–BRep models. Finally, we demonstrated CSG–BRep construction using LIDAR point cloud as a data source. We would show that, compared to ordinary triangular mesh model, CSG–BRep model is composable and can effectively reduce data volume. In addition, CSG–BRep model has detailed topological relation information, allowing further querying and analysis of 3D spatial topological information.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


‘High-level’ functions¶

Several ‘high level’ functions have been implemented for SpatRaster objects. ‘High level’ functions refer to functions that you would normally find in a computer program that supports the analysis of raster data. Here we briefly discuss some of these functions. All these functions work for raster datasets that cannot be loaded into memory. See the help files for more detailed descriptions of each function.

The high-level functions have some arguments in common. The first argument is typically a SpatRaster ‘x’ or ‘object’. It is followed by one or more arguments specific to the function (either additional SpatRaster objects or other arguments), followed by a filename=”” and “…” arguments.

The default filename is an empty character “”. If you do not specify a filename, the default action for the function is to return a raster object that only exists in memory. However, if the function deems that the raster object to be created would be too large to hold memory it is written to a temporary file instead.

The “…” argument allows for setting additional arguments that are relevant when writing values to a file: the file format, datatype (e.g. integer or real values), and a to indicate whether existing files should be overwritten.

Modifying a SpatRaster object¶

There are several functions that deal with modifying the spatial extent of SpatRaster objects. The crop function lets you take a geographic subset of a larger raster object. You can crop a SpatRaster by providing an extent object or another spatial object from which an extent can be extracted (objects from classes deriving from Raster and from Spatial in the sp package). An easy way to get an extent object is to plot a SpatRaster and then use drawExtent to visually determine the new extent (bounding box) to provide to the crop function.

trim crops a SpatRaster by removing the outer rows and columns that only contain NA values. In contrast, extend adds new rows and/or columns with NA values. The purpose of this could be to create a new SpatRaster with the same Extent of another, larger, SpatRaster such that they can be used together in other functions.

The merge function lets you merge 2 or more Raster objects into a single new object. The input objects must have the same resolution and origin (such that their cells neatly fit into a single larger raster). If this is not the case you can first adjust one of the Raster objects with use (dis)aggregate or resample .

aggregate and disaggregate allow for changing the resolution (cell size) of a SpatRaster object. In the case of aggregate , you need to specify a function determining what to do with the grouped cell values mean . It is possible to specify different (dis)aggregation factors in the x and y direction. aggregate and disaggregate are the best functions when adjusting cells size only, with an integer step (e.g. each side 2 times smaller or larger), but in some cases that is not possible.

For example, you may need nearly the same cell size, while shifting the cell centers. In those cases, the resample function can be used. It can do either nearest neighbor assignments (for categorical data) or bilinear interpolation (for numerical data). Simple linear shifts of a Raster object can be accomplished with the shift function or with the extent function. resample should not be used to create a Raster* object with much larger resolution. If such adjustments need to be made then you can first use aggregate.

With the warp function you can transform values of SpatRaster object to a new object with a different coordinate reference system.

Here are some simple examples.

Aggregate and disaggregate.

flip lets you flip the data (reverse order) in horizontal or vertical direction – typically to correct for a ‘communication problem’ between different R packages or a misinterpreted file. rotate lets you rotate longitude/latitude rasters that have longitudes from 0 to 360 degrees (often used by climatologists) to the standard -180 to 180 degrees system. With t you can rotate a SpatRaster object 90 degrees.

Overlay¶

The overlay function can be used as an alternative to the raster algebra discussed above. Overlay, like the functions discussed in the following subsections provide either easy to use short-hand, or more efficient computation for large (file based) objects.

With overlay you can combine multiple Raster objects (e.g. multiply them). The related function mask removes all values from one layer that are NA in another layer, and cover combines two layers by taking the values of the first layer except where these are NA .

calc allows you to do a computation for a single SpatRaster object by providing a function. If you supply a SpatRaster , another SpatRaster is returned. If you provide a multi-layer object you get a (single layer) SpatRaster if you use a summary type function (e.g. sum but a RasterBrick if multiple layers are returned. stackApply computes summary type layers for subsets of a RasterStack or RasterBrick .

Reclassify¶

You can use cut or reclassify to replace ranges of values with single values, or subs to substitute (replace) single values with other values.

Set all values above 4 to NA

Divide the first raster with two times the square root of the second raster and add five.

Remove from r all values that are NA in w .

Identify the cell values in u that are the same as in s .

Replace NA values in w with values of r .

Change value between 0 and 2 to 1, etc.

Substitute 2 with 40 and 3 with 50.

Focal functions¶

The focal function currently only work for (single layer) SpatRaster objects. They make a computation using values in a neighborhood of cells around a focal cell, and putting the result in the focal cell of the output SpatRaster. The neighborhood is a user-defined matrix of weights and could approximate any shape by giving some cells zero weight. It is possible to only computes new values for cells that are NA in the input SpatRaster.

Distance¶

There are a number of distance related functions. distance computes the shortest distance to cells that are not NA . pointDistance computes the shortest distance to any point in a set of points. gridDistance computes the distance when following grid cells that can be traversed (e.g. excluding water bodies). direction computes the direction toward (or from) the nearest cell that is not NA . adjacency determines which cells are adjacent to other cells. See the gdistance package for more advanced distance calculations (cost distance, resistance distance)

Spatial configuration¶

Function clump identifies groups of cells that are connected. boundaries identifies edges, that is, transitions between cell values. area computes the size of each grid cell (for unprojected rasters), this may be useful to, e.g. compute the area covered by a certain class on a longitude/latitude raster.

Predictions¶

The package has two functions to make model predictions to (potentially very large) rasters. predict takes a multilayer raster and a fitted model as arguments. Fitted models can be of various classes, including glm, gam, and RandomForest. The function interpolate is similar but is for models that use coordinates as predictor variables, for example in Kriging and spline interpolation.

Vector to raster conversion¶

The raster package supports point, line, and polygon to raster conversion with the rasterize function. For vector type data (points, lines, polygons), objects of Spatial* classes defined in the sp package are used but points can also be represented by a two-column matrix (x and y).

Point to raster conversion is often done with the purpose to analyze the point data. For example to count the number of distinct species (represented by point observations) that occur in each raster cell. rasterize takes a SpatRaster object to set the spatial extent and resolution, and a function to determine how to summarize the points (or an attribute of each point) by cell.

Polygon to raster conversion is typically done to create a SpatRaster that can act as a mask, i.e. to set to NA a set of cells of a SpatRaster object, or to summarize values on a raster by zone. For example a country polygon is transferred to a raster that is then used to set all the cells outside that country to NA whereas polygons representing administrative regions such as states can be transferred to a raster to summarize raster values by region.

It is also possible to convert the values of a SpatRaster to points or polygons, using as.points and as.polygons . Both functions only return values for cells that are not NA . Unlike rasterToPolygons , rasterToPoints is reasonably efficient and allows you to provide a function to subset the output before it is produced (which can be necessary for very large rasters as the point object is created in memory).


Monday, April 24, 2017

Assignment 9: Mission Planning with C3P

introduction

The purpose of this assignment was to learn about proper mission planning when it pertains to flying a UAV. To do this, C3P Mission Planning Software was used which ensures a safe and effective UAV flight plan. Throughout this assignment, all of the proper steps to planning any UAV mission will be discussed as well as potential issues and solutions to using the C3P Mission Planning software.

Mission Planning Essentials

The first step in planning any UAV mission is to examine the study site. By looking at maps, 3D models, or, better yet, physically going to the site, the pilot can make note of any potential hazards such as power lines, radio towers, buildings, terrain, and crowds of people. It is also important to note whether there will be wireless data available or not. If not, then the pilot will need to cache the data obtained from the flight. Once observation has taken place and potential hazards/obstacles are noted, the pilot can now start to plan the mission. Using any geospatial data available and drawing out multiple potential mission plans (using C3P Mission Planner in this case) is best practice. Then, checking that the weather is suitable for flying a UAV and ensuring that all required equipment is fully charged and ready to go are the last steps required before the pilot is well prepared for the mission.

Once the pilot is ready to depart, a final weather and equipment check should be done. If the forecast appears suitable for a UAV flight and all of the necessary equipment is packed, the pilot is prepared to head out to the site.

At the site, before the pilot is ready takeoff a few final steps should be completed the first being site weather. The pilot should document the wind speed and direction, temperature, and dew point of the study site. From there, the pilot should assess the field's vegetation terrain potential electromagnetic interference (EMI) from power lines, underground metals/cables, power stations, etc and launch site elevation. Lastly, the units the team will be working in should be established and standard throughout the project thereafter, the mission/s should be reevaluated given any unforeseen characteristics of the site, the network connectivity should be confirmed, and all field observations should be documented in the pre-flight check and flight log.

Once all of these steps have been completed, the pilot is ready to fly.

Using the C3P Mission Planning Software

The first step to create a mission plan in C3P is to relocate the "home", "takeoff", "rally", and "land" locations to the study site on the map. Next, the user will draw a flight path using the draw tool. Depending on the individual site, the user can draw the path by point, line, or area. The tool also has a measurement option for precise flight path drawing. Once the user has drawn the flight path, the mission settings are adjusted. The mission settings include altitude, UAV speed, frontal and side overlap, ground sampling distance (GSD), overshoot, and camera type (figure 1).


Voir la vidéo: Calculer laire surface dun polygone automatiquement dans QGIS (Octobre 2021).