Suite

Créer une classe d'entités surfaciques à partir d'une zone non couverte par une autre à l'aide d'ArcGIS Desktop ?


Je travaille sur un projet d'analyse spatiale à l'échelle de l'État. J'examine une forme de couverture de transport dans un état, et une partie de mon analyse implique des zones tampons et des polygones de temps de conduite. J'utilise une géodatabase (donc ArcGIS) pour tout mon travail, donc les nouvelles entités seront exportées en tant que classes d'entités dans les jeux de classes d'entités.

Pour visualiser : j'ai dit frontière d'état, et quelques anneaux tampons dissous autour de certains points, et ils couvrent des parties de l'état. Je souhaite créer une classe d'entités pour les parties de l'état que ces anneaux tampons ne couvrent pas, AKA zones de lacunes.

Existe-t-il un outil que je peux utiliser ou créer pour le faire ?

Je sais que je pourrais les dessiner manuellement dans l'éditeur, mais je ne sais pas si c'est le moyen le plus précis de générer ces classes d'entités. Pour moi, je pense que cette opération serait comme un "Clip" inversé dans la mesure où je prends les deux calques, et au lieu de retirer la zone découpée, cela prendrait tout ce qui ne se trouve pas dans la zone découpée.

J'utilise une licence Desktop Basic.


Il existe une autre option qui n'est pas aussi élégante que Erase ou Union et implique quelques étapes supplémentaires, mais cela peut être fait en Basic et sans outils tiers (ce qui peut être un problème si vous n'avez pas de droits d'administrateur sur la machine) .

  1. Faites une copie de votre couche tampon,tampon factice. Si vous disposez de plusieurs couches, vous pouvez toutes les sélectionner et les exporter/copier vers une nouvelle classe d'entités.
  2. Danstampon factice, sélectionnez tout et utilisez l'outil Fusionner dans le menu déroulant Éditeur. Peu importe les attributs de l'entité que vous choisissez de conserver.
  3. Maintenant, faites une copie de votre frontière d'état,non couvertCela deviendra la classe d'entités que vous essayez de créer.
  4. Avec seulementtampon facticeetnon couvertmodifiable (désactivez les autres calques - soyez prudent car cette commande affectera tous calques modifiables), sélectionnez letampon facticepolygone et dans la liste déroulante de l'éditeur, choisissez Clip. Ne définissez pas de tampon et laissez-le sur « rejeter la zone d'intersection ». L'autre option ferait ce que fait l'outil Clip GP - rogner à l'extérieur la forme au lieu de à l'intérieur il.

Vous pouvez alors supprimertampon facticeet il devrait vous resternon couvertcomme un seul poly (éventuellement en plusieurs parties) qui est toute votre frontière d'état non couverte par un tampon. Vous voudrez peut-être l'exploser pour vous débarrasser des multiparties s'il y en a, mais j'ai le sentiment que vous vous retrouverez avec une grande forme et des trous découpés plutôt que des pièces séparées. Vous pouvez laisser cela comme sa propre classe d'entités ou l'ajouter à votre couche tampon (attribut de nom supérieur à max buffer ou autre).


Erase est l'outil pour cela dans ArcGIS.

http://resources.arcgis.com/en/help/main/10.1/index.html#//00080000000m000000

Un peu comme un "clip opposé"

Vous avez besoin d'une licence de niveau supérieur pour ce faire.


Si vous n'avez pas de niveau de licence info, vous pouvez le faire en utilisant union, qui est limité à deux classes de fonctionnalités en basic et standard, mais c'est suffisant.

Union vos deux couches, pour simplifier, joignez les attributs avec FID uniquement, puis supprimez ceux qui ont une valeur FID de la deuxième classe d'entités. Il existe plusieurs façons de supprimer, mais si vous souhaitez le faire dans un modèle, créez une couche d'entités avec un clause où et utilisez les fonctionnalités de suppression pour supprimer les zones indésirables.


L'outil ArcGIS Erase fonctionnera, mais comme le dit l'utilisateur deux sept trois neuf, vous devez disposer du niveau de licence requis pour l'utiliser. La suite d'extensions Xtools Pro intègre un outil Erase qui fera la même chose et qui est gratuit. Certaines des fonctionnalités de Xtools nécessitent que vous achetiez une licence une fois la période d'évaluation de 14 jours terminée, mais l'outil Erase (et une tonne d'autres très utiles) est gratuit à utiliser pour toujours.


ET GeoWizards a un outil d'effacement qui fait exactement cela. C'est gratuit. ET GeoWizards


Concepts clés pour les services de géotraitement

Un service de géotraitement contient un géotraitement Tâches accessible par les clients Web. Les tâches sont créées en publiant un modèle de géotraitement et des outils de script.

Il existe deux manières de créer un service de géotraitement dans ArcGIS Desktop :

Les services de géotraitement et leurs tâches sont accessibles via l'Internet public et les intranets privés et peuvent être utilisés dans ArcGIS Desktop, ArcGIS Explorer et des applications Web telles qu'un site Web créé à l'aide d'ArcGIS Server Manager. Dans ArcGIS Desktop, les services de géotraitement peuvent être ajoutés à la fenêtre ArcToolbox en tant que boîte à outils et les tâches deviennent des outils dans la boîte à outils. Cliquez ici pour afficher des illustrations des services de géotraitement dans ces trois clients.

Le reste de cette rubrique concerne les concepts de conception, les règles et les instructions clés concernant les services et les tâches de géotraitement.


Vendredi 9 décembre 2016

Atelier 3 : Analyse vectorielle avec ArcGIS

Objectifs et contexte
Le but de ce laboratoire est de déterminer l'habitat convenable des ours dans une certaine zone d'étude du comté de Marquette, au Michigan. Les facteurs qui influencent l'habitat de l'ours seront superposés pour déterminer les meilleurs emplacements d'habitat. L'un des objectifs est de montrer comment utiliser correctement un modèle de flux de données. Le modèle de flux de données dans cet article montrera le processus qui contiendra chaque entrée nécessaire pour créer la carte. Un autre objectif de ce laboratoire est de créer une carte montrant les zones d'habitat des ours dans une zone d'étude du comté de Marquette. Le dernier objectif de cet atelier est de démontrer une compréhension très basique d'un codage Python simple. Les outils Tampon, Intersection et Effacer seront codés.

Méthodes
Étape 1: Exportez et cartographiez les coordonnées GPS d'un fichier Excel dans ArcMap.

Pour ce faire, tout d'abord, le document Excel a été ajouté à ArcMap. Ensuite, les données ont été ajoutées via l'étiquette Ajouter des données XY sous l'onglet Fichier. Les champs X et Y ont été remplacés par "POINT_X" et "POINT_Y". De plus, le système de coordonnées a été modifié en "NAD_1983_HARN_Michigan_GeoRef_Meters". Après avoir cliqué sur le bouton "OK", ArcMap a créé un fichier de formes par défaut. Au lieu d'utiliser le fichier de formes, il a été exporté dans une classe d'entités portant le nom ours_locations.

Étape 2: Déterminer l'habitat de l'ours

Tout d'abord, toutes les classes d'entités nécessaires ont été ajoutées : Emplacements d'ours, Couverture terrestre, Ruisseaux, zone d'étude, et dnr_mgmt. Ensuite, avec OursEmplacements et Couverture terrestre, une intersection a été effectuée créant un nouveau calque appelé ours_couverture. En faisant cela, le type de couverture terrestre peut être attribué aux emplacements des ours. Un résumé a été effectué sur le champ MINOR_TYPE du ours_couverture classe d'entités afin de voir quels types de couverture terrestre étaient les plus courants avec les emplacements des ours. Les trois types comprennent les terres forestières mixtes, les terres humides boisées et les terres forestières à feuilles persistantes. Avec ces informations, une requête a été effectuée sur le Couverture terrestre classe d'entités pour sélectionner n'importe quelle entrée dans le champ MINOR_TYPE qui avait l'un des trois types de couverture terrestre ci-dessus. Après la sélection, une nouvelle couche a été créée avec les attributs sélectionnés et a reçu le nom PrimeBearLandcover. Le modèle de flux de données pour cette étape est illustré ci-dessous dans la figure 3.0.

Étape 3: Relier les ours aux cours d'eau et à la couverture terrestre

À cette étape, il a été déterminé que les cours d'eau constituaient une partie très importante de l'habitat convenable des ours. Cela a été déterminé en créant une zone tampon de 500 mètres à partir de la classe d'entités Ruisseaux, puis en exécutant l'outil Dissoudre dessus. Le nom qui lui a été attribué était Stream500mBufferDissolve qui a ensuite été croisé avec PrimeBearCouverture pour voir combien d'ours se trouvaient dans cette zone tampon de cours d'eau. Cela a généré la nouvelle classe d'entités nommée PrimeBearHabitatNearStreams. Il s'avère que la grande majorité des ours se trouvaient dans cette zone tampon du cours d'eau. Pour plus de clarté, PrimeBearHabitatNearStreams est dissous en créant une nouvelle classe d'entités nommée PrimeBearHabitatNearStreamsDissous. Cette classe d'entités montre l'habitat de l'ours qui se trouve à proximité d'un cours d'eau et dont le type de couverture terrestre convient. Le modèle de flux de données pour cette étape est illustré ci-dessous dans la figure 3.1.

Fig 3.1 : Modèle de flux de données pour l'étape 3

Étape 4:
Localiser les zones de gestion du MRN dans la zone d'étude

La classe d'entités dnr_mgmt avait des polygones situés à l'intérieur des polygones. C'est parce qu'il y a des regroupements au sein des zones de gestion. Cependant, pour cette analyse, seuls importaient les zones de gestion du MRN, et non les groupes. Pour résoudre ce problème, l'outil Dissoudre a été utilisé sur dnr_mgmt. La nouvelle classe d'entités en sortie a reçu le nom Dnr_mgmtDissous. Cette classe d'entités a ensuite été intersectée avec la classe d'entités PrimeBearHabitatNearStreamsDissous. Le nom donné à cette classe d'entités était BearhabStreamsDnr_mgmt. Cette nouvelle classe d'entités montre les zones de gestion du MRN situées à moins de 500 mètres d'un cours d'eau et les zones qui ont les trois principaux types de couverture terrestre. Le modèle de flux de données pour cette étape est illustré ci-dessous dans la figure 3.2.

Fig 3.2 : Modèle de flux de données pour l'étape 4

Étape 5 : Trouvez l'habitat des ours à 5 km des zones urbaines et bâties

Afin de trouver un habitat pour l'ours à 5 km des zones urbaines ou bâties, ces zones doivent être identifiées. Ceux-ci peuvent être identifiés en utilisant le champ MAJOR_TYPE dans le Couverture terrestre Classe d'entités. Tout d'abord, une requête doit être effectuée pour sélectionner uniquement les entrées avec urban/built en elles. Ensuite, une nouvelle couche et classe d'entités sont créées à l'aide des attributs sélectionnés. Cette nouvelle classe d'entités porte le nom UrbainConstruitTerrain. Celui-ci est ensuite tamponné sur 5 km. L'outil tampon est exécuté dessus et la nouvelle classe d'entités UrbainConstruitTerrain5KmTampon est créé. Étant donné que la couche comporte de nombreux polygones, l'outil de fusion est également exécuté dessus. Cela crée une nouvelle classe d'entités en sortie intitulée UrbanLanDissous5KmBuffer. Un clip est réalisé à l'aide de la classe d'entités créée à l'étape 5 : PrimeBearHabitatNearStreamsDissous et UrbanLanDissous5KmBuffer. Cela a généré une classe d'entités nommée BearHabÀ moins de 5Km. Il s'agit d'une zone qui abrite un habitat convenable pour les ours et se trouve à moins de 5 km de terrains urbains ou bâtis. Cependant, le MRN souhaite connaître les zones d'habitat propices à l'ours situées à plus de 5 km des terrains urbains ou bâtis. Afin d'afficher cette zone sur la carte, la classe d'entités OursHabÀ moins de 5Km doit être placé au-dessus PrimeBearHabitatNearStreamsDissous dans la table des matières. En faisant cela, PrimeBearHabitatNearStreamsDissous affichera l'habitat convenable de l'ours à au moins 5 km des terrains urbains ou bâtis. Les terrains de gestion du MRN doivent également être affichés sur la carte à au moins 5 km des terrains urbains ou bâtis. Pour ce faire, l'outil Effacer est utilisé entre le BearhabStreamsDnr_mgmt et UrbainTerrainDissous5KmTampon classes d'entités. Cette classe d'entités porte le nom PrimeBearLocations. Le modèle de flux de données pour cette étape est illustré ci-dessous dans la figure 3.3.

Fig 3.3 : Modèle de flux de données pour l'étape 5

Étape 6 : Mapper les données

Utilisation des fonctionnalités PrimeBearLocations, BearHabÀ moins de 5 km, Streams, BearLocations, et PrimeBearHabitatNearStreams, une carte cartographiquement agréable a été créée. Une carte en médaillon, une barre d'échelle, une légende, un titre, un fond de carte et une flèche nord ont tous été ajoutés à la carte. Une certaine transparence a été ajoutée aux classes d'entités surfaciques afin que le contraste soit agréable à l'œil. La carte montre les principales zones d'habitat de l'ours à l'intérieur, des sections étant séparées par une zone tampon de 5 km des terres urbaines ou bâties. La carte est affichée dans la section des résultats ci-dessous dans la figure 3.6.


A propos de l'auteur

Chris Andrews

Chris Andrews est un leader expérimenté en gestion de produits et en technologie qui aime résoudre les problèmes du monde réel, établir des équipes hautement performantes et connecter les personnes et les entreprises dans le cadre de collaborations positives. Chris a débuté chez Esri en tant que chef de produit senior pour la 3D sur la plate-forme ArcGIS, basée en Californie du Sud. Chris dirige maintenant une équipe de chefs de produit en charge d'ArcGIS Hub, ArcGIS Excalibur, 3D, ArcGIS Urban, des offres AEC/CAD/BIM, ArcGIS Business Analyst et plus encore. Avant Esri, Chris était chef de produit principal pour les efforts d'Autodesk Infrastructure Modeler (maintenant InfraWorks) et Digital Cities et était auparavant dans le secteur de l'intégration d'entreprise axé sur l'intégration CAO-SIG. Chris s'est concentré sur l'innovation stratégique, définissant et conduisant à la production de nouveaux produits dans des sociétés de logiciels de premier plan. Il est actif sur les médias sociaux et offre du mentorat sur la 3D, la gestion de produits et la croissance de carrière technique.


Burgesgj Geog 335 SIG 1

J'ai atteint cet objectif en joignant et en manipulant plusieurs entités, en utilisant leurs données pour ma carte. En effectuant des requêtes, j'ai pu trouver des données spécifiques et les utiliser pour créer de nouvelles classes d'entités. En utilisant les outils de tampon, de dissolution, d'effacement de clip et d'intersection, j'ai pu modifier les données pour trouver les meilleurs habitats pour les ours. Ces outils constituent l'épine dorsale de tout travail d'analyse de données de base, permettant la manipulation des données pour produire des cartes utiles.

Tout d'abord, j'ai joint spatialement une classe d'entités contenant des données sur l'emplacement des ours avec une autre classe d'entités contenant des données sur la couverture terrestre dans la région du comté de Marquette. Cela a ensuite été recoupé avec une classe d'entités tamponnées montrant les habitats des ours à proximité des rivières et des ruisseaux. Cela a produit une carte contenant des habitats convenables pour les ours où les ours avaient accès à des sources d'eau. Ensuite, je devais trouver où les habitats appropriés pour les ours et les sites du Michigan Department of Natural Resources (DNR) se recoupaient. J'ai fait cela en dissolvant à la fois l'entité de gestion DNR et les classes d'entités des habitats d'ours, puis en les coupant pour créer une nouvelle classe d'entités qui n'affichait que les zones où elles se chevauchaient. Ces étapes ont permis de créer une carte qui montrait où se trouvaient les meilleurs habitats pour les ours à l'intérieur des zones de gestion du MRN.

Enfin, ces informations ont été transformées en une carte cartographiquement agréable. Cela a été fait en créant une carte de localisation, montrant l'emplacement de la zone d'intérêt ainsi que le comté de Marquette. Cela a été placé à côté de la carte de localisation des ours. Un titre, une flèche nord, une légende, une échelle et des sources ont été ajoutés à la carte. Ces données permettent à tout utilisateur de voir d'où proviennent les données, ce qu'elles montrent et exactement où la carte est représentée.

Résultats

Le résultat de l'analyse des données est une carte détaillée de la région du comté de Marquette, avec des données sur les habitats convenables pour les ours (figure 1). Une petite carte indicatrice a été incluse qui représente la péninsule nord du Michigan, ainsi que le comté de Marquette (en jaune) et la zone d'étude (en vert). Un modèle de flux de données est également inclus (Figure 2), qui montre les étapes suivies pour produire la carte.


Une intégration basée sur le SIG de la théorie des catastrophes et du processus de hiérarchie analytique pour cartographier la susceptibilité aux inondations : une étude de cas de la région de Teeb, dans le sud de l'Irak

Une nouvelle méthode a été proposée dans cette étude pour la délimitation des zones inondables grâce à l'intégration de la théorie des catastrophes et du processus de hiérarchie analytique (AHP) dans un système d'information géographique. Sept facteurs d'inondation causatifs ont été sélectionnés à cette fin sur la base de la disponibilité des données et des revues de la littérature, à savoir l'élévation de la surface du sol, l'angle de pente, la courbure, l'indice d'humidité topographique, l'indice de puissance du cours d'eau, les nombres de courbes et la distance par rapport aux cours d'eau intermittents. Les cartes matricielles des facteurs ont été préparées avec une taille de cellule de 30 × 30 m. Les modèles de catastrophe ont été utilisés pour dériver les poids des facteurs en utilisant la technique de combinaison linéaire pondérée, tandis que AHP a été utilisé pour calculer les rangs normalisés des classes de chaque facteur. Le modèle a été appliqué pour délimiter les zones inondables dans le nord-est du sud de l'Irak, où les crues éclair sont un risque naturel récurrent qui cause des dommages matériels presque chaque année. L'étude a révélé qu'environ 852 km 2 (41 %) de la zone d'étude est moins sensible, 434 km 2 (21 %) est modérément sensible et 812 km 2 (38 %) est hautement sensible aux inondations. Les zones fortement inondables sont principalement réparties autour des cours d'eau intermittents et des basses terres du sud-est, tandis que les zones faiblement inondables se trouvent dans les régions vallonnées à l'est et au nord-est de la zone d'étude. Le résultat obtenu correspond bien à la conception générale des zones sujettes aux inondations dans la région, ce qui indique que l'intégration de la théorie des catastrophes et de l'AHP peut fournir une méthode peu coûteuse et facilement implémentable pour une cartographie fiable des zones affleurantes sensibles aux inondations.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Configurations du service de géotraitement

Les services de géotraitement peuvent être créés en publiant deux ressources ArcGIS Desktop différentes, une boîte à outils de géotraitement ou un document ArcMap (.mxd) contenant des couches d'outils.

  • Lorsque vous publiez une boîte à outils, tous les outils de la boîte à outils deviennent des tâches de géotraitement au sein du service de géotraitement.
  • Lorsque vous publiez un document ArcMap, toutes les couches d'outils de la carte deviennent des tâches de géotraitement au sein du service de géotraitement. (Les couches d'outils sont créées en faisant glisser et en déposant des outils dans la table des matières d'ArcMap.)
  • Lors de la publication d'un document ArcMap contenant des couches d'outils, vous pouvez également spécifier que vous souhaitez que le document ArcMap devienne un service de carte qui sera utilisé pour dessiner la sortie des tâches. Un service de carte qui dessine des sorties de tâche est appelé un service de carte de résultat.

Ces trois configurations sont illustrées ci-dessous.

Service de géotraitement à partir d'une boîte à outils

Lorsque vous publiez une boîte à outils, tous les outils de la boîte à outils deviennent des tâches de géotraitement. Les données produites par les tâches sont renvoyées au client.

Services de géotraitement avec une carte source

Si vous avez utilisé des outils de géotraitement dans une session ArcMap, vous savez que les outils peuvent souvent utiliser des couches trouvées dans la table des matières d'ArcMap, ainsi que des données sur disque.

De la même manière, votre tâche de géotraitement peut utiliser des couches trouvées dans sa carte source. La carte source, dans ce cas, agit comme un conteneur de couches. Vous pouvez créer des couches dans les paramètres d'entrée de la carte source pour votre tâche. Dans le graphique ci-dessous, la variable Données à extraire est un paramètre d'entrée qui permet à l'utilisateur de choisir des couches dans la carte source.

Les tâches de géotraitement ne peuvent accéder qu'aux couches trouvées dans sa carte source ; elles ne peuvent pas accéder aux couches trouvées dans d'autres services de carte ou dans l'application cliente.

L'utilisation de couches d'une carte source dans vos processus de modèle ou de script présente des avantages en termes de performances. L'illustration ci-dessous montre un modèle qui utilise un jeu de données réseau, StreetsNetwork , pour construire une couche d'analyse d'itinéraire. La variable StreetsNetwork peut faire référence à une couche (ce qu'elle fait dans ce cas) ou à un ensemble de données sur disque. L'ouverture d'un jeu de données réseau est coûteuse par rapport à d'autres types de jeux de données, car les jeux de données réseau contiennent plusieurs structures de données et tables avancées qui doivent être lues et mises en cache. En utilisant la couche au lieu du jeu de données, il existe un avantage en termes de performances, car ArcMap ouvre le jeu de données une fois, met en cache les propriétés de base du jeu de données et maintient le jeu de données ouvert. Lorsque le modèle s'exécute, il n'est pas nécessaire de rouvrir le jeu de données, car la carte source l'a déjà ouvert, ce qui améliore les performances. Inversement, si la variable StreetsNetwork faisait directement référence à l'ensemble de données, l'ensemble de données serait ouvert à chaque exécution du modèle, ce qui dégrade les performances.

Pour l'analyse de réseau, vous souhaitez toujours que le jeu de données réseau en tant que couche dans la carte source et utiliser cette couche dans les variables de modèle. Pour d'autres types de jeux de données, tels que les entités et les rasters, l'avantage en termes de performances de l'utilisation de couches dans la carte source est très faible.

Services de géotraitement avec un service de carte de résultat

Les services de géotraitement peuvent avoir un service de carte des résultats pour créer une image de carte numérique des résultats des tâches. Les cartes numériques contiennent des représentations visuelles d'ensembles de données géographiques qui communiquent des informations. Les cartes numériques sont transportées sur le Web sous forme d'images (telles qu'un fichier .jpg ). Une image de carte, octet par octet, contient beaucoup plus d'informations interprétables par l'homme que les entités brutes d'une classe d'entités. Les images cartographiques sont également gérables : elles sont facilement compressées, elles peuvent être mises en mosaïque en morceaux gérables et il existe des méthodes établies pour les transporter et les visualiser sur le Web.

Les images cartographiques sont créées par un service de carte ArcGIS Server et sont le résultat de la publication d'un document ArcMap ( .mxd ). En raison des caractéristiques d'une image de carte, vous souhaiterez peut-être en créer une pour les résultats de votre tâche de géotraitement et transporter l'image sur le Web plutôt que de transporter le ou les jeux de données de résultats. Les services de géotraitement peuvent avoir un service de carte de résultat utilisé par ArcGIS Server pour créer des images cartographiques de vos données en sortie.

Les services de carte de résultats doivent être utilisés lorsque

  • Le résultat de votre tâche est un ensemble de données (potentiellement) volumineux.
  • Le type de données de votre sortie n'est pas pris en charge par le client, comme les rasters dans ArcGIS Explorer. Dans ce cas, vous utilisez le service de carte des résultats pour afficher la sortie.
  • Vous souhaitez protéger le résultat de votre tâche en lui permettant d'être affiché uniquement sous forme de carte et non de télécharger en tant que jeu de données.
  • Vous avez une cartographie complexe qui doit être dessinée par le service de cartographie des résultats et non par le client.

Lorsque vous utilisez des services de carte de résultats, il est important de savoir qu'il existe deux services : le service de géotraitement et le service de carte de résultats. Ces deux services s'exécutent indépendamment l'un de l'autre. Lorsque la tâche s'exécute, ArcGIS Server exécute d'abord la tâche de géotraitement, puis exécute le service de carte de résultat pour dessiner la sortie du service de géotraitement. En raison de cet ordre d'exécution, le service de carte résultant a besoin de jeux de données sur disque produits par le service de géotraitement. Cela signifie que la sortie des tâches dans le service de géotraitement doit être des jeux de données sur disque, et non des couches ou des jeux de données en mémoire.


Résultats

Caractéristiques paysagères et thermiques

Une classification supervisée des types de couverture végétale basée sur des images WorldView-3 après vérification au sol a révélé que les catégories les plus répandues dans le quartier urbain de Vila Toninho sont la chaussée, les carreaux de céramique et la dalle de toit (Fig. 2). Ces catégories sont également les plus courantes dans les zones tampons de 30 m, celles utilisées pour calculer l'infestation par les moustiques. Cette procédure de classification avait une estimation globale de 90,6 % de précision et un indice Kappa (voir la section « Méthodes ») de 0,89. Les erreurs de classification sont survenues soit à la suite d'une surestimation (faux positif) ou d'une sous-estimation (faux négatif). Les précisions du producteur spécifiques à la classe variaient entre 43% (eau) et 96% (chaussée) et les précisions de l'utilisateur entre 57% (zones d'ombre) et 92% (carreaux de céramique). L'eau et les zones ombragées ont donné des pourcentages élevés pour les deux types de classification erronée et ont ensuite été regroupées sous la seule catégorie «eau + zones d'ombre» lors de l'analyse statistique.

Quartier de Vila Toninho. À gauche : image WorldView 3 montrant sept catégories différentes de couverture végétale. À droite : Landsat 8 TIRS montrant la température de surface.

Six zones de températures différentes (par paliers de 2 °C, entre 23 et 35 °C) ont été identifiées sur l'ensemble de la zone d'étude. Ces zones ont toujours adhéré au même schéma spatial, indépendamment de la saison. Plus précisément, les zones à couvert végétal élevé étaient plus fraîches (25 ± 2 °C) que les zones à couvert végétal modéré ou faible (tous deux 31 ± 2 °C).

Aedes aegypti infestation et modélisation multi-niveaux

Au cours d'une période de surveillance de 3 ans, nous avons capturé 788 Ae. egypte femelles adultes. La variation temporelle du niveau d'infestation observé est représentée sur la figure 3, qui indique différents niveaux d'abondance au cours des différentes saisons. L'été, l'automne, l'hiver et le printemps présentaient une moyenne de 4,66, 3,59, 1,40 et 3,69 moustiques capturés par piège, respectivement. Notamment, les abondances les plus faibles se sont produites pendant la saison hivernale (p < 0,001).

Distribution de Ae. egypte moustiques femelles adultes par saison à Vila Toninho de 2016 à 2018.

L'analyse exploratoire (Fig. 4) a montré que la latitude et la longitude n'avaient pas d'association linéaire avec le nombre de moustiques (R 2 = - 0,0636 et - 0,0611, respectivement). Des analyses de colinéarité ont été effectuées, mais aucune relation notable n'a été observée. Les précipitations moyennes et la température saisonnière moyenne étaient des variables catégorielles qui distinguaient chaque saison. Les températures de surface enregistrées près des pièges à moustiques étaient positivement associées au nombre de moustiques capturés, qui variait également selon les saisons. Cependant, dans l'ensemble, la variable « saison » a fourni un niveau approprié de puissance prédictive dans le modèle, de sorte que la température de surface a ensuite été actualisée.

Diagrammes de dispersion de chaque variable indépendante testés avec le nombre de moustiques en considérant chaque saison. Catégories d'occupation du sol (en %) : WAT + SHA eau et ombre, EXP.SOL sol exposé, T CÉRAMIQUE tuile en céramique, AMIANTE R toit en amiante, VERT espaces verts (arbres et herbe), TEMPÉRATURE DE L'AIR température moyenne de la saison (ºC), HIVER variable binaire indiquant si c'est la saison d'hiver ou non, TEMPÉRATURE DE SURF température de surface (TIRS Landsat 8, ºC), PLUIE précipitations saisonnières moyennes (mm).

Pour expliquer le nombre de piégés Ae. egypte, nous avons utilisé un modèle négatif binomial à plusieurs niveaux dans lequel le sujet de la variable aléatoire était l'identification des pièges et incorporait des informations provenant de mesures répétées. Le modèle final a été produit en ajustant l'inclusion et l'exclusion des variables explicatives du modèle complet pour atteindre un niveau de prédiction satisfaisant. Par exemple, la latitude et la longitude ont été exclues car elles n'avaient pas d'influence significative en tant que variables exploratoires. Les types de couverture, « dalle de toit » et « zones d'eau et d'ombre » ont également été exclus en raison de leur corrélation statistique plus faible avec l'abondance des moustiques. Comme les saisons d'été, d'automne et de printemps n'ont montré aucune différence dans le modèle concernant l'abondance des moustiques, nous avons par la suite choisi de représenter la saison comme une variable binaire (c'est-à-dire « l'hiver » et « pas l'hiver »). Sur cette base, le modèle binomial négatif suivant a été dérivé :

où NUM_AEDES est le nombre d'adultes Ae. egypte femelles Le vert est des espaces verts L'amiante R est un toit en amiante La céramique T est un carreau de céramique Ex. le sol est le sol exposé PAV est la chaussée WINTER identifie la saison comme hiver (ou autre) et TRAP_ID est le numéro d'identification de chaque piège à moustiques. Le tableau 1 présente les coefficients de chacune des variables sélectionnées pour composer le modèle.

Les types de couverture « toit en amiante » et « sol exposé » avaient une association positive avec le nombre de moustiques femelles, tandis que les « espaces verts », « pavage » et « l'hiver » étaient négativement associés à l'abondance des moustiques. Pour évaluer l'ajustement du modèle, nous avons d'abord vérifié le modèle par rapport au modèle nul en utilisant l'analyse de la variance (ANOVA). Cela a montré que le modèle binomial négatif fonctionnait significativement mieux que le modèle nul (p < 0,0001), avec un critère d'information d'Akaike (AIC) de 1 047,42 par rapport à 1208,24, respectivement (voir le matériel supplémentaire 1). Nous avons également simulé les résidus QQ-plot de notre modèle selon Hartig 30 (Fig. 5), ce qui a indiqué que le modèle était approprié (voir la section « Méthodes »). Compte tenu de la signification statistique, le test KS indique que les points ne sont pas loin de la ligne de référence (valeur p non significative). De même, le test des valeurs aberrantes n'a révélé aucune présence significative de valeurs aberrantes dans les données. Il teste si les résidus (attendus/observés) ont une distribution normale et s'il existe un point de divergence.

QQ-plot du modèle binomial négatif à plusieurs niveaux sélectionné. n.s. non significatif. Le test KS indique que les points ne sont pas loin de la ligne de référence (non significatif p-valeur). De même, le test des valeurs aberrantes n'a révélé aucune présence significative de valeurs aberrantes dans les données. Il teste si les résidus (attendus/observés) ont une distribution normale et s'il existe un point de divergence.

Nous avons calculé l'erreur quadratique moyenne (RMSE) et l'erreur absolue moyenne (MAE). Plus les valeurs RMSE et MAE sont petites, meilleures sont les performances du modèle. Comme critère de comparaison, nous avons considéré le RMSE relatif (Rel_RMSE) et le MAE relatif (Rel_MAE) comme l'erreur divisée par la moyenne de la réponse observée. Cette mesure est similaire au coefficient de variation. Nous avons obtenu Rel_RMSE = 0,093 et ​​Rel_MAE = 0,03, ce qui indique que l'erreur est d'environ 9 % de la moyenne en considérant la RMSE et 3 % de la moyenne en considérant la MAE. Généralement, il est souhaitable d'avoir un coefficient de variation inférieur à 15 % pour prouver l'efficacité du modèle 31 . Pour valider notre modèle, nous avons utilisé un autre jeu de données (été 2019) et obtenu également le RMSE relatif (0,1367) et le MAE relatif (0,0724). Bien que les valeurs soient plus élevées, ils considèrent toujours que le modèle est adéquat.

La figure 6 montre l'abondance des moustiques observée par rapport à l'abondance prédite à l'aide de notre modèle (coefficient de corrélation R = 0,74). Cela montre que le modèle capture avec succès le schéma général des observations et aide à expliquer les variations saisonnières de l'abondance des moustiques observées à Vila Toninho.

Nombre de Ae. egypte femelles adultes observées et prédites par piège en utilisant le modèle binomial négatif regroupé par saison (coefficient de corrélation R = 0,74).


Modèles de données raster (modèle Propriétés de uniformément espacés cellules de grille)

Motivation historique

Concept général d'analyse d'adéquation (c.-à-d. utilisation appropriée des terres en fonction des caractéristiques des terres)
  • très prolifique (1700 projets en carrière) et influent
  • a aidé à créer le système des parcs nationaux des États-Unis
  • a écrit le premier « Plan national » prônant les zones de conservation ainsi que le développement
  • planification basée sur les ressources (les caractéristiques naturelles devraient influencer la forme de la ville) « plusieurs centres basés sur les quartiers déterminés par les ressources disponibles »
  • importance des parcs : « les villes les mieux conçues ont environ un huitième de leur superficie en parcs et environ un acre pour 75 habitants. (Manning 1919)
  • Différencié du « mouvement City Beautiful » qui mettait l'accent sur les centres civiques monumentaux et les bâtiments publics
Comment mettre en œuvre ces idées dans un monde prénumérique ? (pas facile!)
      • ressources naturelles cartographiées par sondage (pas de photos aériennes !)
      • tables lumineuses utilisées et traçage manuel pour l'analyse spatiale

      • les caractéristiques peuvent être « bonnes », auquel cas les zones de chevauchement sont « appropriées »
      • les caractéristiques peuvent être « mauvaises », auquel cas les zones de chevauchement sont « inappropriées »
      • les caractéristiques peuvent être « moyennement bonnes » ou « plutôt mauvaises » pour les cas intermédiaires

      Les idées et méthodes de Manning revisitées et popularisées dans les années 1960 par Ian McHarg (Penn) et Carl Steinitz (Harvard)

      Pourquoi ne pas faire des superpositions avec Vector Model ?
      • Le "Problème de ruban" ne s'adapte pas bien
        • Dans une analyse avec des dizaines de couches, peut passer autant de temps sur le nettoyage que sur l'analyse
        • Le modèle de données vectorielles, en particulier avec les polygones, est complexe (la superposition "simple" nécessite de nombreux calculs)
        • Le modèle de données raster est une représentation très efficace à l'intérieur des ordinateurs numériques

        Modèle de données raster

        • Orthophotos (2m x 2m 0.5m x 0.5m)
          • La valeur de la cellule est la luminosité des pixels dans l'orthophoto
          • C'est la représentation par défaut
          • A des restrictions de nommage étranges (basées sur Fortran) : 13 caractères + trait de soulignement
          • Peut également utiliser "geoTIFF" simplement en spécifiant l'extension (sortie : this_is_my_long_descriptive_filename.tif)
          • Peut afficher les rasters dans la version de base, mais pas manipuler

          Représentation géographique

          Les Fichiers des limites du Recensement de 2016 sont disponibles sur le site Web de Statistique Canada dans la représentation géographique suivante :

          • Projection : conique conforme de Lambert
          • Fausse abscisse : 6200000.000000
          • Fausse ordonnée : 300 000 000 000
          • Méridien central : -91.866667
          • Parallèle standard 1: 49.000000
          • Parallèle standard 2 : 77.000000
          • Latitude d'origine : 63.390675
          • Unité linéaire : mètre (1.000000)
          • Référence : Amérique du Nord 1983 (NAD83)
          • Premier méridien : Greenwich
          • Unité angulaire : degré
          • Sphéroïde : GRS 1980

          Le système de référence nord-américain de 1983 (NAD83) est un ajustement du système de référence de 1927 qui reflète la plus grande précision des levés géodésiques.

          Les utilisateurs des Fichiers des limites du recensement de 2016 peuvent transformer les fichiers en la représentation qui répond le mieux à leurs besoins en connaissant les effets de ces représentations sur les angles, les surfaces, les distances et la direction. Les utilisateurs ont la possibilité de choisir la meilleure projection de concert avec les objectifs de la carte.

          Convention de nommage des fichiers

          Les noms de fichiers de produits spatiaux suivent une convention de dénomination de fichier. La zone géographique et le code, le type de fichier, la date de référence géographique, le type de logiciel et la langue sont intégrés dans le nom du fichier. La standardisation des noms de fichiers facilite le stockage des fichiers compressés, tous ayant l'extension .zip.

          Chaque nom de fichier comporte 13 caractères. Tous les caractères alphabétiques sont en minuscules pour maintenir la cohérence.

          Premier caractère: projection de fichier

          Trois personnages suivants: niveau géographique principal du fichier

          • ada - aire de diffusion agrégée
          • voiture - région agricole de recensement
          • pr_ - province/territoire
          • fed - circonscription électorale fédérale
          • er_ - région économique
          • cd_ - division de recensement
          • SDR - subdivision de recensement
          • ccs - subdivision de recensement unifiée
          • RMR - région métropolitaine de recensement/agglomération de recensement
          • ct_ - secteur de recensement
          • da_ - aire de diffusion
          • db_ - îlot de diffusion
          • hy_ - hydrographie à l'appui (Grands Lacs, fleuve Saint-Laurent, océans, etc.)

          Trois numéros suivants: code géographique de couverture

          Caractère suivant: Type de fichier

          • a - fichier numérique des limites
          • b - fichier des limites cartographiques
          • c - fichier de référence hydrographique des lacs et rivières intérieurs (polygone)
          • d - fichier de référence hydrographique des rivières intérieures (ligne)
          • e - écoumène
          • h - couverture hydrographique des Grands Lacs, du fleuve Saint-Laurent et des océans environnants

          Deux numéros suivants: date de référence géographique

          La date de référence géographique est une date déterminée par Statistique Canada dans le but de finaliser le cadre géographique pour lequel les données du recensement sont recueillies, totalisées et déclarées. Pour les produits du Recensement de 2016, la date de référence géographique est le 1er janvier 2016.

          Caractère suivant: format de fichier

          Deux derniers personnages: Langue


          Discussion

          Relations entre l'OLT et les variables topographiques à différentes résolutions DTM

          À l'exception de l'altitude, pour laquelle la corrélation était systématiquement faible (rs = 0,12) pour toutes les résolutions, la force de corrélation des variables topographiques augmentait avec la résolution décroissante. En d'autres termes, la diminution de la résolution a entraîné la perte de détails (c'est-à-dire des pentes plus courtes) à mesure que la résolution diminuait et, par conséquent, resserrait la plage de variabilité au sein des variables topographiques étudiées. Des quatre résolutions qui ont été examinées, le DTM dérivé du LiDAR de 20 m a montré les corrélations les plus fortes entre les variables topographiques et l'OLT. Cela peut être principalement attribué au lissage topographique à l'échelle du paysage qui résulte de la diminution de la résolution des MNT. Cette constatation était cohérente avec d'autres études qui ont révélé que la variation topographique à petite échelle était perdue avec l'utilisation d'un modèle d'élévation numérique plus grossier ( Potter et al. 1999, Grant 2004, Seibert et al. 2007, Wu et al. 2008).

          Une faible corrélation entre l'élévation et l'OLT a indiqué que l'élévation est une influence mineure sur l'OLT. Lorsque les données collectives ont été utilisées, l'altitude n'a pas pu être utilisée pour discriminer entre les zones d'épaisseurs organiques plus élevées et plus faibles sur l'ensemble de la zone d'étude. Cependant, la stratification des données basée sur les classes d'aspect a révélé que l'altitude était positivement corrélée avec l'OLT pour les zones ayant une pente orientée vers l'ouest, ce qui était cohérent avec d'autres études, dans lesquelles des taux plus élevés de paludification ont été trouvés sur les plateaux ( Gorozhankina 1997, Lavoie et al. 2005).

          Sans surprise, parmi toutes les variables topographiques étudiées, la pente était le contrôle unique le plus important sur l'OLT dans la zone d'étude. Malgré l'observation de certaines relations fortes pour certaines classes d'aspect (c. Dans l'ensemble, il était évident que la distribution spatiale de l'OLT dans notre zone d'étude ne peut pas être expliquée par de simples relations bivariées entre l'OLT et les variables topographiques individuelles. De plus, l'analyse de corrélation a suggéré une interrelation complexe entre l'OLT et les variables topographiques, et, par conséquent, l'utilisation d'une méthode qui pourrait diviser la zone d'étude en unités spatiales plus homogènes était justifiée.

          Segmentation du paysage

          La segmentation des arbres de régression a produit certaines unités paysagères avec une grande variabilité qui pourrait s'expliquer par des caractéristiques à l'échelle locale. Par exemple, des dépressions dans la roche ont été observées localement sur un terrain en pente dans l'unité de paysage F. Ces dépressions topographiques, qui étaient principalement remplies de matériaux fibriques et mésiques, sont dispersées dans le paysage et ont probablement été créées par des événements de gel-dégel épisodiques dans le substrat rocheux. ou par l'érosion glaciaire ou peut simplement représenter la rugosité de surface du substratum rocheux ( Laamrani et al. 2013). Ce résultat est cohérent avec des études antérieures ( Payette 2001, Simard et al. 2009), qui ont constaté que la paludification peut se produire sur un terrain en pente bien drainé (jusqu'à 16 % à 20 %) directement sur le substrat rocheux où le matériau humique est presque inexistant et le matériau fibrique est dominant (environ 97 %) ( Larocque et al. 2003).

          In addition to confirming the importance of slope effects on OLT at the landscape, which had been reported previously for the surface layers within the Clay Belt (i.e., Giroux et al. 2001, Simard et al. 2009), this study quantified the threshold (1.8%) at which slope could be used to discriminate units with the deepest organic layers (landscape unit A). Slope ≤1.8% could be used as a predictor for zones of soil saturation where a thick organic layer often accumulates. Furthermore, a slope threshold of 3.2% seemed to represent a cutpoint for discriminating between paludified and nonpaludified areas. This study illustrated that even very small differences in slope, on the order of 1.4%, can significantly contribute to the estimation of paludified landscapes. This finding is consistent with those of previous researchers ( Giroux et al. 2001, Simard et al. 2009, Lavoie et al. 2005), who calculated in the field differences in slope on the order of 0%–7% within the Clay Belt where slope is frequently less than 0.1% ( Lavoie et al. 2007).

          Contrary to our expectation, this study showed that overall, areas with slopes >2.3% and ≤3.2% exposed to the south and west (landscape unit E) were more prone to organic layer accumulation than those exposed to the north and east (landscape D). The higher OLT on west- and south-facing slopes may be tentatively explained by higher sphagnum moss growth stimulated by more radiation from the sun combined with higher moisture storage capacity. On the other hand, on areas with slopes exposed to the north and east (landscape unit D), dry soil conditions seems to prevail as a result of water movement causing a decrease in OLT. Seibert et al. (2007) found that the influence of aspect is largest at latitude 40–60°, which corresponds to the location of our investigated region.

          Beside slope and aspect, mean curvature had the greatest influence on organic layer accumulation and contributed to the separation of units with varying OLT. Concave-mean curvature (landscape unit B) can be an indicator of areas of soil saturation, and organic layers often accumulate in lowlands. On the other hand, plan curvature and profile curvature variables were not selected by the regression tree analysis, and their effect was probably masked by the large number of almost flat areas on the landscape, because these two topographic variables represent flow dynamics across the surface ( Table 1).

          Despite various significant trends, the data exhibited obvious variability (expressed as data scattering). This kind of scattering is expected when one is working with a large data set that covers a range of different site conditions ( Seibert et al. 2007). Another issue when one is working with large data sets is that even weak correlations are often statistically significant. In contrast, because of the large variability in site conditions, high correlation coefficients are not expected, and the correlations found may still have a physical meaning.

          Management Implications and Future Research

          The results of this study are important for landscape management for several reasons. (1) Understanding how surface topography is related to OLT is an important first step in predicting and mapping productivity across landscapes. This information will aid forest managers in predicting potential zones of saturation where organic layer often accumulates and will help them to adopt the appropriate forest management practices (i.e., field preparations, treatments, and replanting). For example, slope can be used to better manage forest resources where high soil moisture limits productivity. (2) To maintain or improve forest productivity in the Clay Belt region, management strategies should focus on sloping sites (i.e., >2.3%) rather than on almost flat sites (≤1.8%). The latter are associated with a deep organic layer that is often not suitable for tree plantations ( Lafleur et al. 2010) and provide few ecological or economic motives to manage soils with low slopes ( Simard et al. 2009). (3) We expect that the use of LiDAR-derived topographic variables as sources of information in environmental management will increase in the future, especially as the availability of precise digital data increases. The potential of LiDAR data to provide spatial detail for planning and the optimization of forest management activities in boreal forests has been demonstrated in a previous study ( Woods et al. 2011). (4) This study is part of a larger project that deals with the effects of environmental variables and forest harvesting on paludification and was conducted before implementation of recent forest management. Therefore, results from this study could be used to determine the long-term impact of forest management practices (i.e., forest harvesting, field preparation treatments, and replanting) on the original organic layer proprieties.

          Our segmentation of the landscape illustrated that areas with higher slopes were associated with thinner organic layers, as did that of Simard et al. (2009), who found that rates of organic layer accumulation at the plot scale were highest on flatter sites and diminished with increasing slope on the Clay Belt. This result supported our hypothesis that topography has a significant influence on the spatial distribution of OLT and that these relationships can be used for partitioning the landscape and, therefore, can help in future planning of landscape management.

          The combination of topographic information (from remotely sensed LiDAR data) with field measurement has the potential to be useful for defining both promising and vulnerable areas for forest management. For instance, landscape units A and B seem to represent areas with conditions that may be less favorable for tree growth because the presence of a thick organic layer combined with wet conditions on flat terrain is expected to limit the use of equipment for mechanical site preparation and harvesting within the highly paludified areas ( Lavoie et al. 2007). This was supported by ongoing studies that deal with the effect of OLT and slope on forest productivity (A. Laamrani and N. Fenton, Université du Québec en Abitibi-Témiscamingue, unpubl. observ., 2013), which found that on average, landscape units A and B showed the lowest stand volumes (estimated for trees with dbh >9 cm) with 104 and 125 m 3 /ha, respectively. On the other hand, landscape units D and F with estimated stand volumes of 204 and 207 m 3 /ha, respectively, seem to represent very attractive conditions for forest managers.

          Once the regression trees were completed, they provided a set of decision rules that defined the range of conditions, i.e., values of the predictor variables, which are best used to predict each landscape unit. We used these rules to create a thematic map of the spatial distribution of the resulting landscape units across the study area ( Figure 7). When forest inventory maps from the MRNQ were superimposed on the regression tree-derived thematic map using ArcGIS 10.0 ( ESRI 2011), there was good statistical matching (71% validating data set m = 97) ( Figure 7) between the landscape unit distribution and forest management area status (suitable or not). Thus, regression tree and the derived thematic map might be useful for identifying and predicting spatial differences in terms of OLT on the landscape, which would be of interest to facilitate forest management in areas of limited data availability within the Clay Belt region. In addition, the regression tree breakdown of the data into the six landscape units was statistically and visually related to the distribution of three landscape topographic variables (slope aspect and mean curvature maps of each of these variables are not shown in this study).

          Thematic map showing the spatial distribution of the six resulting landscape units (A–F) across the study area. This map was produced using the regression tree rules based on the combination of slope, aspect, and mean curvature.


          Voir la vidéo: Making a new polygon shapefile in ArcMap (Octobre 2021).