Suite

Calculer les points les plus proches d'autres points en utilisant GRASS


J'ai une couche de points d'adresse et une couche de bureaux de vote. Ma tâche consiste à déterminer les trois bureaux de vote les plus proches de chaque adresse sur le réseau routier.

Je pense que la réponse est en v.distance, mais je suis bloqué en essayant d'utiliser cet outil. J'ai fusionné mes deux couches de points, chacune ayant un champ "type" (soit "adresse" soit "vote"). Il semble que l'outil souhaite que la condition From WHERE soit

type=adresse

… et la condition Vers WHERE pour être

type=vote

J'ai utilisé v.net.maintenance pour créer un réseau de rues avec les points fusionnés comme carte vectorielle des points d'entrée. Cependant, la couche résultante n'a que des attributs du réseau routier, tels que COST. Si je saisis cette couche dans v.distance comme

input=street_network_with_merged_points

… Je peux utiliser le champ COST, mais il n'y a pas de champ type pour from_where ou to_where.

J'ai vu plusieurs messages sur l'utilisation de cet outil, mais aucune réponse.


Veuillez envisager d'utiliser v.net.path - trouve le chemin le plus court sur le réseau vectoriel ou v.net.alloc - alloue des sous-réseaux pour les centres les plus proches. Voir aussi la liste des algorithmes de réseaux vectoriels disponibles. La commande v.distance trouvera la distance directe la plus courte mais vous souhaiterez probablement suivre le réseau afin d'obtenir des distances plus réalistes.


FIDIMO — Un modèle de dispersion SIG gratuit et open source pour les poissons de rivière

Nous avons développé un outil SIG GRASS pour la modélisation de la dispersion des poissons en rivière (FIDIMO).

Des noyaux empiriques de dispersion de poissons leptokurtiques sont utilisés pour modéliser les distances de déplacement.

Les noyaux sont appliqués aux réseaux fluviaux rastérisés, en tenant compte des barrières de mouvement.

FIDIMO permet de prédire et de simuler les patrons spatio-temporels de la dispersion des poissons.

L'outil s'appuie sur des logiciels libres et open source et permet de nombreuses adaptations.


1. Introduction

[2] La quantification des processus d'écoulement et de transport dans la zone vadose est entravée par la difficulté bien connue d'estimer les propriétés hydrauliques. Les fonctions de pédotransfert (PTF) peuvent être utilisées pour prédire ces propriétés, à savoir. la rétention d'eau du sol, (h) et la conductivité hydraulique, K(θ) ou K(h), fonctions où est la teneur en eau volumétrique du sol, h est la tête de pression capillaire du sol, et K est la conductivité hydraulique. Les PTF ont été proposés pour prédire de manière pratique les propriétés hydrauliques des sols non saturés à partir de prédicteurs pédologiques [ Rawls et al., 1982 Bouma, 1989 ]. La commodité consiste à éviter les mesures hydrauliques en s'appuyant sur des données déjà disponibles ou plus facilement mesurables. Cependant, un ensemble assez complet de prédicteurs et de données hydrauliques est nécessaire pour établir les PTF. De plus, il s'agit d'une approche empirique et les PTF ne doivent pas être utilisées pour prédire des données hydrauliques en dehors de la plage de conditions pour lesquelles elles ont été calibrées alors que l'incertitude des prévisions doit être quantifiée [ Schaap et Leij, 1998 ]. Les propriétés de base du sol telles que les fractions de texture, la densité apparente et la teneur en matière organique ont été largement utilisées comme prédicteurs [ Minasny et al., 1999 Schaap et al., 2001 Wösten et al., 2001 ].

[3] À l'échelle du bassin versant, où même une mesure adéquate des propriétés de base du sol peut ne pas être réalisable, la question se pose de savoir si les attributs topographiques pourraient être utilisés pour remplacer ou augmenter les propriétés de base du sol en tant que prédicteurs dans les PTF. La formation du sol est affectée par la végétation, le matériau parental, le microclimat, le régime d'humidité et le transport des matériaux, qui sont tous influencés par la topographie. Cette influence (indirecte) de la topographie sur les propriétés et les processus du sol est reconnue depuis longtemps [ Ruhé, 1956 Walker et al., 1968 Carter et Ciolkosz, 1991 ]. Les attributs topographiques peuvent donc être corrélés aux propriétés hydrauliques. Les attributs du sol transmettront une partie de la corrélation plus directement, mais il est également possible que les attributs topographiques contiennent de nouvelles informations pour la prédiction. Les attributs topographiques sont largement disponibles avec l'avènement des modèles numériques d'élévation (MNE) et des techniques d'analyse numérique du terrain. La résolution supplémentaire fournie par les attributs topographiques peut aider à mieux interpréter et prévoir le flux et le transport dans les systèmes de sols naturels complexes.

[4] Le bassin versant de la rivière Sauro, qui est situé dans la région de la Basilicate au sud de l'Italie (Figure 1), a été sélectionné comme étude de cas pour quantifier et élucider l'hydrologie à l'échelle du bassin ainsi que l'érosion de surface et la dégradation des terres . Le sol, le paysage et les propriétés hydrauliques ont été étudiés afin de prédire et d'expliquer le ruissellement et l'infiltration à l'échelle locale. Ces processus peuvent, à leur tour, être utilisés pour modéliser le comportement intégré des bassins versants grâce à la mise à l'échelle. Des échantillons de sol non perturbé ont été prélevés le long d'un transect de pente dans la zone d'étude pour déterminer les propriétés de base du sol, la rétention d'eau et la conductivité hydraulique. De plus, une analyse du paysage a été menée à partir de photographies aériennes, de cartes topographiques et géologiques, et une étude de terrain a été réalisée pour délimiter des unités pédologiques présentant différentes propriétés hydrauliques [ Santini et al., 1999 ].

[5] Le site d'étude est situé dans une région vallonnée avec une géomorphologie dynamique et un climat avec de longues périodes de sécheresse et des précipitations intenses pendant les mois d'automne et d'hiver. Ces conditions sont répandues autour de la Méditerranée et ont abouti à des sols aux caractéristiques distinctes [ Yaalon, 1997 ]. De nombreux sols sont formés sur des matériaux parentaux calcaires (c. La topographie et la forte saisonnalité des précipitations posent des défis particuliers pour une production agricole et une gestion de l'eau efficaces et durables. Afin d'atteindre un tel scénario de durabilité, il est impératif de comprendre le rôle de l'hydrologie à l'échelle du bassin versant où se produisent différents polypédons. Romano et Santini [1997] a appliqué les PTF par Gupta et Larson [1979] , Rawls et al. [1982] , Rawls et Brakensiek [1989] et Vereecken et al. [1989] , qui utilisent exclusivement des données de sol de base comme entrée, pour prédire les teneurs en eau aux hauteurs de pression capillaire h = 10, 100 et 1000 cm le long du transect. Les teneurs en eau prédites étaient normalement distribuées et les PTF semblaient préserver la structure spatiale de la teneur en eau observée.

[6] Pour le versant sélectionné, les attributs topographiques pourraient être particulièrement utiles en tant que prédicteurs car les changements dans les conditions géologiques et d'autres facteurs de formation du sol sont plus prononcés. Le présent travail implique l'utilisation d'attributs topographiques pour prédire les propriétés hydrauliques sur des sites où les attributs du sol étaient également disponibles. Bien sûr, une application importante est l'utilisation d'attributs topographiques « pour combler les lacunes » lorsque les attributs du sol sont inexistants ou limités. La plupart, sinon tous, les modèles de bassins versants basés sur des concepts nécessitent des données pour un grand nombre d'emplacements où aucune propriété pédologique ou hydraulique ne sera disponible. Les données topographiques pourraient alors être utilisées pour déduire les propriétés du sol ou estimer directement les propriétés hydrauliques. Les différents types de stratégies d'interpolation sont discutés plus en détail par Sinowsky et al. [1997] et Heuvelink et Pebesma [1999] . L'interpolation entre les points où les propriétés du sol ont été échantillonnées devrait tenir compte de la topographie en raison de l'impact que les modèles organisés auront sur la réponse du modèle [ Merz et assiette, 1997 Western et al., 2001 ].

[7] Les modèles de la surface terrestre sont utilisés depuis longtemps par les géomorphologues [ Ruhé, 1975 ]. Plus récemment, plusieurs études sont apparues qui ont étudié la corrélation avec la teneur en eau du sol [ Famiglietti et al., 1998 Western et al., 1999 ] ou des données de conservation [ Pachepsky et al., 2001 ]. Famiglietti et al. [1998] et Western et al. [1999] ont surveillé la teneur en eau de surface au fil du temps par échantillonnage destructif et par réflectométrie dans le domaine temporel, respectivement. La teneur en eau de la zone racinaire est la plus importante dans le bilan énergétique et a un effet profond sur les échanges de chaleur et de masse à la frontière terre-atmosphère. Seule la teneur en eau de surface (c'est-à-dire jusqu'à 5 cm de profondeur) peut être mesurée à distance pour les sites à faible végétation. La teneur en eau de surface n'est pas une variable intrinsèque, elle dépend de facteurs tels que les précipitations, le rayonnement solaire, la végétation, la profondeur de la nappe phréatique et le régime d'humidité antérieur et elle est sujette à une variabilité temporelle considérable. Les corrélations entre les attributs topographiques et les fonctions hydrauliques du sol seraient d'un plus grand intérêt pour la modélisation de l'écoulement (sous-)surface.

[8] L'altitude peut affecter les propriétés hydrauliques du sol parce que les facteurs de formation du sol tels que le matériau parental, la température et la végétation changent avec l'altitude. Les propriétés structurelles et texturales des sols de surface, et donc leurs propriétés hydrauliques, changeront avec l'altitude. La plupart des études ont rapporté que les teneurs en eau ont tendance à être plus faibles à des altitudes plus élevées [par exemple, Hawley et al., 1983 ]. La pente (angle) maximale de la surface du sol détermine le gradient de l'écoulement de l'eau et de toute matière dissoute à la surface et même près de la surface. Les zones avec des pentes plus raides connaîtront moins d'infiltration et de formation de croûte et plus de ruissellement de surface, la teneur en eau de surface sera probablement plus faible [ Moore et al., 1988 ] et la conductivité hydraulique plus élevée [ Casanova et al., 2000 ]. Pachepsky et al. [2001] ont rapporté une diminution de la rétention d'eau pour les pentes plus raides au niveau des têtes capillaires intermédiaires (r 2 de 0,451 et 0,345 à h = 100 et 330 cm, respectivement). L'orientation de l'aspect ou de la pente caractérise la direction de la pente et donc le débit qu'elle utilise pour établir les zones contributives. Hanna et al. [1982] ont observé des teneurs en eau disponibles plus élevées et Cerdà [1997] ont rapporté des taux d'infiltration plus élevés pour les pentes exposées au nord dans l'hémisphère nord. Au Chili, Casanova et al. [2000] ont trouvé une conductivité plus élevée pour un versant exposé au sud. Des teneurs plus élevées en matière organique et en argile pour le versant exposé au sud conduisent vraisemblablement à des macropores plus stables et à une conductivité plus élevée. L'aspect et la pente affectent tous deux l'intensité de la pluie et l'apport de rayonnement, ce qui aura des répercussions sur les attributs du sol et les propriétés hydrauliques.

[9] La courbure de la surface terrestre est un déterminant important des schémas d'écoulement latéral. Les zones déprimées seront plus humides que les zones élevées ou planes avec des différences correspondantes dans les schémas de sédimentation et l'activité biologique. La courbure du profil ou de la pente est quantifiée par des changements d'angle de pente le long de l'aspect, les valeurs négatives indiquent une ligne de courant concave avec un écoulement en décélération tandis que des valeurs positives sont trouvées pour des surfaces convexes avec un écoulement en accélération. La courbure tangentielle quantifie la courbure dans le plan transversal à l'aspect, cette variable véhicule des informations sur la convergence et la divergence des flux latéraux. Si la courbure est mesurée dans le plan horizontal, c'est-à-dire se rapportant aux contours, on parle de courbure en plan. La valeur de la courbure moyenne énumère la concavité ou la convexité globale de la surface. Famiglietti et al. [1998] ont montré une corrélation négative entre la teneur en eau de surface et trois types de courbure. Pachepsky et al. [2001] ont trouvé que la teneur en eau à h = 100 et 330 cm étaient corrélées négativement avec la courbure du profil, c'est-à-dire que l'accélération du flux réduit la rétention (avec r 2 de 0,266 et 0,310, respectivement) et positivement corrélée avec la courbure tangentielle, c'est-à-dire que la divergence favorise la rétention (avec r 2 de 0,423 et 0,432, respectivement). Le rayonnement solaire potentiel, qui est déterminé à partir de la pente, de l'aspect et de la position solaire, affecte l'évapotranspiration la teneur en eau sera plus faible pour les surfaces recevant plus de rayonnement solaire [ Western et al., 1999 ]. Une corrélation entre le rayonnement solaire et les propriétés hydrauliques est concevable car la formation du sol est affectée par le régime d'humidité, la température et la végétation. La zone contributive et la pente déterminent le flux et le gradient de l'écoulement de surface. L'indice d'humidité, qui est utile pour estimer le ruissellement de surface et l'érosion, s'est avéré positivement lié à la teneur en eau de surface [ Moore et al., 1988 Famiglietti et al., 1998 Western et al., 1999 ]. D'autres attributs topographiques, tels que les indices composés de la puissance des cours d'eau et de la capacité de transport des sédiments [ Moore et al., 1993 ] et le rapport élévation-relief pour l'asymétrie de l'élévation [ Corps des ingénieurs de l'armée américaine, 1993 ], ont également été utilisées dans les études de classification des sols et d'érosion.

[10] Il semble plausible que les attributs topographiques puissent améliorer les PTF. Pourtant, Famiglietti et al. [1998] citent plusieurs études où il n'y avait pas de corrélation significative entre les attributs topographiques et la teneur en eau du sol. S'il existe une corrélation significative avec les propriétés hydrauliques, elle sera considérablement moindre que pour les attributs du sol [ Pachepsky et al., 2001 ]. De plus, l'utilisation d'attributs topographiques qui sont marginalement corrélés avec les propriétés hydrauliques pourrait conduire à de moins bonnes performances des PTF en raison d'un surparamétrage.

[11] L'incertitude associée aux prédicteurs topographiques dépend également de la résolution spatiale et de la variabilité des données topographiques. Western et al. [1999] ont étudié dans quelle mesure la teneur en eau, également sujette à la variabilité temporelle, était prédite par les attributs du terrain à différentes échelles. L'indice de rayonnement potentiel explique peu de la variance tandis que l'indice d'humidité explique une partie de la variance spatiale, en particulier à des distances de décalage plus grandes (>150 m). Bien entendu, toute la variabilité spatiale n'est pas organisée topographiquement et seule la partie organisée peut être expliquée par les attributs du terrain. Les données du variogramme ont indiqué que plus de la moitié de la variance inexpliquée se produit à une échelle inférieure à la grille de 10 m du DEM. Western et al. [1999] ont postulé que la variabilité entre le DEM et les échelles de pente se produit en raison de l'écoulement latéral acheminé, ce qui peut s'expliquer par l'indice d'humidité et la zone ascendante. La variabilité à l'échelle du versant et du bassin versant pourrait s'expliquer par l'aspect et les sols ou la végétation, respectivement.

[12] Au vu de ce qui précède, cette étude visait à détecter des corrélations entre les données hydrauliques et les attributs topographiques et à les exploiter dans les PTF. Des observations plus détaillées seront nécessaires pour élucider les mécanismes par lesquels la topographie détermine l'ampleur des propriétés hydrauliques. Les objectifs spécifiques sont les suivants : (1) étudier les corrélations entre les attributs pédologiques et topographiques, les données de rétention et les paramètres hydrauliques pour une pente de colline en Basilicate, en Italie, (2) étalonner les PTF avec des attributs pédologiques et/ou topographiques comme prédicteur à l'aide d'une analyse de réseau neuronal , et (3) examiner si les attributs topographiques peuvent améliorer les PTF en tenant compte des différents régimes d'humidité du sol et de la variabilité des résidus.


Calculer les points les plus proches d'autres points en utilisant GRASS - Systèmes d'Information Géographique

GRASS (Geographic Resources Analysis Support System) est un SIG basé sur un raster du domaine public, un SIG vectoriel, un système de traitement d'images et un système de production graphique. Créé par le US Army Corps of Engineers, Constriction Engineering Research Laboratory (USA/CERL) et amélioré par de nombreux autres, il est largement utilisé dans les bureaux gouvernementaux, les universités et les organisations commerciales du monde entier. Il est écrit principalement en C pour diverses machines basées sur UNIX. Linux est l'une de ses implémentations les plus robustes.

GRASS contient plus de 40 programmes pour rendre des images sur moniteur et papier plus de 60 programmes de manipulation de trames plus de 30 programmes de manipulation vectorielle près de 30 programmes de manipulation de traitement d'images multispectrales 16 programmes de gestion de données et 6 programmes de gestion de fichiers de points.

Les atouts de GRASS résident dans plusieurs domaines. L'interface utilisateur simple en fait une plate-forme idéale pour ceux qui découvrent les SIG pour la première fois. Les utilisateurs souhaitant écrire leur propre code peuvent le faire en examinant le code source existant, en s'interfaçant avec les bibliothèques SIG documentées et en utilisant le manuel du programmeur GRASS. Cela permet d'intégrer pleinement des fonctionnalités plus sophistiquées dans GRASS.

Parmi les autres atouts de GRASS, citons le pionnier des résolutions mixtes dans une base de données, des zones de couverture géographique mixtes dans une base de données, des techniques de compression d'images raster via un codage de longueur d'exécution et des tables de recherche de reclassification, le redimensionnement des images d'affichage à la volée pour remplir l'affichage écran, plus son critère de conception fondamental d'une puissante analyse scientifique assistée par ordinateur des problèmes environnementaux (par opposition à une simple sortie cartographique complexe de processus relativement simples).

GRASS est généralement fourni sous forme de code source gratuit et sans copyright à compiler sur les machines hôtes. Certains binaires compilés sont également facilement accessibles gratuitement via Internet. Il fonctionne sur une variété de plates-formes UNIX.


Calculer les points les plus proches d'autres points en utilisant GRASS - Systèmes d'Information Géographique

Les processus de mouvement de masse tels que les glissements de terrain, les coulées de débris, les avalanches de roches ou les avalanches de neige peuvent entraîner des dommages ou même des catastrophes lors de l'interaction avec la société. Les modèles informatiques prédisant les distances de déplacement, les zones dangereuses, les énergies d'impact ou les temps de déplacement peuvent aider la société à atténuer les effets de tels processus et, par conséquent, à réduire les risques et les pertes (Hungr et al., 2005).

Des modèles dynamiques basés sur la physique sont utilisés pour des analyses détaillées d'événements ou de situations spécifiques (par exemple, Savage et Hutter, 1989 Takahashi et al., 1992 Iverson, 1997 Pudasaini et Hutter, 2007 McDougall et Hungr, 2004, 2005 Pitman et Le, 2005 Christen et al., 2010a, b Mergili et al., 2012b Pudasaini, 2012 Hergarten et Robl, 2015 Mergili et al., 2015). Les processus étant complexes dans leurs détails et les paramètres d'entrée incertains, des modèles conceptuels simplifiés pour le mouvement des écoulements massiques sont aujourd'hui utilisés en combinaison avec le SIG (Système d'Information Géographique). Ces modèles peuvent être utilisés pour des événements uniques. Cependant, ils sont particulièrement utiles pour indiquer les zones d'impact potentiel à des échelles plus larges. Les points de masse hypothétiques sont acheminés à partir d'un pixel de libération à travers un modèle d'élévation numérique (MNE) jusqu'à ce qu'un critère de rupture défini soit atteint. Des techniques de Monte Carlo (marches aléatoires, Pearson, 1905 Gamma, 2000) ou des algorithmes multidirectionnels d'écoulement (Horton et al., 2013) sont utilisés pour simuler l'étalement latéral de l'écoulement.

Les critères de rupture consistent souvent en des valeurs seuil de l'angle de portée (c'est-à-dire la pente moyenne du chemin) ou des distances horizontales et verticales (Lied et Bakkehøi, 1980 Vandre, 1985 McClung et Lied, 1987 Burton et Bathurst, 1998 Corominas et al ., 2003 Haeberli, 1983 Zimmermann et al., 1997 Huggel et al., 2002, 2003, 2004a, b), parfois liés au volume (Rickenmann, 1999 Scheidl et Rickenmann, 2010). Cependant, ces relations présentent généralement un degré élevé de dispersion. De plus, les paramètres clés pour les problèmes de conception, tels que les pressions d'impact, ne sont pas fournis (Hungr et al., 2005).

Certaines approches incluent des modèles physiques simplifiés remontant au modèle de débit massique de Voellmy (1955), reliant la traction de cisaillement au carré de la vitesse et supposant un effet de frottement coulombien supplémentaire (Pudasaini et Hutter, 2007). Ils ne considèrent que le centre de la masse en écoulement, mais pas sa déformation et la distribution spatiale des variables d'écoulement. Ce type de modèles est principalement utilisé pour les avalanches de neige et les coulées de débris (Perla et al., 1980 Gamma, 2000 Wichmann et Becht, 2003 Mergili et al., 2012a Horton et al., 2013).

de présenter r.randomwalk, un outil disponible gratuitement, complet et flexible pour le routage des mouvements de masse

démontrer les différentes fonctionnalités de r.randomwalk, notamment en termes de résolution des problèmes (i)–(iv)

pour discuter des potentiels et des limites de cet outil.

Ensuite, nous décrirons l'outil logiciel r.randomwalk (Sect. 2). De plus, nous présenterons les zones de test et les résultats (Sect. 3). Enfin, nous discuterons des résultats (Sect. 4) et conclurons avec quelques messages clés du travail (Sect. 5).

L'application r.randomwalk Implémentation informatique

Analyses avec plusieurs sous-ensembles aléatoires des zones ou des coordonnées de libération. Dans chaque exécution de modèle, un sous-ensemble est utilisé pour recalculer la fonction de densité de probabilité (PDF) de l'angle de portée, l'autre sous-ensemble est utilisé pour valider la distribution de la probabilité d'impact dérivée avec cette PDF par rapport aux zones de dépôt observées.

Les analyses avec de multiples combinaisons de paramètres d'entrée variaient de manière contrôlée ou aléatoire, permettant de considérer les incertitudes des paramètres et d'explorer la sensibilité des paramètres.

r.randomwalk a été développé et testé avec Ubuntu 12.04 LTS et devrait également fonctionner sur d'autres systèmes UNIX. Une interface utilisateur simple est disponible. Cependant, l'outil peut être démarré plus efficacement via des paramètres de ligne de commande, permettant un traitement par lots simple au niveau du script shell. Cette fonctionnalité facilite le test du modèle, la combinaison avec d'autres modules SIG GRASS et la prise en compte des chaînes de processus (c'est-à-dire l'utilisation du résultat d'une analyse comme entrée pour la suivante). Le cadre logique est illustré dans la figure 1, les variables clés utilisées dans r.randomwalk sont résumées dans le tableau 1.

Cadre logique de r.randomwalk. Seuls les composants couverts dans le présent article sont affichés.

Tous les tests (voir section 3) sont effectués sur un processeur Intel ® Core i7 975 avec 3,33 GHz et 16 Go de RAM (DDR3, PC3-1333 MHz), explorant un maximum de huit cœurs grâce à l'hyperthreading.

Le terme marche aléatoire fait référence à une approche Monte Carlo pour acheminer un objet à travers tout type d'espace. Le terme a été introduit par Pearson (1905). Les approches de marche aléatoire contrainte sont utilisées pour acheminer les mouvements de masse tels que les coulées de débris à travers des cartes d'élévation (MNE), par ex. par Gamma (2000), Wichmann et Becht (2003), Mergili et al. (2012a) et Gruber et Mergili (2013). De telles méthodes permettent un certain étalement du mouvement en considérant également d'autres directions de routage que la descente la plus raide. Il évite la concentration des écoulements - ou de tout autre type de mouvements de masse - vers des entités linéaires, ce qui ne serait pas réaliste pour les laves torrentielles, les avalanches de neige ou d'autres types de mouvements de masse. Cependant, l'acheminement est contraint ou pondéré par des facteurs tels que la pente ou la perpétuation du sens d'écoulement. Une alternative à la marche aléatoire contrainte consisterait en un algorithme à plusieurs directions de flux (Horton et al., 2013).

Contrôlez la longueur L ctrl et la longueur du segment L seg . (a) Application de L ctrl pour éviter une forte flexion de l'écoulement. (b) Lissage du trajet d'écoulement en introduisant des segments de longueur maximale L seg .

un ensemble de marches aléatoires pour un mouvement de masse, à partir d'un ensemble défini de coordonnées

plusieurs ensembles de marches aléatoires pour un mouvement de masse, un ensemble à partir de chaque pixel de la zone de libération

ensembles de marches aléatoires pour plusieurs mouvements de masse dans une zone d'étude (soit à partir d'un ensemble de coordonnées par mouvement de masse, soit à partir de tous les pixels définis comme zones de libération)

un ensemble de marches aléatoires à partir de chaque pixel de la zone d'étude.

Des règles de superposition pour différentes marches aléatoires et ensembles de marches aléatoires sont appliquées (voir la section 2.4).

Résumé des variables clés utilisées dans r.randomwalk.

Afin de contraindre les mouvements vers le haut, une hauteur d'élan verticale maximale R max⁡ définie par l'utilisateur est introduite. Il prend l'altitude la plus basse par laquelle la marche aléatoire est passée comme référence.

Certains types d'écoulements massiques (c'est-à-dire ceux qui ont une viscosité élevée) modifient à peine leur direction d'écoulement de manière brutale. La distance de contrôle horizontale définie par l'utilisateur L ctrl définit la distance arrière de chaque pas sur laquelle la distance horizontale de mouvement doit augmenter (Fig. 2a).

Possibilités de définir les critères de rupture. Les indicateurs fournis via la ligne de commande ou l'interface utilisateur définissent le type de critère de rupture. RC correspond aux coordonnées de libération (libération à partir des points les plus élevés des zones de libération), RP correspond aux pixels de libération (libération de tous les pixels dans les zones de libération), • est pertinent pour la plupart des applications et ∘ est pertinent pour certaines applications.

La probabilité P px de tout autre pixel voisin px de devenir le pixel cible est P px = p px ∑ qx = 1 qx = npqx , p = fdef β tan⁡ β , où n est le nombre total de pixels voisins valides, et β est la pente locale entre le pixel courant et le pixel voisin considéré. f d et f sont des facteurs de pondération pour la perpétuation du sens d'écoulement et pour la pente. f d est régie par le paramètre d'entrée d : f d = d 2 pour le même sens d'écoulement que le précédent, f d = d pour un tour de 45 et f d = 1 pour un tour de 90 .

Les critères de rupture pour les marches aléatoires (voir section 2.3) sont directement ou indirectement liés à la distance de déplacement L max⁡, c'est-à-dire la longueur horizontale entre le pixel de libération et le pixel terminal mesuré le long du chemin d'écoulement. Des tests préliminaires révèlent que le routage de marche aléatoire à travers des cartes raster peut entraîner des chemins d'écoulement assez inégaux (voir Fig. 2b). Par conséquent, la distance calculée en additionnant toutes les distances de pixel à pixel peut être significativement plus longue que la distance la plus pertinente le long des chemins d'écoulement principaux observés. L'utilisation des sommes des distances pixel à pixel conduirait à une sous-estimation de l'angle de portée et, par conséquent, des distances de déplacement et des zones d'impact prévues. Nous abordons ce problème en divisant les chemins d'écoulement en segments droits avec une longueur maximale définie par l'utilisateur de L seg . La distance parcourue L max⁡ est définie comme la somme de la longueur de tous les segments (voir Fig. 2b). Des valeurs plus élevées de L seg devraient entraîner des distances de déplacement plus courtes en raison du lissage plus prononcé du chemin.

L'angle de portée ω T ou la distance de déplacement maximale L max⁡ est calculé à partir de règles ou de relations empiriques-statistiques, basées sur l'analyse des événements observés (tableau 3). Ils se réfèrent généralement à la distance entre le point le plus élevé de la zone de rejet et le point le plus éloigné de la zone d'impact le long du trajet d'écoulement (le Fahrböschung selon Heim, 1932). Par conséquent, les marches aléatoires utilisant ce type de critère de rupture doivent partir de l'ensemble de coordonnées définissant le point le plus élevé du mouvement de masse observé ou attendu. Alternativement, un modèle semi-déterministe (Perla et al., 1980) peut également être utilisé.

Les relations empiriques-statistiques ou le modèle semi-déterministe peuvent être appliqués dans un grand nombre de calculs parallèles avec des valeurs aléatoires des paramètres a , b et c (voir Fig. 1 et Tableau 3). Cela permet d'explorer les effets des incertitudes dans les relations. Un seul type de relation est pris en compte à la fois, et la sortie consiste en une carte raster de l'indice d'indicateur d'impact III dans la plage 0-1, représentant la fraction des combinaisons de paramètres testées prédisant un impact sur le pixel (c'est-à-dire, où l'indicateur d'impact note (IIS) = 1). De plus, les résultats de toutes les exécutions de modèles sont stockés de manière prête à être analysés avec l'outil de sensibilité et d'optimisation des paramètres AIMEC (Automated Indicator-based Model Evaluation and Comparison Fischer, 2013).

Une carte raster de probabilité d'impact P I comprise entre 0 et 1 est calculée à partir d'un échantillon défini par l'utilisateur des valeurs observées de tan( ω T ), qui est utilisé pour construire une fonction de densité cumulée (CDF). Le CDF représente la probabilité que le mouvement atteigne le pixel associé à chaque valeur de tan( T ). L'échantillon de valeurs observées peut être divisé en un sous-ensemble de mouvements de masse pour la construction du CDF, et un autre pour le calcul de P I . Cela garantit une séparation claire entre l'optimisation des paramètres et la validation du modèle (voir la section 2.5). Un traitement parallèle peut être utilisé pour répéter l'analyse pour de nombreux sous-ensembles aléatoires afin d'obtenir un résultat plus robuste.

Si un inventaire des événements est disponible, les zones d'impact observées peuvent être recalculées en acheminant chaque marche aléatoire jusqu'à ce qu'elle quitte la zone d'impact observée du mouvement de masse correspondant. Ce mode peut être utilisé pour explorer la distribution statistique de ω T . Le CDF résultant peut être utilisé comme entrée pour estimer P I .

Types de règles et de relations pris en charge par r.randomwalk. ω T est l'angle de portée, L max⁡ est la distance parcourue, V est le volume de mouvement, Z est la perte d'élévation, Q p est le pic de décharge à la libération et v T est la vitesse à la fin.

Marches aléatoires du même point de masse : la fréquence d'impact (FI) est augmentée de 1 pour chaque marche aléatoire prédisant un impact. IIS est augmenté de 1 pour chaque modèle où au moins 1 marche aléatoire prédit un impact. L'angle de trajectoire moyen - et donc également P I - est dérivé de la marche aléatoire avec la distance de déplacement la plus courte (c'est-à-dire la trajectoire d'écoulement la plus droite et la valeur la plus élevée de ) au niveau du pixel considéré.

Ensembles de marches aléatoires pour différents points de masse : les valeurs de IF pour toutes les marches aléatoires impactant un pixel sont simplement additionnées tandis que le maximum de IIS est appliqué à chaque pixel. Le problème devient plus complexe lorsqu'il s'agit de P I : selon l'application spécifique, le maximum ou la moyenne de tous les ensembles de marches aléatoires est plus approprié.

Les cartes résultantes de PI ou IIS peuvent être automatiquement superposées avec une probabilité de rejet (résultat PR : probabilité composite PI, C Mergili et Chu, 2015) ou un score d'indicateur de rejet (résultat RIS : score indicateur de risque d'impact – IHIS), et avec un score d'indicateur d'exposition (EIS) dérivé de l'occupation du sol (résultat : score d'indicateur de risque d'impact – IRIS voir tableau 1). Ces étapes ne sont pas examinées plus en détail dans cet article et ne sont donc pas illustrées sur la figure 1.

r.randomwalk comprend trois possibilités de validation des résultats du modèle. Tous trois s'appuient sur la disponibilité d'une carte matricielle de la zone de dépôt observée du ou des mouvements de masse à l'étude. Toutes les parties des zones d'impact observées en dehors des zones de dépôt observées sont définies sur aucune donnée (Fig. 3).

Validation du modèle avec un tracé ROC, reliant le taux de faux positifs r FP et le taux de vrais positifs r TP . Ce mode de validation convient aux cartes raster prédictives comprises entre 0 et 1, telles que III ou P I . Il peut également être utilisé pour les cartes prédictives binaires (0 ou 1). Dans un tel cas, l'AUC ROC est calculé à partir de deux niveaux de seuil uniquement.

Pour IIS, les prédictions vrai positif (TP), vrai négatif (TN), faux positif (FP) et faux négatif (FN) sont comptées sur la base de pixels et mises en relation. Tous les pixels avec IIS ≥ 1 sont considérés comme positifs observés (OP) tous les pixels avec IIS = 0 sont considérés comme négatifs observés (ON).

Des tracés ROC (caractéristiques de fonctionnement du récepteur) sont produits pour III ou P I : le taux de vrais positifs r TP (TP/OP) est tracé en fonction du taux de faux positifs r FP (FP/ON) pour différents niveaux de III ou P I . L'aire sous la courbe reliant les points résultants, AUC ROC , est utilisée comme indicateur de la qualité de la prédiction (voir Fig. 3). Si le CDF pour P I est dérivé du même ensemble de glissements de terrain, r.randomwalk inclut l'option de diviser aléatoirement l'ensemble de glissements de terrain observés en un ensemble pour l'optimisation des paramètres et un pour la validation. This is done for a user-defined number of times, exploiting multiple processors (see Sect. 2.3 and Fig. 1). It results in an ROC plot with multiple curves. Note that two ROC plots are produced: one of them builds on the original number of TN pixels. For the other one, the number of ON pixels is set to 5 times the number of OP pixels. Whilst the number of FP pixels remains unchanged, the number of TN pixels is modified accordingly. This procedure aims at normalizing the ROC curves in order to enable a comparison of the prediction qualities yielded for different study areas.

If only one mass movement is considered, a longitudinal profile may be defined by a set of coordinates of the profile vertices. The observed and predicted (IIS ≥ 1 or P I > 0) travel distances are measured and compared along this profile.

Test cases and results Acheron rock avalanche, New Zealand Area description and model parameterization

The Acheron rock avalanche in Canterbury, New Zealand (Fig. 4), was triggered approx. 1100 years BP (Smith et al., 2006). Within the present study, the release volume, V = 6.4 million m 3 , is approximated from the reconstruction of the pre-failure topography and is lower than the value of V = 7.5 million m 3 estimated by Smith et al. (2006). We use a 10 m resolution DEM derived by stereo-matching of aerial photographs. Impact, release and deposition areas are derived from field and imagery interpretation as well as from data published by Smith et al. (2006). All random walks start from the highest pixel of the release area.

We use this case study for demonstrating how to compute the impact indicator index III from an elevation map, the release area, and the release volume. Before doing so, we have to analyse the influence of the pixel size and the parameters n walks , R max⁡ , L ctrl , L seg , f β , and f d on the model result. Preliminary tests have shown that r.randomwalk yields plausible results with the number of random walks: n walks = 10 4 , R max⁡ = 10 m, L ctrl = 1000 m, L seg = 100 m, f β = 5, f d = 2 , and a pixel size of 20 m. These values are taken as a basis to explore the sensitivity of the model results to the variation of each parameter and the best fit of the parameters in terms of the travel distance, AUC ROC , and the size of the predicted impact area (Table 4). ω T = 11.62 ∘ , the angle of reach observed for the Acheron rock avalanche, is applied as the break criterion for all tests. Some of the tests are run in the back-calculation mode (flag b see Tables 2 and 4).

III is computed by executing r.randomwalk 100 times, with the parameter values optimized according to Table 4. We explore an empirical–statistical relationship for ω T derived from a compilation of 127 case studies (Fig. 5). The offset of the equation ( b in Eq. 4 and Fig. 5) is randomly sampled between the lower and upper envelopes of the regression. The quality of the prediction is evaluated using the ROC plot (see Figs. 1 and 3). Note that the Acheron rock avalanche (not included in the relationship developed in Fig. 5) is found close to the lower envelope, meaning that it was very mobile compared to most of the other events.

Acheron rock avalanche. (a) Panoramic view photo: M. Mergili, 28 February 2015. (b) Location and geometry.

Empirical–statistical relationship relating the angle of reach ω T to the volume V of avalanching flows of rock or debris. The data are compiled from Scheidegger (1973), Legros (2002), Jibson et al. (2006), Evans et al. (2009), Sosio et al. (2012), and Guo et al. (2014).

Figure 6 summarizes the findings of the test s 1–3 (see Table 4). Test 1 leads to the expected result that the predicted impact area increases with the number of random walks. However, the predicted impact area is also a function of the pixel size: with larger pixels, less random walks are needed to cover an area of similar size than with smaller pixels. Figure 6a further indicates that the possible impact area is not fully covered even at 10 5 random walks: no substantial flattening of the curves is observed. We conclude that (i) a very high value of n walks would be necessary to fully cover the possible impact area, and (ii) this would lead to a substantial overestimation of the observed impact area.

Tests of the parameters n walks , L ctrl , L seg , R max⁡ , f β , f d , and the pixel size. Where ranges of values are given in bold, the model is run with 100 random samples constrained by the minima and maxima indicated. Where values given in bold are separated by commas, in these cases exactly these values are tested.

Test n walks L ctrl (m) L seg (m) R max⁡ (m) f β f d Pixel size (m) 1 1 , 3 10 0 –10 6 1000 100 10 5 2 10, 20, 40 2 2 10 4 50, 1000 10–150 1000 5 2 10, 20, 40 3 1 , 2 , 3 10 4 50–1000 2 100 1000 2 5 2 10, 20, 40 2 1000–4000 1 , 3 10 1 , 3 20 1 , 3 4 1 , 3 10 4 1000 100 0–120 5 2 20 5 1 , 3 10 4 1000 100 10 0–10 2 20 6 1 , 3 10 4 1000 100 10 5 1–10 20

Test criteria: 1 impact area 2 travel distance L max⁡ (flag b) 3 AUC ROC .

Results of the tests 1–3 (number of test indicated in the yellow circle). Number of random walks plotted against (a) the impact area and (b) the area under the ROC curve. (c) Computed travel distance L max⁡ as a function of L seg (in the legend, the corresponding value of L ctrl is given in parentheses). (d) Computed L max⁡ as a function of L ctrl .

On the other hand, the quality of the prediction in terms of AUC ROC reaches a maximum at n walks ≈ 10 2 (pixel size 40 m) or n walks ≈ 10 3 (pixel size 20 m), decreasing with higher values of n walks . At a pixel size of 10 m, AUC ROC reaches a constant level at n walks ≈ 10 4 (see Fig. 6b). We may conclude that excessive numbers of random walks lead to an overestimation of the impact area rather than to a better prediction quality. Coarser pixel sizes allow one to achieve the same level of coverage and the same prediction quality at lower values of n walks . However, the pixel size has to be fine enough to account for the main geometric characteristics of the process under investigation (see Sect. 4). All further tests are performed with n walks = 10 4 .

Sensitivity of impact area and AUC ROC to selected input parameters. The numbers of the corresponding tests (see Table 4) are indicated in the yellow circles. (a) Control distance L ctrl (b) maximum run-up height R max⁡ (c) slope factor f β (d) direction factor f d .

Figure 6c illustrates that, at L ctrl = 1000 m, the travel distance computed within the observed impact area decreases with increasing values of L seg (tests 2 and 3 in Table 4). This pattern is well explained by Fig. 2b. At short segment lengths, the effects of flow paths frequently changing their direction are particularly evident for pixel sizes of 10 m and 20 m. L max⁡ drops below the observed value of 3550 m (see Fig. 4b) at 75 ≤ L seg ≤ 100 m. With L seg ≥ 3050 m, corresponding to the Euclidean distance between the release point and the terminal point of the Acheron rock avalanche, L max⁡ would also take a value of 3050 m. At L ctrl = 50 m (only shown for a pixel size of 20 m), r.randomwalk tends to predict too long travel distances, compared to the observation. This phenomenon occurs as flow directions are not well defined in the relatively plane deposition zone of the Acheron rock avalanche therefore, flow paths may frequently change their direction or even go backwards or in a circular way if such a behaviour is not impeded by sufficiently high values of L ctrl (see Fig. 2a). Figure 6d indicates that this undesired behaviour (visible in the area marked by the X in the gray circle) disappears at L ctrl > 200 m.

On the other hand, the value of L ctrl should not be chosen too high as this may negatively impact the model performance. In the case of the Acheron rock avalanche, a drop in AUC ROC is observed between L ctrl ≈ 2000 and L ctrl ≈ 2500 m (Fig. 7a). This drop is explained by an increasing number of false negative pixels in those areas, which cannot be reached by the random walks due to the strict constraint of flow direction.

Within the tested ranges of parameter values, the quality of the prediction is highest at values of R max⁡ ≈ 5 –10 m (see Fig. 7b) and f β ≥ 5 (see Fig. 7c), whilst it reaches it maximum at f d ≈ 2 –3 (see Fig. 7d). The predicted impact area increases with increasing R max⁡ and f d whilst it decreases with increasing f β .

Impact indicator score for the Acheron rock avalanche. (a) Classified III map. (b) ROC plot, building on normalized ON area (see Sect. 2.5).

Figures 6 and 7 indicate that the initial values of n walks , L ctrl , L seg R max⁡ , f β , f d , and the pixel size suggested in Sect. 3.1.1 and Table 4 are within the optimum range of values (see Sect. 4). Therefore, they are used for computing the impact indicator index for the Acheron rock avalanche (Fig. 8a). Concerning the break criteria, this can be classified as a forward analysis. As expected from Fig. 5, where the Acheron rock avalanche falls in between the envelopes of the relationship employed, the upper part of the observed impact area displays a value of III = 1, whilst the remaining part of the observed impact area displays values of 1 > III > 0, decreasing towards the terminus. As the event was comparatively mobile within the context of the relationship used (see Sect. 3.1.1 and Fig. 5), the values of III are close to zero in the terminal area, and the area with III > 0 does not reach far beyond the observed terminus. Note that the maximum value of III is 0.8, meaning that 20 % of all model runs did not even start due to very high values of ω T yielded with the randomized values of b (see Fig. 5). Evaluation against the observed deposit yields a value of AUC ROC = 0.94 (see Fig. 8b). All values of AUC ROC shown in Figs. 6 and 7 and the ROC plot of Fig. 8b build on normalized ON areas (see Sect. 2.5).

III was generated within a computational time of 188 s.

Kao Ping Watershed, Taiwan Area description and model parameterization

Between 7 and 9 August 2009, Typhoon Morakot struck Taiwan and triggered enormous landslides, causing significant land cover change (Fig. 9). More than 22 000 landslides were recorded in southern Taiwan (Lin et al., 2011). One of the hot spots of mass wasting was the Kao Ping Watershed (Wu et al., 2011), where the extremely heavy rainfall (in total, more than 2000 mm depth and 90 h duration) triggered a catastrophic landslide in the Hsiaolin Village (Kuo et al., 2013).

Location, terrain and landslide inventory of the Kao Ping Watershed, Taiwan. Comparison of the satellite images illustrates the landslide-induced land cover changes associated with the Typhoon Morakot. The landslide inventory builds on the interpretation of the FORMOSAT-2 imagery.

A set of random walks ( n walks = 10 4 ) is started from each release point (i.e., the highest pixel of each landslide). Each random walk stops as soon as it would leave the impact area of the same landslide (back calculation, flag b).

After completing all random walks for the study area, the statistical distribution of ω T is analysed. All landslides with L max⁡ < 100 m are excluded. A fraction of 20 % out of all landslides (i.e., all values of ω T associated with those landslides) is randomly selected and retained for validation. Using visual comparison, we have identified the log-normal distribution as the most suitable type of distribution for this purpose. Consequently, the log-normal CDF stands for the probability that a moving mass point leaves the observed impact area at or below the associated threshold of ω T .

We perform a forward analysis of P I by starting a set of random walks ( n walks = 10 4 ) from the release points of the retained landslides, and assigning the cumulative density associated with the average angle of path to each pixel. The result is validated against the observed deposition zones of the retained landslides by means of an ROC plot.

Steps 2. and 3. are repeated for 100 randomly selected subsets (parallel processing is applied). The final map of P I is generated by applying for each pixel the maximum of the values yielded by all the model runs.

We refer to this work flow as test 1 and repeat the analysis with starting random walks not only from the release points but also from all the pixels within the observed release areas (test 2). This means that the CDF is derived from a much larger sample of data than when considering only one point per landslide for starting random walks. We exclude all sets of random walks yielding L max⁡ < 100 m, use a log-normal CDF and start a set of only 10 3 random walks from each release pixel for computing P I .

Starting sets of 10 4 random walks from the highest points of all landslides (test 1) results in a range of values of 16.0 ≤ ω T ≤ 43.5 ∘ , an average of 30.4 ∘ , and a standard deviation of 5.2 ∘ (derived from n = 132 landslides, excluding those with L max⁡ < 100 m). Repeating the analysis with 10 4 random walks started from each pixel within the landslide release areas (test 2), we observe a range of values 16.4 ≤ ω T ≤ 44.1 ∘ , an average of 26.9 ∘ , and a standard deviation of 4.8 ∘ ( n = 1563 ). Figure 10 illustrates the histograms, probability density, and cumulative density functions derived from both analyses. Even though the ranges of values are similar in both tests, test 1 yields (i) a higher average of ω T and (ii) a broader range of values than test 2 (i) is explained by the fact that those random walks starting from lower parts of the release areas are expected to leave the observed impact area at lower values of ω T (ii) is most likely the consequence of a number of rather small landslides with high or low values of ω T strongly reflected in the statistics. Such outliers are less prominent in the statistics of test 2 due to the much higher number of cases, most of them related to the larger landslides.

Each of the impact probabilities shown in Fig. 11 represents the overlay of 100 analyses where random sets of 80 % of the landslides are used for deriving the CDF and the remaining 20 % are used for computing the impact probabilities. The maps illustrate the maximum values of P I out of the overlay of the 100 results. Each of the results is derived using a slightly different CDF. Both tests yield largely similar patterns of P I . We note that (i) test 2 predicts larger impact areas and higher values of P I than test 1, and (ii) some random walks take the wrong direction in test 2 (indicated by “1” in the yellow circle in Fig. 11b), a phenomenon not observed for test 1 (i) is explained by the higher number – and the broader distribution – of release pixels in test 2, compared to test 1. The reason for (ii) is that random walks starting from the highest point of an observed landslide are forced to flow into the observed landslide area (test 1), a constraint not applicable when starting random walks from each release pixel (test 2). In this case it happens that pixels located at or near a crest produce random walks in both directions. In test 1, the computational time amounted to 63 s for deriving the CDF and 8613 s for calculating P I . In test 2, these times increased to 1719 and 9752 s, respectively. The relatively slight increase with regard to P I results from the reduced value of n walks in test 2.

Histograms, probability densities, and cumulative densities of ω T of mass movements in the test area in the Kao Ping Watershed. (a) Result for a set of 10 4 random walks started from the highest point of each landslide (test 1). (b) Result for a set of 10 4 random walks started from each pixel within the release areas of all landslides (test 2).

The prediction quality is tested for each of the 100 model runs for the two tests, producing sets of 100 ROC curves (Fig. 12). AUC ROC = 0.917 ± 0.038 for test 1 and 0.920 ± 0.029 for test 2, both computed with the original number of TN pixels (see Sect. 2.5).

The methodology shown in test 1 can be employed to make forward predictions for defined expected future landslides, given that a sufficient set of observed landslides of similar behaviour is available to derive the CDF.

The methodology demonstrated in test 2 can be used in combination with maps of landslide release probability to explore the composite probability of a landslide impact (see Sects. 2.4 and 4).

Impact probability in the range 0–1. (a) Result of test 1 (random walks starting from the highest point of each landslide cumulative density according to Fig. 10a). (b) Result of test 2 (random walks starting from all release pixels cumulative density according to Fig. 10b).

ROC plots illustrating the prediction quality of (a) test 1 and (b) test 2, using the original number of TN pixels (see Sect. 2.5).

In either case the statistics (see Fig. 10) have to be derived with the same type of approach later used for producing the P I map.

Gunt Valley, Tajikistan Area description and model parameterization

As most mountain areas worldwide, the Pamir of Tajikistan experiences a significant retreat of the glaciers. One of the consequences thereof consists in the formation and growth of lakes, some of which are subject to glacial lake outburst floods (GLOFs), which may evolve into destructive debris flows (Mergili and Schneider, 2011 Mergili et al., 2013 Gruber and Mergili, 2013). No records of historic GLOFs in the test area are known to the authors. However, in August 2002 a GLOF in the nearby Shakhdara Valley evolved into a debris flow, which destroyed the village of Dasht, claiming dozens of lives (Mergili et al., 2011).

The frequency of such events is low and historical data are sparse. Consequently, possible travel distances of GLOFs may not be derived in a purely statistical way. Instead, we have to use published empirical–statistical relationships and simple rules to produce an impact indicator score (IIS) map.

We compute IIS with regard to GLOFs for a 2106 km 2 study area in the Gunt Valley (Fig. 13). The analysis builds on the ASTER GDEM (Advanced Spaceborne Thermal Emission and Reflection Radiometer – Global Digital Elevation Model) V2 and the coordinates and characteristics (estimates of V and Q p ) of 113 lakes in the area (Gruber and Mergili, 2013).

A set of random walks ( n walks = 10 4 ) is routed from the outlet of each lake through the DEM. Six break criteria are combined to compute IIS, partly following Gruber and Mergili (2013). The relationships and rules employed as break criteria are summarized in Table 5. Rule 1 is applied with ω T = 11 ∘ (test 1 – according to Haeberli, 1983 and Huggel et al., 2003, 2004a, b for debris flows from glacier- or moraine-dammed lakes, and Zimmermann et al., 1997 for coarse- and medium-grained debris flows) and with ω T = 7 ∘ (test 2 – Zimmermann et al., 1997 for fine-grained debris flows). All other rules and relationships are used for both tests. For each pixel, IIS consists in the number of relationships or rules predicting an impact (i.e., IIS takes values in the range 0–6).

R max⁡ , L ctrl , L seg , f β , and f d are set to the optimum values found for the Acheron rock avalanche, the pixel size is set to 60 m.

Figure 14 illustrates the possible impact areas of GLOFs in the Gunt Valley study area according to the relationships listed in Table 5.

Figure 14a shows the impact indicator score IIS i.e., the number of relationships predicting an impact, resulting from test 1 (rule 1 applied with ω T = 11 ∘ ). Except for one prominent exception, IIS > 3 (possible debris flow impact) only for the largely uninhabited upper portions of the tributaries to the Gunt Valley. In contrast, a possible flood impact (1 ≤ IIS ≤ 3 ) is predicted for much of the main valley. test 2 (rule 1 applied with ω T = 7 ∘ ) predicts a possible debris flow impact also for part of the main valleys (see Fig. 14b). The IF (per cent of random walks impacting each pixel) for test 1 is shown in Fig. 14c for a subsection of the test area, classified by quantiles. IF is strongly governed by the width of the movement, i.e. by the local topography, and may serve as a surrogate for the expected depth rather than as for the probability of an impact.

The test area in the Gunt Valley, Tajikistan. (a) Location, topography, glaciers and lakes. (b) Proglacial lake in the upper Varshedzdara Valley photo: M. Mergili, 18 August 2011.

Empirical–statistical relationships and simple rules used for computing the IIS of GLOFs in the Gunt Valley (see Table 3).

IDtest Relationship Reference Process 1 1 ω T = 11 ∘ Haeberli (1983) Zimmermann et al. (1997) Flood or debris flow Huggel et al. (2003, 2004a, b) 1 2 ω T = 7 ∘ Zimmermann et al. (1997) 2 1 , 2 ω T = 18 Q p - 0.07 Huggel (2004) 3 1 , 2 L max = 1.9 V 0.16 Z 0.83 Rickenmann (1999) 3 4 1 , 2 ω T = 6 ∘ Flood 5 1 , 2 ω T = 4 ∘ 6 1 , 2 ω T = 2 ∘ Haeberli (1983) Huggel et al. (2004a)

1 , 2 ID(s) of test(s) where the rule or relationship is applied. 3 A bulking factor of 5 is applied to V (modified after Iverson, 1997).

Note that Fig. 14 only indicates the tendency of an already released GLOF to impact certain pixels. It does not provide any information on the susceptibility of a certain lake to produce a GLOF at all. Earlier, Mergili and Schneider (2011) and Gruber and Mergili (2013) have attempted to combine GLOF release indicators with impact indicators and land cover maps to generate hazard and risk indicator maps. However, the results of their studies may underestimate the possible impact areas as the travel distance was computed on a pixel-to-pixel basis, possibly yielding too low values of ω T (see Figs. 2 and 6).

The robustness and appropriateness of the rules and relationships for low-frequency events, such as GLOFs (see Table 5), is questionable. The rules building on a unique value of ω T overpredict the possible impact areas for those lakes where not enough water is available to produce a flood in downstream valleys. Applying the rules and relationships for debris flows implies a blind assumption that enough entrainable sediment is available to produce a debris flow. Whilst ω T ≥ 11 ∘ is considered the worst case for debris flows of GLOFs from glacier- or moraine-dammed lakes in the European Alps according to Haeberli (1983) and Huggel et al. (2002), ω T = 9.3 ∘ was measured for the 2002 Dasht Event, the only well-documented GLOF near the test area (Mergili et al., 2011). Also the relationship proposed by Rickenmann (1999) severely underestimates the travel distance of this event, even when massive bulking is assumed. Applying ω T = 7 ∘ as given by Zimmermann et al. (1997) for fine-grained debris flows might be more suitable as worst-case assumption for debris flows from GLOFs in the Pamir, even though this threshold leads to very conservative predictions.

We have measured computational times of 1520 s for test 1 and 1556 s for test 2.

Possible GLOF impact areas in the Gunt Valley, Tajikistan. (a) Impact indicator score derived with test 1. (b) Impact indicator score derived with test 2. (c) Impact frequency derived with test 1, classified by quantiles.


4. Summary and Conclusions

[40] Unsaturated hydraulic and other soil properties were determined at 50-m intervals along a 5-km hillslope as part of a study regarding the hydrology, surface erosion, and land degradation of the Sauro river catchment area in Basilicata, Southern Italy. Several studies have shown that hydraulic properties, especially surface water content, might be correlated with topographical attributes. The present work was undertaken to quantify if hydraulic parameters could be predicted more accurately when topographical attributes were included as predictors in PTFs.

[41] Analysis of Spearman rank correlations revealed that the retention parameters are somewhat correlated with z, β, cosϕ and potential solar radiation. A fairly strong correlation was found between z and OC and silt fraction while an inverse relation was found with ρb and sand fraction. Correlations between retention and topographical parameters tend to be smaller than those between the former and basic soil properties and retention parameters. Virtually no correlation was found between retention parameters and curvature of the land surface, presumably due to errors involved in the determination of curvature. The data set did not reveal correlation between Ks and soil properties, but Ks was correlated with β and potential radiation in spring (fall) and winter. Correlation was also investigated for observed water contents. In the wet range (low h), topography was more strongly correlated with water content than retention parameters.

[42] Twenty-one ANNs were developed to predict retention parameters, Ks, and water contents at h = 50 cm and 12 bar. The prediction of retention parameters could be improved by 10% by including topography. The most accurate prediction was obtained (RMSE = 0.0327 cm 3 cm −3 ) with ANN 9, which used textural fractions, ρb, OC, z, and β as predictors. Furthermore OC became a better predictor when the PTF also includes z, with which it is highly correlated. The water content at h = 50 cm could be predicted 26% more accurately (RMSE = 0.0231 cm 3 cm −3 for ANN 18 with texture, ρb, OC, z, β, and potential solar radiation as input), but improvement for Ks was modest. The predictions of ANNs were further investigated by plotting RMSE, ME, and PE as a function of h. Predictions with and without topographical attributes were most accurate in the wet range. Semivariograms of the hydraulic parameters and their residuals for ANNs 2, 3, 9 and 12 showed that the ANN could explain some of the (spatial) variability, especially for θs and, to a smaller extent, α and m.

[43] The data of this study suggest that including topographical attributes as predictors for PTFs may lead to improvements in the prediction of hydraulic parameters. On the basis of the semivariograms, including topographical variables is most useful for the poorly predictable θr et m, and to predict spatial variability in θs and α. The implications of differently predicted retention curves were demonstrated with simulated water content profiles. The small influence of topography on predictions, as already reported in some earlier studies, is not surprising because most “information” from topography will already be included in the basic soil properties and there may be considerable uncertainty associated with topographical attributes.

[44] An even more promising use of topographical variables involves the prediction of either soil or hydraulic parameters when limited or no basic soil properties are available. Such a scenario will be common for study of the vadose zone over larger scales such as catchments. Given the empiricism of neural networks and the use of only one transect to calibrate them, the results of this study can not readily be applied for predictions at other locations where conditions may be different. However, this study should provide the impetus for further use of topographical attributes as predictors for hydraulic data.


Burgeoning population coupled with lack of holistic approaches in planning process has resulted in degradation of natural resources (land and water) in dry arid regions of Karnataka. The Kolar district in Karnataka state, India was chosen for this study. It is located in the southern plain regions

(semi-arid agro-climatic zone) extending over an area of 8238.47 sq km between 77°21' to 78°35' E longitude and 12°46' to 13°58' N latitude. Kolar is divided into II taluks. The distribution of rainfall is during southwest and northeast monsoon seasons. The average population density of the dis­trict is around 2.09 persons per hectare.

The district forms part of northern extremity of the Bangalore plateau and since Kolar lies off the coast, it does not enjoy the full benefit of northeast monsoon and being cut off by the high Western Ghats. The rainfall from the southwest monsoon is also prevented, depriving of both the monsoons and subjected to recurring drought. The rainfall is not only scanty, but also erratic in nature. The district is devoid of sig­nificant perennial surface water resources. The ground water


How to connect QGIS to oracle spatial :

1.) Firstly you should have downloaded QGIS with GDAL/OGR required oracle library for bridging oracle connectivity and must have installed oracle on your machine. If oracle library is not installed, see the following post : Install QGIS for oracle connection via OSGeo4w.

2.) After starting the QGIS application, select Add Vector Layer as shown below:

3.) A new window will pop up on clicking the above, now select Database Radio button as appeared in Source. Now in Database Type drop down box, select Oracle Spatial. If you have properly installed QGIS with the requirement stated above Oracle spatial would be present.

4.) In the same Add Vector Layer window, select new button under connection label. This will open up a simple form with following Connection information to be filled, i.e, Type, Name, Host, Database, Port, Username and Password.

Here is the way to fill up the information :

a.) Type : In type select oracle spatial from drop down box.

Type : Oracle Spatial

b.) Name : Type in any desired name you wish to give to connection

c.) Host : For finding your host name, make a query in your oracle sql plus application as written below:

This will return the 32 bit address as shown below in figure:

d.) Database : Write database name, i.e the name you have given while installing oracle software.

e.) Port : Enter port number i.e 1521

f.) Username : Enter username

g.) Password : Enter corresponding password of username

Now select Test Connection button. This will pop up another window which gives you an information of your successful connection, as shown below.


Note the string url connection to connect QGIS to oracle spatial and click OK.

5.) Again in the vector data layer window, select the connection that you made named as Demo and click on Open button .

6.) Now select the coordinate system for your database, which will be prompted after proceeding from step 5.

7.) If all steps are successfully done, you can see your spatial table, with your vector data spatial view as shown below:

Ne hésitez pas à comment below, if you are having any problem to connect Oracle Spatial to QGIS Quantum GIS (Geographic information System) or if you want to discuss for the same topic. You can also see QGIS tutorial further. And yes, don’t forget to subscribe and follow on twitter for getting updates related to GIS post.


Burgeoning population coupled with lack of holistic approaches in planning process has resulted in degradation of natural resources (land and water) in dry arid regions of Karnataka. The Kolar district in Karnataka state, India was chosen for this study. It is located in the southern plain regions

(semi-arid agro-climatic zone) extending over an area of 8238.47 sq km between 77°21' to 78°35' E longitude and 12°46' to 13°58' N latitude. Kolar is divided into II taluks. The distribution of rainfall is during southwest and northeast monsoon seasons. The average population density of the dis­trict is around 2.09 persons per hectare.

The district forms part of northern extremity of the Bangalore plateau and since Kolar lies off the coast, it does not enjoy the full benefit of northeast monsoon and being cut off by the high Western Ghats. The rainfall from the southwest monsoon is also prevented, depriving of both the monsoons and subjected to recurring drought. The rainfall is not only scanty, but also erratic in nature. The district is devoid of sig­nificant perennial surface water resources. The ground water


Data Mining the Internet Archive

I learned some of the basics of python over 5 years ago in the context of using it in a Geographic Information System (GIS). At the time, I learned it while using a windows-based computer. I was told that python was a powerful programming language, but since we only used it within the confines of a GIS , I had never truly discovered its usefulness outside of this world…until now, through the programming historian. As I look through these examples through the lens of an information professional, I can clearly see the advantages of being able to search through various collections in internet archive with the use of a programming language. With the use of some of these python modules and scripts, information professionals can extract various bits of information from collections held in Internet Archive, quickly and easily (well, after the setup is complete that is).