Suite

L'avenir des bases de données spatiales ?


C'est peut-être un peu hors sujet. Je suis désireux de connaître l'importance spécifique de l'industrie des bases de données spatiales.

La base de données spatiale est-elle une partie très importante de tout système SIG ? Ou allons-nous utiliser d'autres technologies pour stocker et récupérer des données spatiales dans un avenir proche ?

Je veux savoir ces choses car je vais bientôt poursuivre MS sur l'optimisation des bases de données spatiales.


Les bases de données spatiales fournissent des services pour stocker et manipuler des géométries, généralement positionnées dans un système géodésique. L'importance de la base de données spatiale derrière votre SIG dépendra principalement de l'utilisation, mais de manière générale, vous pouvez difficilement parler de SIG si vous ne disposez pas d'une base de données spatiale appropriée pour le stockage des données.

Étant donné que les ordinateurs ne peuvent manipuler que des données linéaires à une dimension, vous pouvez diviser les bases de données spatiales en deux parties logiques :

  • Manipulation et indexation de la géométrie, avec prise en charge de la géodésie
  • Technologie de stockage

Les algorithmes et la logique utilisés pour la manipulation de la géométrie sont vraiment spécifiques, puis mappés sur des données unidimensionnelles « classiques » pour les rendre directement compatibles avec les ordinateurs pour le stockage. La seule caractéristique qui a un pied dans chaque monde sont les index spatiaux, qui utilisent des algorithmes similaires à R-Trees.

Pour le stockage, toute technologie sous-jacente peut s'adapter et ne changera pas beaucoup la façon dont vous manipulez les données spatiales. Il peut s'agir d'une base de données SQL (et d'une technologie assimilée) ou d'une sorte de stockage noSQL ou autre. La principale chose qui va changer c'est l'indexation spatiale, toute autre fonctionnalité peut être implémentée sans inconvénient majeur (enfin sauf le travail supplémentaire occasionnel).

Voici donc ma conclusion : si vous apprenez à manipuler efficacement les données spatiales, et en fonction de votre capacité à apprendre de nouvelles technologies, vous serez capable de vous adapter quelle que soit la technologie réellement utilisée. Apprendre les concepts généraux derrière les données spatiales, en particulier pour la manipulation relationnelle, est la partie la plus difficile et utilise des concepts matures qui ne sont pas susceptibles de changer.


Je n'ai pas de réponse aussi complète que Valise, mais je pense qu'il y a un avenir dans l'utilisation de bases de données Graph (NoSQL) pour le stockage et la récupération de données spatiales. La structure du graphe est déjà largement utilisée dans les données SIG (pensez aux nœuds et aux arcs). Il y a déjà quelques efforts mais je ne les ai pas utilisés. Voir Neo4j spatial par exemple : http://wiki.neo4j.org/content/Neo4j_Spatial . Les graphiques peuvent également être utilisés pour stocker les index mentionnés ci-dessus…

Juste mes deux cents…


Les systèmes de gestion de bases de données spatiales sont très importants dans les SIG (il suffit de regarder ce site pour en avoir la preuve). L'accent a toujours été mis sur les bases de données spatiales basées sur le modèle relationnel. Cependant, il existe de nombreux exemples de modèles de données et d'approches de traitement différents qui peuvent être utilisés :

  • Les données raster utilisent des structures basées sur des matrices.
  • Les index spatiaux utilisent des structures de données arborescentes.
  • L'analyse de réseau utilise des structures de données et des algorithmes liés à la théorie des graphes.

Toutes ces approches ont leur place dans les SIG, et présentent des avantages et des inconvénients. Du point de vue de l'utilisateur SIG, une base de données spatiale est une abstraction qui cache une structure de données et un ensemble d'algorithmes particuliers. Vous n'avez pas besoin de connaître les subtilités de la logique des prédicats pour effectuer une requête de cadre englobant.

Personnellement, je vois l'avenir des bases de données spatiales comme divergent. Nous cachons davantage la technologie sous-jacente et permettons aux utilisateurs de poser plus facilement des questions SIG et de créer des cartes. De bons exemples sont SimpleGeo, les API Google Maps et les tables Fusion. D'un autre côté, nous tirons du code d'autres domaines tels que l'utilisation de R pour l'analyse raster et l'utilisation de bases de données de graphes comme mentionné par dslamb.


L'évolution du SIG

L'histoire de l'utilisation de l'information géographique pour mieux comprendre et résoudre des problèmes complexes remonte au XIXe siècle. En 1832, le géographe français Charles Picquet a utilisé divers dégradés de couleurs sur une carte de Paris pour représenter le nombre de décès dus au choléra, contribuant ainsi au développement de l'épidémiologie. Vingt-deux ans plus tard, le médecin anglais John Snow a poussé ce concept plus loin et a démontré le potentiel de résolution de problèmes des cartes en identifiant le lien entre une épidémie de choléra à Londres et un approvisionnement en eau contaminée.

Aujourd'hui, la science de l'information géographique (SIG) a des applications allant de l'élaboration de stratégies d'initiatives de santé publique à la sélection de sites pour les fouilles archéologiques. Au cours de l'histoire des SIG, les chercheurs, les programmeurs et les analystes n'ont cessé d'innover, développant de nouvelles perspectives et des avancées technologiques. Leurs efforts ont abouti à des outils et des méthodes polyvalents qui renforcent les projets pour une grande variété d'organisations.

L'examen de l'évolution des SIG révèle comment des experts dans de nombreux domaines différents ont découvert la valeur du raisonnement spatial. Les progrès dans des domaines tels que la cartographie open source et la réalité augmentée signifient que les données géographiques ne deviendront que plus importantes dans notre vie quotidienne.


Bases de données spatiales et systèmes d'information géographique

Une introduction est donnée aux problèmes de bases de données spatiales impliqués dans le
conception de systèmes d'information géographique (SIG) dans la perspective d'un
informaticien. Certains des sujets à discuter comprennent

la nature d'un SIG et les fonctionnalités souhaitées dans un tel
systèmes. Les questions de représentation seront également examinées. L'emphase
portera sur les méthodes d'indexation ainsi que sur l'intégration des

données non spatiales. Des démos du navigateur spatial SAND seront affichées
(http://www.cs.umd.edu/

qui illustrent ces idées.

Hanan Samet a reçu le B.S. diplôme d'ingénieur de l'Université
de Californie, Los Angeles et le M.S. Diplôme en recherche opérationnelle
et le M.S. et Ph.D. diplômes en informatique

de l'Université de Stanford, Stanford, Californie. Il est membre de l'IEEE,
ACM et IAPR (International Association for Pattern Recognition), et
a également été élu au Conseil de l'ACM en 1989-1991 où il

a occupé le poste de représentant de la région de la capitale. Il est le récipiendaire du
Prix ​​de recherche UCGIS 2009. Il est actuellement une fondation scientifique de
Irlande (SFI) Walton Fellow au Centre for

Géocalcul à l'Université nationale d'Irlande à Maynooth (NUIM).

En 1975, il rejoint le département d'informatique de l'Université de
Maryland, College Park, où il est maintenant professeur. Il est membre de
le Laboratoire de vision par ordinateur du

Center for Automation Research et a également un rendez-vous dans le
Institut d'études informatiques avancées de l'Université du Maryland. Au
Laboratoire de vision par ordinateur, il dirige un certain nombre de recherches

projets sur l'utilisation de structures de données hiérarchiques pour
systèmes d'information. Son groupe de recherche a développé le système QUILT
qui est un SIG basé sur des structures de données spatiales hiérarchiques telles

comme quadtrees et octrees, le système SAND qui intègre l'espace et
données non spatiales, le navigateur SAND
(http://www.cs.umd.edu/

parcourir une base de données spatiale à l'aide d'une interface utilisateur graphique,
l'applet d'indexation spatiale VASCO (disponible sur
http://www.cs.umd.edu/

Ses intérêts de recherche sont les structures de données, l'infographie,
systèmes d'information géographique, vision par ordinateur, robotique et base de données
les systèmes de gestion. Il est l'auteur du dernier livre

intitulé « Fondements des structures de données multidimensionnelles et métriques »
(http://www.cs.umd.edu/

hjs/multidimensional-book-flyer.pdf) publié
par Morgan-Kaufmann, une empreinte d'Elsevier, en 2006, et de

les deux premiers livres sur les structures de données spatiales intitulés « Design and
Analyse des structures de données spatiales » et « Applications des données spatiales
Structures : infographie, traitement d'images et SIG", les deux

publié par Addison-Wesley en 1990. Il était le co-président général du
15e Conférence internationale de l'ACM sur les progrès de l'information géographique
Systèmes (ACMGIS’07) et la 16e ACM

SIGSPATIAL Conférence internationale sur les avancées en géographie
Systèmes d'Information (ACMGIS’08). Il est le président fondateur de l'ACM
SIGSPATIAL, et reçu

prix du meilleur article lors de la conférence SIGMOD 2008, le SIGSPATIAL 2008
Conférence ACMGIS'08 et 2007 Computers & Graphics Journal. Le sien
papier à l'IEEE International 2009

Conference on Data Engineering (ICDE) a été sélectionnée comme l'une des meilleures
articles pour publication dans IEEE Transactions on Knowledge and Data
Ingénierie.


Système d'information géographique - Logiciel de plateforme SIG : Cartographier l'avenir de la logistique

Le premier véritable système d'information géographique (SIG) opérationnel a été développé en 1960 à Ottawa par le ministère canadien des Forêts et du Développement rural. Développé par le Dr Roger Tomlinson, considéré comme le père de la technologie, il s'appelait le Système d'information géographique du Canada (CGIS) et était utilisé pour stocker, analyser et manipuler les données recueillies pour l'Inventaire des terres du Canada, un effort pour déterminer la capacité des terres pour le Canada rural en cartographiant l'information sur les sols, l'agriculture, les loisirs, la faune, la sauvagine, la foresterie et l'utilisation des terres.

À la fin du siècle, la croissance rapide de divers systèmes avait été consolidée et standardisée sur relativement peu de plates-formes. De plus, les utilisateurs exploraient l'utilisation d'Internet pour visualiser les données SIG. Aujourd'hui, les packages SIG open source gratuits s'exécutent sur divers systèmes d'exploitation qui peuvent être personnalisés pour effectuer des tâches spécifiques. Et les données géospatiales et les plates-formes cartographiques SIG sont mises à disposition via Internet.

Des entreprises comme UPS et GeoMicro ont été à l'avant-garde du système d'information géographique basé sur le Web. Les fondateurs de GeoMicro, qui faisaient partie de l'équipe de développement de logiciels de base d'Esri, ont constaté que tous les produits SIG en cours de développement étaient destinés au déploiement sur ordinateur. Ils n'avaient pas l'évolutivité ni la fiabilité nécessaires pour un déploiement Web 24h/24 et 7j/7. Lorsque GeoMicro AltaMap a été lancé pour la première fois au début des années 2000, il a permis à de nombreuses organisations gouvernementales locales et fédérales de fournir des gigaoctets de données SIG aux utilisateurs Web du monde entier. La marine américaine, par exemple, a facilement adopté GeoMicro AltaMap lorsqu'elle a vu son taux de diffusion de cartes passer de 1 carte toutes les 10 secondes à 10 cartes par seconde ! Lorsque AccuWeather.com a eu besoin d'un serveur de cartes hautes performances pour générer 14 millions de cartes centrées sur l'utilisateur par jour, ils se sont tournés vers GeoMicro. À l'aide de son logiciel de plate-forme SIG AltaMap, GeoMicro a personnalisé un système de production de cartes qui prenait 2 gigaoctets de données météorologiques en direct par heure et les a transformés en cartes météo animées dans 16 styles différents. GeoMicro a également été un pionnier dans les applications d'informations routières. En fait, la première application de trafic en temps réel qui a été déployée sur les réseaux Nextel, Sprint et Verizon en 2004, était alimentée par des serveurs GeoMicro.

Quiconque cherche à entrevoir l'avenir des logiciels de plate-forme de systèmes d'information géographique (SIG) ne devrait pas chercher plus loin que les gens en uniforme marron conduisant les voitures à colis marron. Depuis 2008, UPS Inc. crée un logiciel de routage baptisé «ORION», qui signifie «On-Road Integrated Optimization and Navigation». Avec la télématique de la flotte et des algorithmes sophistiqués, le logiciel est conçu pour optimiser les itinéraires des chauffeurs UPS. Le logiciel évalue plus de 200 000 façons alternatives de fonctionner sur un itinéraire. Le nombre de combinaisons d'itinéraires qu'un conducteur d'UPS peut effectuer en une journée est supérieur au nombre de nanosecondes d'existence de la Terre. D'ici 2017, UPS équipera tous ses chauffeurs nord-américains, qui exploitent plus de 55 000 itinéraires, du logiciel.

Peu de sociétés de livraison ont l'échelle d'UPS. Réduire le temps de conduite d'un conducteur de seulement 1 mile par jour permet à l'entreprise d'économiser jusqu'à 50 millions de dollars. Et il est difficile d'imaginer une entreprise capable de dépenser 1 milliard de dollars par an en technologies de l'information comme le fait UPS. Mais chaque expéditeur, fournisseur ou intermédiaire doit réduire les kilomètres improductifs, gérer les coûts variables, éviter les embouteillages, économiser le carburant et réduire les émissions de carbone tout en respectant ses engagements de livraison. À l'aide d'une combinaison de cartes numériques et de données géoréférencées, le logiciel de systèmes d'information géographique peut synchroniser les mouvements de flotte et les calendriers de maintenance. Une solution SIG correctement conçue et exécutée peut économiser 10 à 30 % des dépenses opérationnelles grâce à la réduction du kilométrage, des heures supplémentaires et du temps de planification des itinéraires. Ceux-ci se traduisent par une consommation de carburant réduite et une empreinte carbone réduite.


Introduction

Les enquêtes évolutives concernent typiquement un changement de génotype par rapport à l'espace, au temps et/ou à l'environnement. Les modèles spatiaux en particulier ont alimenté plusieurs hypothèses et débats évolutifs. Par exemple, les influences relatives de la géographie et de l'écologie sur le processus de spéciation ont longtemps été et restent des questions controversées en biologie évolutive ( Howard & Berlocher, 1998 Coyne & Orr, 2004 ). Des questions telles que : (1) la majorité des espèces sont-elles générées en allopatrie, parapatrie ou sympatrie ? et (2) les toiles de fond environnementales ou les interactions biotiques sont-elles responsables de la divergence des espèces ? sont régulièrement analysés par les biologistes évolutionnistes. Pourtant, de telles analyses sont souvent menées sans la mise en œuvre d'une technologie puissante conçue pour analyser de concert les relations spatiales et environnementales. Les biologistes évolutionnistes ont largement effectué des analyses génétiques quantitatives de la divergence et des évaluations qualitatives de la proximité spatiale d'espèces ou de populations divergentes. On s'est moins concentré sur l'analyse quantitative de l'espace, de l'environnement et aspects génétiques de la diversification. Cela commence à changer avec l'utilisation croissante d'analyses spatiales quantitatives au cours des 5 à 10 dernières années.

Parallèlement à la révolution technologique dans le domaine de la génétique, la géographie a connu sa propre révolution à travers la mise en œuvre de la cartographie et des analyses numériques. En particulier, les systèmes d'information géographique (SIG) ont facilité des analyses puissantes dans de nombreuses disciplines différentes grâce à leur capacité à : (1) intégrer de grandes bases de données avec les emplacements géoréférencés à partir desquels les données ont été collectées et (2) quantifier de manière rigoureuse et efficace motifs. Ces deux propriétés importantes fournies par un SIG ont été assimilées avec succès par les planificateurs civiques, les géologues, les biologistes de la faune, les écologistes et, dans une mesure croissante, les écologistes. L'une des disciplines restantes qui bénéficieront largement de cette technologie puissante est la biologie évolutive. Ici, je passe brièvement en revue le lien historique entre la géographie et la biologie évolutive, présente un historique récent des analyses SIG quantitatives des données spatiales utilisées dans la recherche sur les zones hybrides, la phylogéographie et la spéciation et met en évidence les moyens potentiels d'intégrer davantage les SIG dans ces domaines.

Lien historique entre géographie et évolution

Le lien historique entre géographie et évolution est profond et nombre de nos avancées théoriques originales découlent d'observations de la proximité spatiale de formes étroitement liées ( Darwin, 1859 Wallace, 1876 ). En effet, les distributions géographiques d'espèces étroitement apparentées ont été une source majeure d'hypothèses évolutives concernant la diversification des espèces (par exemple Darwin, 1859 Wagner, 1873, 1889 Wallace, 1876 Jordan, 1905, 1908 Allen, 1907 Mayr, 1963 Remington, 1968 Haffer, 1969 ). Les distributions spatiales intra-spécifiques ont également joué un rôle important dans la génération d'hypothèses évolutives. Un exemple évident de ceci est le travail pionnier de Wright (1943) concernant l'isolement génétique avec la distance. Les travaux de Wright, dont la plupart avaient une composante spatiale, sont rapidement devenus une pierre angulaire de la théorie de la génétique des populations ( Hartl & Clark, 1997 ). Les chercheurs dans ce domaine intègrent désormais rapidement des analyses spatiales quantitatives de plus en plus sophistiquées dans leurs travaux ( Epperson, 2003 ). En fin de compte, le résultat de l'intérêt sous-jacent des biologistes de l'évolution pour les modèles spatiaux a été la tradition des interprétations qualitatives verbales des modèles trouvés dans les cartes publiées des populations ou des aires de répartition des espèces.

Le meilleur exemple, et le plus complet, de notre intérêt de longue date pour les modèles spatiaux en biologie évolutive est peut-être le livre classique d'Ernst Mayr ( Mayr, 1963 ). Il semble clair à l'inspection des travaux de Mayr qu'il a été grandement influencé par les cartes de répartition des espèces et leur utilité pour fournir des informations sur le processus évolutif. Par exemple, sur les 58 figures utilisées par Mayr (1963), 35 (environ 60 %) sont des cartes. La majorité de ces cartes se trouvent dans son chapitre sur la spéciation géographique. Ces cartes ont généralement été utilisées comme support qualitatif de sa thèse centrale de spéciation allopatrique et n'ont jamais été évaluées quantitativement.

En fin de compte, les modèles géographiques à grande et à petite échelle ont joué un rôle clé dans le développement d'hypothèses évolutives. Alors que la biologie évolutive devient plus rigoureuse et quantitative dans ses techniques génétiques et statistiques, elle doit également devenir plus quantitative dans son approche des analyses géographiques. Récemment, certains biologistes évolutionnistes ont adopté le SIG pour effectuer de puissantes analyses géographiques quantitatives et le nombre de publications résultant de cette intégration augmente rapidement (Fig. 1). Cela suggère que non seulement la géographie est toujours au cœur de nombreuses hypothèses évolutives contemporaines, mais que la composante géographique de ces hypothèses peut être traitée quantitativement avec succès à l'aide d'un SIG.

Un histogramme du nombre de publications de zones hybrides, phylogéographiques et de spéciation qui utilisent le SIG jusqu'en 2006. Notez qu'un certain nombre de publications qui peuvent avoir utilisé un SIG pour générer des figures cartographiques peuvent être omis, car les auteurs n'ont pas cité l'utilisation d'un SIG dans leurs méthodes.

Qu'est-ce qu'un SIG et qu'est-ce qu'un modèle de niche prédictif basé sur un SIG ?

Comme pour la plupart des avancées technologiques, le SIG est né de la nécessité de s'attaquer à un nouveau problème. Dans les années 1960, le ministère canadien des Forêts et du Développement rural a reconnu le besoin d'inventorier et d'analyser les terres naturelles à l'intérieur des frontières canadiennes. En réponse, Roger Tomlinson et ses collègues ont conçu un système qui stockerait des informations spatiales et, plus important encore, analyserait et visualiserait les données spatiales ( Tomlinson, 1984 ). Le résultat a été le premier SIG, le SIG du Canada, et le développement des trois propriétés centrales qui définissent maintenant largement un SIG : (1) stockage (2) analyse et (3) visualisation de l'information spatiale ( DeMers, 2000 ).

L'utilité et la puissance d'un SIG dans la recherche biologique résident principalement dans sa capacité à stocker et à analyser simultanément de grands ensembles de données contenant des informations spatialement explicites. Un SIG fonctionne en reliant des tables d'informations appelées les attributs aux points, lignes, polygones ou cellules de grille avec des emplacements spatiaux connus. Par exemple, une seule carte (un couche de carte) peut contenir plusieurs points situés sur le globe, chaque point sur la carte correspondant à une ligne dans une table de données avec plusieurs colonnes d'attributs. Par conséquent, un point a potentiellement plusieurs niveaux d'informations au-delà des simples coordonnées géographiques. Ces niveaux d'information peuvent être cartographiés, interrogés et analysés. De plus, un SIG permet de superposer deux ou plusieurs cartes. Une recouvrir permet au chercheur de déterminer quels attributs d'une carte correspondent à un autre. Par exemple, un fichier de points représentant l'emplacement d'un animal et ses caractéristiques anatomiques pourrait être superposé à une carte numérique des précipitations annuelles. Les données sous-jacentes aux deux cartes sont ensuite liées, ce qui permet des analyses de corrélation des relations trait par environnement. La distance géographique séparant les points de ces analyses pourrait également être déterminée au sein du SIG permettant d'évaluer le degré d'autocorrélation spatiale de leurs données.

Les données spatiales peuvent également être converties d'un format à un autre à l'intérieur d'un SIG. Par exemple, des données ponctuelles unidimensionnelles peuvent être converties en données surfaciques bidimensionnelles à l'aide de diverses méthodes (Fig. 2). Chacune de ces méthodes est facilement reproductible dans un SIG, chacune ayant des hypothèses et des utilisations différentes. Cartes ponctuelles, linéaires et polygonales, appelées cartes vectorielles, peuvent également être converties en cartes quadrillées, appelées cartes raster, à l'intérieur d'un SIG avec chaque cellule de grille ayant une dimension, une localité géographique et une valeur d'attribut connues.

Une série de méthodologies pour convertir des points de dimension zéro en polygones à deux dimensions : (a) une conversion utilisant la latitude et la longitude minimales et maximales pour définir un rectangle (b) une méthode de polygone convexe minimale où les angles internes du polygone sont inférieurs à 180 ° . Cette méthode est aussi parfois appelée enveloppe convexe (c) un polygone au maximum convexe dont les angles internes peuvent être supérieurs à 180 ° et (d) une méthode pondérée en fréquence où un pourcentage des points les plus regroupés est inclus dans un minimum convexe polygone. Dans cet exemple, j'utilise 80% des points les plus proches. Cette méthode repose sur une distribution de fréquence souvent utilisée dans les études de radiopistage alors que les autres sont exemptes de cette contrainte et ne sont donc pas sensibles à l'intensité d'échantillonnage.

Outre les analyses de corrélation, les requêtes et les liens d'attributs, un SIG peut effectuer de nombreuses autres analyses spatiales. Par exemple, un SIG peut générer des cartes raster qui ont des cellules de grille contenant des valeurs qui décrivent le coût de déplacement d'une cellule à une autre. C'est ce qu'on appelle un surface de coût ou un surface de friction. Ce type de technique a plusieurs utilisations allant de l'endroit où construire des routes à ce qui était la voie de dispersion la plus probable hors d'un refuge pléistocène. Les surfaces de coût peuvent être générées à partir de cartes raster existantes, mais elles peuvent également être générées à partir de données vectorielles. Par exemple, un fichier de données de points peut être utilisé pour générer une surface de carte raster via interpolation. Un SIG peut estimer les valeurs des cellules de la grille entre deux emplacements de points connus à l'aide de diverses techniques. L'approche la plus courante est une interpolation basée sur la distance, où la valeur estimée décroît avec la distance par rapport à la valeur au point. Ce type de technique pourrait être, et a été, utilisé pour estimer la distribution spatiale des données climatiques et génotypiques dans une région à partir d'un ensemble de mesures ponctuelles.

Une autre facette puissante de la plupart des plates-formes SIG est qu'elles permettent à l'utilisateur d'écrire des scripts dans une variété de langages de programmation permettant des analyses spécialisées. Les scripts peuvent être effectués pour des choses aussi simples que l'itération multiple d'une analyse SIG existante ou pour des analyses plus complexes telles que la simulation de l'expansion d'une aire de répartition d'espèces. Les deux sont extrêmement puissants en eux-mêmes. L'itération permet des analyses répétées d'un grand nombre de couches cartographiques et les techniques de simulation permettent une prédiction spatiale plus rigoureuse et une modélisation nulle. Je prévois que ce dernier deviendra beaucoup plus important dans la littérature dans les années à venir.

Enfin, je discuterai d'une application SIG particulière qui a été rapidement assimilée à la recherche écologique et évolutive. Cette méthode est appelée modélisation prédictive de niche. Les modèles de niche prédictifs utilisent des localités géoréférencées connues d'une espèce focale et des cartes climatiques raster pour générer une carte de distribution prévue des espèces focales. Il existe aujourd'hui une multitude d'algorithmes qui sont utilisés pour la modélisation prédictive de niche (e.g. bioclim : Nix, 1986 GARP : Stockwell & Nobel, 1992 MaxEnt : Phillips et al., 2006 ) dont certains semblent plus performants que d' autres ( Elith et al., 2006 ). Malgré leurs performances différentielles, ils suivent tous un principe central simple. La méthode consiste à prendre les occurrences ponctuelles géoréférencées connues des espèces focales et à extraire les informations climatiques de chacune de ces localités. L'algorithme utilisera ensuite les informations observées pour déterminer la probabilité qu'une espèce soit trouvée en n'importe quel point le long de chaque axe climatique. Ces informations sont ensuite combinées pour tous les axes climatiques afin de générer une enveloppe climatique prédite dans laquelle l'espèce est susceptible de se produire. Cette prédiction est ensuite projetée sur une région d'étude soit pour l'heure actuelle, soit pour une heure historique lorsque des cartes de toutes les variables climatiques pertinentes sont disponibles (Fig. 3).

Un exemple très simplifié d'un modèle de niche prédictif basé sur le SIG. En haut à gauche se trouve une couche cartographique des occurrences ponctuelles connues de l'organisme focal (points gris). Ces points sont ensuite superposés à une série de cartes climatiques raster. Dans ce processus, l'algorithme du modèle détermine où l'organisme est connu pour se produire le long de chaque axe climatique. Ces informations sont ensuite utilisées pour générer un modèle multidimensionnel, régner, de la probabilité d'occurrence de l'organisme le long de chaque axe (partie médiane). Cette règle est ensuite utilisée pour estimer où l'espèce peut être présente dans la région d'étude. Il existe deux types d'erreur qui peuvent se produire dans ce processus qui ne sont pas illustrés ici. Le premier est l'erreur d'omission lorsque l'espèce est prédite comme absente par le modèle alors qu'elle est connue pour se produire à cet endroit à partir des données observées. Les taux d'omission sont généralement très faibles (<0,05%) dans la plupart des modèles. Le deuxième type d'erreur est l'erreur de commission lorsque l'espèce est prédite présente dans des endroits où elle n'est pas réellement présente. Ce type d'erreur est difficile à détecter à moins qu'une partie de l'ensemble de données d'occurrences connues ne soit omise de la formation du modèle. Ces données omises peuvent ensuite être utilisées pour tester les taux d'erreur de commission.

Alors que nous nous intéressons à la carte de répartition prévue qu'un modèle de niche générera, nous devons également quantifier la précision de la prévision et les variables climatiques les plus importantes pour déterminer les aires de répartition des espèces. Pour ce faire, les chercheurs excluront souvent la moitié de leur ensemble de données connues (données climatiques ou données d'observation ponctuelle) du processus de modélisation et l'utiliseront comme ensemble de données indépendant pour tester la précision prédictive du modèle. Ces ensembles de données exclus sont appelés tester des ensembles de données. Les modèles de niche prédictifs se sont généralement avérés efficaces pour prédire la présence de points de données de test. Ils ont donc tendance à avoir un faible nombre de faux négatifs ou erreurs d'omission. À l'inverse, les modèles de niche prédictifs surprédisent souvent l'aire de répartition d'une espèce. Ces faux positifs sont appelés erreurs de commission. Les erreurs de la Commission peuvent provenir d'obstacles historiques à la dispersion ou d'interactions biotiques négatives qui ne sont pas toutes deux incorporées dans les modèles de niche. Les véritables erreurs de commission peuvent être difficiles à détecter si l'ensemble de données de test est géographiquement limité à une partie seulement de l'aire de répartition des espèces réalisée. Ainsi, l'utilisateur de modèles de niche prédictifs doit discerner par lui-même quel est un taux d'erreur de commission acceptable. Dans certains cas, une grande quantité de commission peut être souhaitée en raison d'un ensemble de données géographiquement restreint, tandis qu'à d'autres moments, le même taux de commission peut ne pas être souhaité. Certains modèles de niche prédictifs sont connus pour avoir de faibles taux d'erreur de commission (c'est-à-dire MaxEnt), tandis que d'autres ont des taux d'erreur de commission élevés (c'est-à-dire GARP) lorsqu'ils sont utilisés sur le même ensemble de données. Cela a conduit certains à conclure que MaxEnt peut être un modèle de niche préféré ( Elith et al., 2006 ), mais cela pourrait être débattu si l'utilisateur souhaite des taux de commission élevés. Cet aspect des modèles prédictifs de niche est à la fois un atout et une complication pour diverses questions de recherche (voir Orientations et défis futurs). Il est conseillé à l'utilisateur de consulter la littérature sur la modélisation de niche afin d'affiner ou d'améliorer son choix, sa mise en œuvre et son interprétation de modèles de niche alternatifs.

Dans les sections suivantes, je discuterai d'exemples de SIG et de modèles de niche basés sur les SIG utilisés dans la recherche évolutive. Les exemples de modèles de niche basés sur SIG utilisent l'algorithme bioclim pour prédire la distribution des espèces. La raison de ce biais est que bioclim était le modèle de niche original utilisé dans ces domaines et a été traditionnellement le plus largement utilisé. Des preuves récentes ont suggéré que des modèles alternatifs (c. et al., 2006 ). Ainsi, mon utilisation des exemples de bioclim est due à l'historique de son utilisation dans ces domaines et non à ma promotion de bioclim comme algorithme préféré.

L'intégration récente des SIG dans la biologie évolutive

Zones hybrides

L'importance relative des forces intrinsèques par rapport aux forces extrinsèques dans la détermination de l'emplacement et du maintien des zones hybrides a été un sujet prédominant dans la recherche sur les zones hybrides à travers le temps. Il y a une composante spatiale évidente à cette ligne d'enquête car la plupart des hypothèses font des prédictions claires concernant la distribution des zones hybrides dans l'espace et leur relation, ou leur absence, avec les gradients spatiaux dans l'environnement. Par conséquent, il n'est pas surprenant que l'intégration du SIG dans la recherche sur les zones hybrides à ce jour se soit concentrée sur la question de savoir quels sont les facteurs intrinsèques et extrinsèques importants pour déterminer l'emplacement et le maintien des zones hybrides.

L'histoire de l'intégration des SIG dans la recherche sur les zones hybrides a commencé avec Kohlmann et al. (1988) . Dans leur étude, Kohlmann et al. a tenté de tester si les forces extrinsèques pouvaient expliquer l'emplacement des limites de distribution parapatriques parmi les races chromosomiques au sein de la sauterelle australienne, Calédia captiva. Pour ce faire, ils ont utilisé l'un des modèles de niche prédictifs originaux développés à l'origine au milieu des années 1980, appelé bioclim ( Nix, 1986 ). Les auteurs ont utilisé le bioclim et les ordinations pour montrer que les précipitations limitaient les distributions des races sur un axe est-ouest et la température limitait les distributions sur un axe nord-sud. Un message global de ce travail est qu'il peut être démontré que les emplacements des zones hybrides sont régis par des facteurs extrinsèques à l'aide de modèles de niche prédictifs basés sur les SIG. De plus, les analyses de modèles de niche peuvent générer de nouvelles hypothèses concernant la physiologie des espèces constitutives des zones hybrides.

Malgré les travaux intéressants de Kohlmann et al. (1988) , plus d'une décennie s'est écoulée jusqu'à ce que Kidd & Ritchie (2000) relance l'intégration du SIG dans la recherche sur les zones hybrides. Le problème évolutif qui se posait dans cette ligne de recherche était de savoir si les zones hybrides dans le Ephippiger ephippiger résultat complexe d'une divergence primaire ou d'un contact secondaire entre des populations se développant à partir de refuges ? Les modèles spatiaux prédits par la divergence primaire par rapport au contact secondaire dans cette étude ont considéré la concordance spatiale des allozymes et des traits morphologiques et comportementaux. Il a été prédit que les allozymes et les traits seraient plus dissemblables dans la zone hybride, si le contact secondaire était le mécanisme responsable. L'idée de base est que les espèces devraient être génétiquement plus dissemblables dans une zone hybride, par rapport aux populations de zones non hybrides, si elles ont divergé en allopatrie. Si elles ont principalement divergé dans la zone hybride, alors les populations de la zone hybride devraient être génétiquement plus similaires que les populations de la zone non hybride. L'approche utilisée par Kidd et Ritchie s'est concentrée sur l'utilisation des trois principaux attributs d'un SIG : le stockage, l'analyse et la visualisation des données et représente donc une approche SIG plus prototypique par rapport à la modélisation de niche prédictive basée sur le SIG. Plus précisément, ils ont utilisé un SIG pour attribuer des traits et des attributs génétiques à des populations géoréférencées. The GIS was then used to interpolate trait and genetic data between populations to generate a continuous data surface. The interpolation method that they used in this initial work was a distance-based method where the closer the predicted grid cell is to a known population in Euclidean distance, the more similar the predicted value for that cell is to that of the known population. Therefore, a grid cell lying precisely between two known populations with two separate trait values will have the average value of those two populations. The authors iterated this interpolation method for each trait. These trait maps were used to show that some traits showed dissimilarity in the hybrid zone thereby supporting the secondary contact hypothesis. Next the trait maps were used in a Principle Components Analysis, an analysis that is now easily implemented in most GIS software packages, in order to generate multivariate maps that could be analysed for discontinuities. This multivariate approach found general support for the secondary contact hypothesis by showing parental populations outside of the hybrid zone clustered in multivariate space. As noted above, the GIS work carried out by Kidd and Ritchie is a more classical approach taking full advantage of everything a GIS can provide a research programme.

Phylogeography

The field of phylogeography has seen the largest degree of GIS usage to date as compared to hybrid zone and speciation research. Phylogeography is by definition a spatial discipline. Thus, it is logical that researchers in the field should be prone to taking advantage of GIS not just for making maps, but also for storing and analysing spatial data. Indeed this is quickly becoming the case, prompting expanded discussions of what a ‘phylogeographic information system’ would entail ( Kidd & Ritchie, 2006 ). By providing a platform for spatial analyses, GIS software will permit the field of phylogeography to move into a more quantitative realm in regards to central questions such as the prevalence of phylogeographic concordance and inferring historical refugia and expansion routes. Here I discuss two separate examples that I feel best represent the breadth, but not the depth, of GIS being incorporated into phylogeographic research. Unfortunately, this results in the omission of extended discussions of other equally important examples of GIS usage in phylogeography (e.g. Kambhampati et al., 2002 Rice et al., 2003 Martínez-Meyer et al., 2004a,b Peterson et al., 2004 Davis, 2005 Armstrong, 2006 Bond et al., 2006 Rissler et al., 2006 Weaver et al., 2006 ). I apologize in advance for their omission. The first example I will discuss uses a GIS-based predictive niche model to examine palaeodistributions. The second example I will discuss uses a GIS to generate and store large phylogeographic break databases for spatial analyses of clustering.

An initial example of a GIS being utilized in phylogeographic research comes from one of the many exciting articles analysing species divergence along gradients in the Australian Wet Tropics ( Schneider et al., 1998, 1999 Schneider & Moritz, 1999 Moritz et al., 2000 ). To my knowledge the system in this region that has received the most thorough GIS-based analysis is that of the land snail Gnarosophia bellendenkerensis ( Hugall et al., 2002 ). Hugall and colleagues address a question that is well represented in the literature. That is, how have species responded to various palaeoclimates and can this information be used to understand the mechanisms generating intra-specific divergence that lead to speciation? In this article, the authors argue that spatially explicit quantitative analyses would provide a substantial advance in phylogeographic research programmes. In support of their argument, the authors used the predictive niche model bioclim ( Nix, 1986 ) to build a climatic envelope for their study organism using contemporary data. This climatic envelope was then projected onto a reconstructed palaeoclimate at three different points in time for their study region in order to predict where the focal species would have been distributed. This approach makes the potentially very tenuous assumption that physiological constraints have remained largely stable through time. The results showed a substantial reduction and fragmentation of the range of the species during the Last Glacial Maxima suggesting the presence of multiple refugia. A combined investigation of the bioclim models and a nested clade analysis indicated a fair amount of overlap in the distributional analyses generated from each analysis. Lastly, the authors quantified the correlation between the change in area predicted to be occupied by their study organism through time and a likelihood estimate of the exponential growth parameter from their genetic data. This quantitative analysis found a fairly strong positive association (r = 0.76) suggesting the spatial modelling and phylogenetic analyses were complimentary. This synergism between a predictive niche model and phylogenetic analyses is promising and suggests further analyses testing this approach may prove informative in trying to discern the location and influence of refugia in generating intra-specific divergence and speciation. Despite this promise, there are several conceptual issues that may face this approach including the lability of physiological tolerances and biotic interactions through long periods of time, the inherent difference between an observed realized niche and the potential fundamental of a species and the reliability of predicted historical climate. I will discuss these issues further below.

A second example of GIS being incorporated into phylogeography comes from a comprehensive spatial analysis of phylogeographic break clustering performed by Soltis et al. (2006) in the eastern United States. In this work, Soltis et al. (2006) performed an exhaustive literature search and then sub-sampled the phylogeographic breaks reported in the literature and mapped their presence as lines in a GIS. The goal of this exercise was to first quantify whether or not phylogeographic breaks show higher densities in some regions of the study region and second to quantify whether these areas of clustering coincide with prominent features of the landscape. To do this, they used a GIS function that calculated the number of lines, representing the phylogeographic breaks, within grid cells throughout their study region. Next, they performed a spatial null modelling procedure that threw down the observed lines at random onto the study region so that their observed length and shape were maintained. Their observed spatial position and orientation of the lines was not maintained. This was repeated 20 times and the authors quantified whether or not the observed grid cell had a density of phylogeographic breaks that was higher than expected given the random distribution. They found that only one grid cell, located in the middle of their study region, had a higher than expected number of breaks. The authors considered this to be evidence for ‘pseudo-congruence’ of phylogeographic breaks ( Cunningham & Collins, 1994 ), because the observed grid cells generally did not show significant clustering when confronted with a randomization test, the breaks were not all aligned in the same cardinal direction and the grid cell that did show significant clustering did not coincide with any obvious physiographic feature of the landscape. The first two justifications are surely valid, yet it is still unclear how one actually quantifies the generality of phylogeographic break orientation within a study region. The third line of evidence for phylogeographic pseudo-congruence will need further exploration as phylogeographic concordance would be expected to occur at geographic mid-points between glacial refugia, even if there is a general lack of a physiographic feature in the region. An example of this is the Gulf Coast of the southeastern United States ( Swenson & Howard, 2005 ). Despite this minor point of contention, which becomes less important when the other two lines of support are present, the recent work of Soltis et al. (2006) far exceeds any analysis of phylogeographic concordance to date. Not only is the data set much more comprehensive than previous analyses, but it also conceptually advances the field greatly by introducing to my knowledge the first spatial null modelling procedure to test for phylogeographic concordance. Such null modelling analyses should become a central component in quantitatively testing for phylogeographic concordance in the future.

Speciation

The use of a GIS to study speciation has been rare. This is surprising, considering the substantial debate surrounding the relative importance allopatric, parapatric and sympatric speciation in generating biodiversity. Therefore, I will discuss the few examples of which I am aware. The preexisting research articles that have used a GIS to study speciation have used similar approaches to those used to study phylogeography that I have described above. Because the approaches have been similar and because phylogeographic and speciation research can be so tightly linked I had difficultly placing preexisting work into one of the two categories. None-the-less, below I discuss two examples that I feel have a strong speciation component.

The first example stems from the use of the GIS-based predictive niche model bioclim ( Nix, 1986 ). Building upon preexisting techniques for determining the geographical mode of speciation from the amount of range overlap between closely related species ( Lynch, 1989 Chesser & Zink, 1994 Barraclough et al., 1998 Barraclough & Vogler, 2000 ), Graham et al. (2004a) used bioclim to further investigate the amount of ecological overlap between five species of Dendrobatid frogs in Ecuador and thereby attempted to determine the mechanisms responsible for speciation within this clade. Specifically the authors used bioclim models to predict the geographical ranges of the focal species and their ancestors to infer the geographical mode of speciation by quantifying range overlap. Next, the authors used the climatic envelopes generated for each species by bioclim and performed a Principle Components Analysis to determine the degree of overlap amongst closely related species in multivariate environmental space. Of the seven sister comparisons in the study, the authors found that four sister lineages separated in multivariate environmental space. Two of these cases suggested ecological divergence while in allopatry and two suggested ecological divergence while in parapatry. Although this method of inferring geographical modes of speciation from range overlap of closely related species can be problematic (see Losos & Glor, 2003 ), the relatively novel approach used by Graham et al. (2004a) for determining ecological overlap between closely related species (see also Peterson et al., 1999) provided potential insights into the prevalence of ecological divergence in the process of speciation. In this regard, it is a good first step towards using a GIS to better understand modes of speciation.

Although this was a good first step, future research will be needed that explicitly confronts the conceptual issues raised by Losos & Glor (2003) regarding inferring speciation patterns from ranges (Fig. 4). Further, we will also need to confront the conceptual problem that it may not be possible to know the fundamental niche of a species from a GIS-based niche model that uses observational data representing the realized niche. It is well known, and well described in basic ecology texts, that the observed distribution of a species does not necessarily describe its entire potential niche and therefore its potential distribution. Processes such as negative biotic interactions and historical contingencies, can limit the distribution of a species. While this issue is often paid lip service in the literature, it is generally not adequately confronted. I believe this is the most substantial issue facing the field of GIS-based niche modelling. For example, imagine a sister species pair where one species competitively excludes the other from its range due to an earlier colonization of the region. Thus the late colonizer is restricted to an alternative habitat. If this early colonizer was removed, the sister species could potentially occupy both habitats due to a shared preference. Thus the observed distributional data show that the sister species occupy dissimilar habitats when in actuality one could potentially occupy both habitats. An example of this is provided in Fig. 5. Ultimately, this hidden layer of complexity would cause a niche modeller to erroneously conclude that these species had diverged ecologically when in fact they had not. There is no easy way around this problem without explicit experimental investigations of the fundamental niche.

A graphical model of how geographic range overlap between sister species allows for prediction of the geographical mode of speciation as presented by Berlocher (1998) . The bottom panel shows that such analyses can often produce ambiguous results and therefore should be approached with caution ( Losos & Glor, 2003 ).


Geographic Information Systems (GIS) Now & Future: Question & Answer

In today’s day and age, geospatial tools have become ubiquitous in our society. Geographic Information Systems (GIS) are now commonplace in many communities and organizations. This said, questions still remain in GIS and non-GIS circles. How do you explain what GIS is to the uninitiated? What barriers still remain to further GIS adoption? What is the future of GIS?

To help answer some of these questions, Aerial Services asked their friends at Midland GIS Solutions (http://www.midlandgis.com) to address current issues in GIS and provide readers some ammo when explaining GIS’ role & importance. Matt Sorensen, Midland GIS’ Vice President, offered his views on a variety of issues posed by Aerial Services’ Marketing Manager, Joshua McNary.

Joshua McNary, Aerial Services (ASI):
If Martians landed in your parking lot and asked “what is GIS,” how would you explain it to them? Many in local government and elsewhere need a concise and non-technical definition.

Matt Sorensen, Midland GIS Solutions (MGIS):
GIS, or Geographic Information Systems, provide detailed information about individual places, objects and features on the Earth’s surface. GIS provides knowledge about where something is and what is at a given location.

ASI:
For those just getting started, what are the largest barriers to creating a new GIS?

MGIS:
Typical barriers include cost. Cost is always at the forefront of the decision-making process to develop a GIS program. It is our goal to show potential clients the real value of GIS and how, when developed properly, their GIS program can increase their overall efficiency and end up saving them money.

Another common barrier is the leap from existing paper and ink mapping, or no mapping program at all, to a fully functioning GIS program. For many it is a big step to accept and embrace the new technology.

ASI:
For established users, what are the greatest challenges to reinventing/growing their GIS?

MGIS:
For established users, the biggest challenge I can see is staying on the forefront of the newest GIS technology. It is important to remain properly trained to implement and maintain new GIS software and databases.

ASI:
Most of our readers use GIS for at least basic asset management, but what other kind of infrastructure and resources can be tracked? What “outside the box” uses have you have seen?

MGIS:
GIS is a very powerful application that can be used to analyze any type of data. Cities will use GIS for capital improvement planning, economic development, and planning and zoning. Counties can quickly identify comparable properties and graphically display land values to determine fair assessment practices.

ASI:
Who are some of the typical end-users of GIS ? What are the most unique end-users of systems you have seen?

MGIS:
End users include mappers (typically in counties), utility superintendents and public works departments. One of the most unique end users has been the St. Joseph, MO school district superintendent for the purpose of tracking student movement within school districts and using the GIS for site analysis and selection to find a location for a new school.

ASI:
Talk about spatial accuracy in GIS. Why is it important and what are the key elements within the system to ensure it?

MGIS:
Spatial accuracy in a GIS mapping program is extremely important, especially when you’re working with property boundaries and utility locations. Many GIS programs reference digital Orthophotography as the base layer for all other subsequent data layers. If the spatial accuracy of the Orthophotography is off, it can seriously affect the accuracy of other data layers in the GIS. Mapping and survey grade GPS units can also assist with ensuring spatial accuracy in GIS.

ASI:
Professional aerial photo firms historically have had certified Photogrammetrists to ensure accuracy, should GIS professional also have a parallel certification structure to ensure quality services?

MGIS:
GIS technology is becoming more widely used and implemented across the world. Certification for GIS professionals would be an excellent way to ensure a standard of quality services for the end users.

ASI:
With GPS-enabled devices showing up in everything from mobile phones to dog collars, how do you see GIS being integrated with the ever-growing GPS market?

MGIS:
On one hand, GIS will continue to grow with the GPS market as people with GPS capabilities need a way to graphically display their collected data. On the other hand, accuracy is the cornerstone of developing a successful GIS program. An accurate GIS program that displays GPS collected data is only as accurate as the data that is collected.

ASI:
What forthcoming developments in GIS technologies and software we should be aware of?

MGIS:
The implementation of server-based GIS allows GIS users to share their data to any number of users through the internet. Web-based GIS is becoming widely used and not only allows the end-user quick and easy access to the GIS data, but also to the public.

ASI:
Web GIS tools have become more popular in recent years, what are their current advantages and limitations?

MGIS:
Web-based GIS is playing a big part in the future of sharing GIS data. Web-based GIS allows any number of people, with limited GIS knowledge, access to GIS information over the Internet. It provides access to GIS data 24 hours a day from any computer with an Internet connection. There are currently limited editing capabilities with web-based GIS. However, this is quickly changing with the introduction of server-based web applications.

ASI:
Do you have any closing thoughts regarding GIS? What else should our readers be aware of?

MGIS:
GIS is a very powerful tool for mapping, asset management and analysis of geographical features and locations. It is important to be sure that your GIS program is developed with the future in mind. Using the proper methods and research to develop your GIS will ensure that the program has a solid foundation to evolve with your growing community or organization.


Beginnings of Spatial Analysis

The first documented application of what could be classed as a GIS was in France in 1832. French Geographer, Charles Picquet created a map based representation of cholera epidemiology in Paris by representing the 48 districts of Paris with different halftone colour gradients, an early version of a heat map. The map, published in the report, Rapport sur la marche et les effets du choléra-morbus dans Paris, is likely the first use of spatial analysis in epidemiology.

1832 shaded map showing cholera deaths per thousand inhabitants for each of the 48 districts in Paris by Charles Picquet.

A similar situation led to John Snow depicting cholera deaths in London using points on a map in 1854. The Snow map was important because it was not just a presentation of data. An attempt was made to present an argument developed from a spatial analysis of data displayed on the map and it is oft cited as one of the earliest examining of geographic inquiry in epidemiology.

John Snow’s 1854 Cholera Map.

The next significant step in the development of modern geographic information systems was in the early 20 th century. A printing technique known as photzincography was used to separate out layers from a map. Vegetation, Water and developed land could all be printed as separate themes. Whilst giving the appearance of being a GIS this does not represent a full GIS as there is no opportunity to provide an analysis of the mapped data.


Spatial Databases

Wetland environments are amongst the most dynamic landscapes of Europe. Because of their distinct geomorphological characteristics, they are strongly susceptible for changes in climate, demography, economy and politics. At the same time, these regions reflect areas of long-term human-landscape interactions and outstanding preservation conditions. Large parts of the northern and western Netherlands can be regarded as typical examples of such wetlands. After becoming covered by vast peat marshes over time, these areas were largely reclaimed during the last millennium, which has resulted in a typical landscape consisting of polders and elaborate water-management systems (e.g. canals, dikes, fenlands). This is especially true for the western wetlands, which also are part of the delta of two of the largest European rivers, the Rhine and Meuse.

In this area, processes of flooding, fluvial activity and sea-level changes have greatly influenced the landscape, resulting in a very dynamic environment for local inhabitants. Already in the Middle Ages (ad 1050–1500), elaborate organisations and hydraulic systems were set up in these parts in order to ensure water safety and promote water drainage. Through time, these organisations, the so-called waterboards, have greatly influenced the spatial layout of these wetlands and, in doing so, collected huge amounts of data on water management. For the first time, recent digital developments in geosciences and humanities allow us to diachronically unravel the complex interplay between natural and cultural dynamics in such wetlands.

In this paper, we present a Historical Geographical Information System (HGIS) designed for modelling heritage in wetland areas. The HGIS specifically focuses on water-management systems in the wetlands of the western Netherlands. We show that (1) our HGIS and GIScience methodology facilitates an integrated and multi-proxy approach towards studying historical water-management systems, and (2) the developed system is highly suited for unravelling the complex interplay and interdependencies between drainage systems, waterboards and engineering works. Additionally, it becomes clear that by combining information on the past with the present, the HGIS is an extremely useful tool for modern-day policymaking facing future challenges.


Strategies to overcome obstacles

Below are some suggested strategies to overcome the obstacles discussed above. Unfortunately, some of these obstacles have no quick and easy solutions – they will require a concentrated effort, time and money.

One way of approaching data problems is to set up a pilot program. A pilot program would have several benefits including: showing decision makers what is possible working out problems on a small scale before launching a program nationwide determining costs for collecting data or converting if from analog format. A good first step would be to canvas other government departments for ditigal data. Often the forestry, mining, and/or natural resource departments are more advanced and have good GIS datasets and may be willing to collaborate and share data.

One particular problem relates to weather data. Typically these data are collected at established weather stations and these are not always appropriate for use in understanding malaria. There are two options if this is the case. One involves interpolating/extrapolating the data by using special tools found in a GIS. This is not a very good solution because it tends to not be very accurate, particularly if there are large variations in the data (rainfall or temperature). The second option is to add more stations. This provides more accurate data but cannot be retrospective and takes time to accumulate the necessary data to perform analyses. A third possibility is to use indicators of weather conditions relevant to malaria transmission, such as rainfall, using remotely sensed data, generally satellite.

If the data exist on paper but not digitally, they can be converted to digital format by hand digitising or automated scanning. Hand digitising is labour intensive, but the equipment costs are low requiring only a digitizing table. The technology has been around for several decades and is simple and easy to use. Automated scanning is far less labour intensive, but it requires more sophisticated hardware and software. First, it requires a large format scanner that can scan A1 or A0 sized paper maps. Such scanners can be expensive and generally cost more than a computer. Second, some special purpose software is needed to convert the scanned image into GIS compatible format. The software to do this task is not overly complicated, but can cost upwards of US$1,500. Depending on the number of maps that must be scanned, this process can be contracted out for less cost than buying a scanner and software.

One critical issue involved in digitising is to make sure that the base maps used for digitising have basic information such as projection, origin (north arrow), scale, source of data, legend, date, author. While this may seem to be a minor concern, our experience suggests that many maps do not have the necessary information to make them useful in a GIS environment. A map without a projection or scale can be scanned using the process described above, but it must be adjusted or matched with other data to determine the projection/scale and this can be a technical, tedious and time-consuming process. Date of map may be important if it shows characteristics which may change relatively rapidly, such as population distribution or land cover/ use.

One data problem that is particularly difficult to deal with involves the movement of people – imported malaria from one district to the next. While there may be some data available from the census, it is usually too old or not done frequently enough to be useful for malaria research. The primary option is for health officers to conduct special surveys to determine the movement of people. While this can result in accurate data, it cannot be used historically and takes time and money to collect. This may be a part of a pilot study.

La technologie

The main technological issue involves acquisition of multiple copies of GIS software. There are a couple of proposed solutions to this problem. First is to get HealthMapper introduced into the country. It is freely available, is relatively easy to use and is bundled with relevant data. There have also been training packages developed using HealthMapper specifically geared to those working in malaria control (see http://www.malaria.org.zw).

A second proposed solution is to use a combination of commercial software and public domain software together – like ArcView and ArcExplorer. Both of these software packages are produced by ESRI and they are compatible in terms of data formats and the "look and feel" of the program. The main office can take the data collected by the field offices, create maps and perform sophisticated analyses and then send them back to the field offices where they can be displayed and examined. With a developed routine for analysis the feedback could be rapid and useful in focusing attention and resources on emerging problems An added advantage of this strategy is that field personnel get to start using a very simple mapping package that operates in much the same way as the full-featured ArcView. Once funds are available to upgrade to ArcView, there are fewer problems with learning how to use new software and with incompatible file formats.

Methodology

It may take some time before the methodological issues discussed above are resolved. In the meantime, what can be done? Before a great deal of effort is spent on collecting data and setting up a GIS, some thought should be given as to what is to be accomplished. As noted by Yeh [54], the technical considerations often tend to receive more attention with less effort or thought given as to what analysis needs to be done. Another common problem is to focus too much on data collection. Often just mapping malaria incidence/prevalence is not sufficient. There is a need for more in-depth analysis that often requires different expertise (not that of a GIS technician). It is critical to have someone who is trained (or has skills) in GIS/spatial analysis and malaria. Having expertise in just one of these areas in not enough. There should be an overall strategy to using GIS. While the strategy might begin with data collection and acquisition of GIS software, it must also include the types of analysis that need to be done and how those analyses might be interpreted.

There are many areas where GIS can be used in controlling and understanding malaria and the most promising one is to speed up the time it takes to get field data converted into malaria incidence/prevalence maps. The move to a real-time system would be very helpful in allocating limited resources for mosquito control. At present the maps provide an indication of where there have been cases of malaria – but usually too much time has passed for these maps to be useful in mosquito or disease control.


Spatial analysis and GIS in the study of COVID-19. A review

Cette étude a comporté une revue de 63 articles scientifiques sur l'analyse géospatiale et spatio-statistique de la dimension géographique de la pandémie de maladie à coronavirus 2019 (COVID-19). La diversité des thèmes identifiés dans cet article peut être regroupée dans les catégories suivantes de cartographie des maladies : analyse spatio-temporelle, géographie sanitaire et sociale, variables environnementales, exploration de données et cartographie en ligne. La compréhension de la dynamique spatio-temporelle de COVID-19 est essentielle pour son atténuation, car elle aide à clarifier l'étendue et l'impact de la pandémie et peut faciliter la prise de décision, la planification et l'action communautaire. La géographie de la santé met en évidence l'interaction des responsables de la santé publique, des acteurs concernés et des premiers intervenants pour améliorer les estimations de la propagation de la maladie et des probabilités de nouvelles épidémies. Les tentatives de corrélation interdisciplinaire examinent les interventions des politiques de santé pour l'implantation des services et contrôles sanitaires/sanitaires, la cartographie/le suivi des mouvements humains, la formulation de réponses scientifiques et politiques appropriées et la projection de la diffusion spatiale et des tendances temporelles. Cette revue conclut que, pour lutter contre le COVID-19, il est important de relever les défis dans une perspective interdisciplinaire, avec une planification proactive, une solidarité internationale et une perspective mondiale. Cette revue fournit des informations et des idées utiles qui peuvent étayer les futures requêtes bibliographiques, et sert également de ressource pour comprendre l'évolution des outils utilisés dans la gestion de cette pandémie mondiale majeure du 21 siècle. On espère que ses conclusions inspireront de nouvelles réflexions sur la pandémie de COVID-19 par les lecteurs.

Mots clés: COVID-19 Data mining and web-base Geographical dimensions Health geography Interdisciplinary correlation Spatiotemporal analyst.

Copyright © 2020 The Author(s). Published by Elsevier B.V. All rights reserved.

Déclaration de conflit d'intérêts

Déclaration d'intérêts concurrents Les auteurs déclarent qu'ils n'ont pas d'intérêts financiers concurrents connus ou de relations personnelles qui auraient pu sembler influencer les travaux rapportés dans cet article.