Suite

Erreur ArcGIS JavaScript API 3.13 avec la fonction Measurement setTool()


Lors de la mise à niveau vers 3.13, le code suivant pour désactiver l'outil de mesure renvoie une erreur :

mesure.setTool("distance", false);

Voici l'erreur :

Uncaught TypeError : impossible de lire la propriété 'domNode' d'undefined

Lorsque je repasse en 3.12, cela fonctionne très bien. Je pense que c'est un bug de la 3.13, mais je voulais voir si quelqu'un d'autre l'avait rencontré ?


Le problème était que lesetTool()méthode a été appelée avantCommencez(). Il semble qu'à partir de 3.13 vous devez appelerCommencez()avantsetTool().

Mon application a été conçue de manière à ce quesetTool()était appelé pour désactiver l'outil de mesure, même s'il n'était pas actif. Avant 3.13, cela fonctionnait bien, mais il semble que cela ait changé.


5 réponses 5

Votre fonction LMSInitialize est déclarée dans la fonction Scorm_API_12. Il ne peut donc être vu que dans la portée de la fonction Scorm_API_12.

Si vous souhaitez utiliser cette fonction comme API.LMSInitialize("") , déclarez la fonction Scorm_API_12 comme ceci :

Pour plus générique des conseils sur le débogage de ce genre de problème MDN ont un bon article TypeError : "x" n'est pas une fonction :

Il a été tenté d'appeler une valeur comme une fonction, mais la valeur n'est pas réellement une fonction. Certains codes s'attendent à ce que vous fournissiez une fonction, mais cela ne s'est pas produit.

Peut-être qu'il y a une faute de frappe dans le nom de la fonction ? Peut-être que l'objet sur lequel vous appelez la méthode n'a pas cette fonction ? Par exemple, les objets JavaScript n'ont pas de fonction map, mais l'objet JavaScript Array en a.

Fondamentalement, l'objet (toutes les fonctions dans js sont également des objets) n'existe pas là où vous le pensez. Cela pourrait être pour nombreux les raisons comprenant(liste non exhaustive) :


Vous pouvez utiliser une méthode Web et Ajax :

Remarque : dans la fonction JS lorsque vous appelez votre fonction de page CS. prénom du projet puis nom de l'espace de nom de la page CS puis nom de la fonction

Une approche moderne consiste à utiliser ASP.NET Web API 2 (côté serveur) avec jQuery Ajax (côté client).

Comme les méthodes de page et les méthodes Web ASMX, l'API Web vous permet d'écrire du code C# dans ASP.NET qui peut être appelé à partir d'un navigateur ou de n'importe où, vraiment !

Voici un exemple de contrôleur d'API Web, qui expose des méthodes d'API permettant aux clients de récupérer des détails sur 1 ou tous les produits (dans le monde réel, les produits seraient probablement chargés à partir d'une base de données) :


Vous voulez savoir si Google est là?

После того как вы добавите на сайт любой из приведенных выше тегов отслеживания, в Google Аналитику будет отправляться обращение pageview при каждом посещении ваших страниц. то позволит вам получать ажную статистику, том исле следующие оказатели:

  • общее время нахождения ользователя на вашем сайте
  • ремя ребывания пользователя на каждой из страниц и порядок их посещения
  • сведения о внутренних ссылках, на которые нажимал пользователь (определяются по URL следующего обращения pageview).

Кроме того, по IP-адресу, строке агента пользователя и данным первоначального анализа страницы, выполняемого скриптом analytics.js при создании нового объекта отслеживания, определяются в том числе следующие параметры:

  • еографическое естоположение ользователя
  • используемый им браузер и операционная система
  • Utiliser Flash et Java
  • сайт-источник ерехода.

Redimensionnement des données pour créer une fonction &ldquocontinuous&rdquo

J'ai acquis de nombreux ensembles de données, qui représentent tous une seule fonction, mais qui sont redimensionnés de manière aléatoire par une constante (en raison des spécificités de la mesure). Je cherche à les assembler efficacement en tant que fonction continue en redimensionnant chaque ensemble de données, mais cela s'est avéré difficile car leurs plages ne se chevauchent pas toujours. Idéalement quelque chose comme :

Où l'échelle absolue résultante n'a pas d'importance, mais les caractéristiques structurelles sont importantes.

La solution évidente est d'interpoler/extrapoler les courbes voisines, et de minimiser les différences entre voisins. Cependant, je n'ai pas réussi à faire en sorte que cela fonctionne très bien, car je ne sais pas s'il existe un bon moyen de sélectionner les courbes à associer/réduire ensemble. Aucune suggestion?

flinty a suggéré une technique, par laquelle les données pourraient être attachées dans l'ordre (disons de gauche à droite), et j'ai tenté une interprétation rapide et sale de ceci:

Ce résultat fait un assez bon travail, bien qu'il ait deux problèmes possibles :

L'ajustement d'une courbe supplémentaire à la fois pose problème avec les régions où plus de deux courbes se chevauchent. Cela peut être vu dans la région autour de (x=5), où il y a plus de bruit par rapport à la même région ajustée à l'œil nu.

L'interpolation nécessite une entrée non en double, de sorte que les données avec les mêmes valeurs x ne peuvent pas être interpolées ensemble. J'ai contourné cela en faisant simplement la moyenne de la valeur y mise à l'échelle lorsque x est le même, mais je m'attends à ce que ce ne soit pas la meilleure option.

aooiiii avait une excellente approche, et je l'ai un peu modifiée car QuadraticOptimization est une fonction plus récente que je ne peux pas utiliser à la maison. Cela utilise NMinimize pour minimiser l'erreur de mise à l'échelle des paramètres (s) des données de journal, tout en régularisant la fonction (y) de plusieurs manières possibles, en utilisant des approximations simples du premier ("flat"), du deuxième ("lisse") et du troisième ("jerk") dérivées aux points voisins. La principale différence est que, tandis que aooiiii utilisait de nombreux y couvrant les écarts dans les données, cette version utilise les positions x d'entrée pour attribuer des points y. J'ai trouvé les meilleurs résultats en utilisant la dérivée troisième ("jerk"), donc les autres termes de régularisation sont commentés.


Erreur ArcGIS JavaScript API 3.13 avec la fonction Measurement setTool() - Systèmes d'information géographique

MagPy (ou GeomagPy) est un package Python permettant d'analyser et d'afficher des données géomagnétiques.

Informations sur la version : (veuillez noter : ce paquet est encore en développement avec des modifications fréquentes) veuillez vérifier les notes de version.

MagPy fournit des outils pour l'analyse des données géomagnétiques avec un accent particulier sur les routines de traitement des données typiques dans les observatoires. MagPy fournit des méthodes de conversion de format de données, de traçage et de procédures mathématiques avec des routines d'analyse spécifiquement géomagnétiques telles que le calcul de la valeur de base et de la ligne de base et la gestion de la base de données. Parmi les formats de données pris en charge figurent ImagCDF, IAGA-02, WDC, FMI, IAF, BLV, et beaucoup plus. L'installation complète fournit également une interface utilisateur graphique, xmagpy. Vous trouverez un manuel complet pour xmagpy dans la doc.

L'utilisation typique du package MagPy de base pour la lecture et la visualisation des données ressemble à ceci :

Vous trouverez ci-dessous un guide rapide d'utilisation du package de base MagPy. Pour obtenir des instructions sur xmagpy veuillez vous référer au document "Une introduction à XMagPy" dans la documentation. Vous pouvez également vous abonner à notre chaîne d'information sur Telegram pour plus d'informations sur les mises à jour et les problèmes actuels.

Veuillez noter qu'avec la publication de MagPy 1.0, l'enironnement python recommandé est >= 3.6. Les instructions d'installation suivantes supposeront un tel environnement. En particulier, si vous utilisez Python2.7, veuillez vous rendre à la fin de cette section pour obtenir de l'aide.

Cette section est actuellement mise à jour et sera prête avec la publication de MagPy 1.0.

1.1 Installation de Linux (Ubuntu, Debian)

Testé pour Ubuntu 18.04 et Debian Stretch (installation complète avec tous les packages optionnels). Veuillez noter que l'installation nécessite python 3.x et le package python3-pip (généralement déjà disponible, sinon utilisez "sudo apt-get install python3-pip").

L'interface utilisateur graphique xmagpy nécessite en outre WX. Utilisez soit

ou $ sudo pip3 installer wxpython

Vous pouvez maintenant exécuter XMagPy en utilisant la commande suivante

Pour mettre à niveau vers la version la plus récente (remplacez x.x.x par le numéro de version actuel) :

Veuillez ne pas utiliser l'option -U si elle n'est pas recommandée pour la nouvelle mise à niveau.

1.1.3 Création d'un lien bureau

Afin de créer un lien de bureau sur les systèmes Linux, veuillez vous référer aux instructions pour trouver votre distribution. Pour Ubunutu et d'autres systèmes Debian, ces liens sont créés comme suit :

Créez d'abord un fichier "xmagpy.desktop" qui contient :

Copiez ensuite ce fichier dans le dossier de l'application système :

1.2.1 Installer un interpréteur python3

  • nous recommandons Miniconda ou Anaconda
  • voir par ex. https://docs.continuum.io/anaconda/install pour plus de détails
  • avant de continuer, testez si python fonctionne. Ouvrez un terminal et exécutez python

Ouvrez un terminal et utilisez les commandes suivantes :

Vous pouvez maintenant exécuter XMagPy depuis le terminal en utilisant la commande suivante

1.2.3 Création d'un lien bureau

Ouvrez le Finder et recherchez xmagpyw. Copiez-le sur le bureau. Pour changer l'icône, cliquez sur le lien xmagpyw, ouvrez les informations et remplacez l'image en haut à gauche par ex. magpy128.jpg (également disponible à l'aide du Finder).

1.3 Installation de Windows - Paquet WinPython

1.3.1 Installer MagPy pour Windows

  • obtenez le programme d'installation de MagPy Windows ici (sous Téléchargements) : https://cobs.zamg.ac.at
  • télécharger et exécuter magpy-x.x.x.exe
  • tous les packages requis sont inclus dans le programme d'installation

1.3.2 Informations post-installation

MagPy aura un sous-dossier dans le menu Démarrer. Vous trouverez ici trois éléments :

1.3.3 Mettre à jour une installation MagPy existante sous Windows

  • clic droit sur le sous-dossier "commande" dans le menu démarrer
  • sélectionnez "exécuter en tant qu'administrateur"
  • lancez la commande suivante "pip install -U geomagpy" (vous pouvez également spécifier la version, par exemple pip install geomagpy==0.x.x)

1.3.4 Installation avec privilèges utilisateur uniquement

  • Téléchargez une version la plus récente de WinPython3.x
  • Décompressez dans votre répertoire personnel
  • Accédez au dossier WinPython et exécutez l'invite de commande WinPython
  • émettre les mêmes commandes que pour l'installation de MacOS
  • pour exécuter XMagPy : utilisez xmagpy à partir de l'invite de commande WinPython.

1.4 Instructions d'installation pour Python 2.7

La version actuelle de magpy prend toujours en charge python 2.7, bien qu'il soit fortement recommandé de passer à python >= 3.6. L'installation sur python 2.7 est plus complexe, car certains packages pour l'interface utilisateur graphique et la prise en charge de CDF ne sont pas aussi bien pris en charge. Remarque : aucune des étapes supplémentaires n'est nécessaire pour python 3.x.

Obtenez une version récente de NasaCDF pour votre plate-forme, active la prise en charge de CDF pour des formats tels que ImagCDF. Les détails et les fichiers du package sont disponibles sur http://cdf.gsfc.nasa.gov/

Installez les compilateurs supplémentaires suivants avant de continuer (requis pour spacepy) : Linux : installez gcc MacOs : installez gcc et gfortran

Installez la prise en charge de la transformation du système de coordonnées :

1.4.2 Installer MagPy et ses dépendances

Sous Linux, cela ressemblera à :

Sur Mac et Windows, vous devez télécharger un interpréteur python comme Anaconda ou [WinPython], puis installer des packages similaires, en particulier l'ancien wxpython 3.x.

1.5 Conteneur indépendant de la plate-forme - Docker

1.5.1 Installer Docker (boîte à outils) sur votre système d'exploitation

  • wxpython (pour python2.7, il doit être 3.x ou plus ancien)
  • NasaCDF (python 2.7 uniquement)
  • SpacePy (python 2.7 uniquement)

pyproj (pour les systèmes de coordonnées géographiques)

git clone git://github.com/GeomagPy/MagPy.git cd magpy* sudo python setup.py installer

écrit par R. Leonhardt, R. Bailey (avril 2017)

Les fonctionnalités de MagPy sont accessibles de trois manières différentes : 1) Importez et utilisez directement le package magpy dans un environnement python 2) Exécutez l'interface utilisateur graphique xmagpy (xmagpyw pour Mac) 3) Utilisez des applications prédéfinies "Scripts"

La section suivante traitera principalement de la voie 1. Pour 2 - xmagpy - nous nous référons aux didacticiels vidéo qui peuvent être trouvés ici : La section 3 contient des exemples d'applications/scripts prédéfinis

2.1 Premiers pas avec le package python

Démarrez python. Importez toutes les méthodes et classes de flux en utilisant :

Veuillez noter que cette importation masquera toute méthode de lecture déjà existante.

2.2 Lecture et écriture de données

MagPy prend en charge les formats de données suivants et donc les conversions entre eux :

  • WDC : format World Data Center
  • JSON : notation d'objet JavaScript
  • FMI : format interaimant
  • IAF : format d'archivage inter-aimants
  • NEIC : données WGET de l'USGS - NEIC
  • IAGA : format texte IAGA 2002
  • IMAGCDF : format CDF interaimant
  • GFZKP : format d'index KP GeoForschungsZentrum
  • GSM19/GSM90 : Formats de sortie des magnétomètres GSM
  • POS1 : sortie binaire POS-1
  • BLV : Inter-aimant au format de base
  • IYFV : Format moyen annuel Interaimant

. et plein d'autres. Pour obtenir une liste complète, utilisez :

Vous trouverez plusieurs exemples de fichiers fournis avec MagPy. Le fichier cdf est stocké avec les méta-informations dans le format de données commun de la NASA (cdf). La lecture de ce fichier nécessite une installation fonctionnelle de Spacepy cdf.

Si vous n'avez pas de fichier de données géomagnétiques, vous pouvez accéder à des exemples de données en utilisant la commande suivante (après import * ) :

Les données de example1 ont été lues dans un MagPy Flux de données (ou alors flux) objet. La plupart des routines de traitement de données dans MagPy sont appliquées aux flux de données.

Plusieurs exemples d'ensembles de données sont fournis dans le package MagPy :

exemple1 : fichier IAGA ZIP (IAGA2002, compressé zip) avec 1 seconde de données HEZ

example2 : [MagPy] Archive (CDF) fichier avec 1 sec F data

exemple3 : [MagPy] Fichier ascii de valeur de base (TXT) avec DI et données de référence

exemple4 : fichier INTERMAGNET ImagCDF (CDF) avec une semaine de données de 1 seconde

example5 : [MagPy] Archive (CDF) fichier de données brutes avec xyz et données de support

example6a : [MagPy] DI (txt) fichier de données brutes avec mesure DI

example6b : [MagPy] comme 6a à utiliser avec example4

flagging_example : [MagPy] FlagDictionary (JSON) informations de signalisation à utiliser avec example1

recette1_flags : [MagPy] FlagDictionary (JSON) à utiliser avec la recette 1 du livre de recettes

Pour un fichier dans le même répertoire :

. ou pour des chemins spécifiques sous Linux :

. ou pour des chemins spécifiques sous Windows :

Les chemins d'accès sont liés à votre système d'exploitation. Dans ce guide, nous supposerons un système Linux. Les fichiers qui sont lus sont téléchargés dans la mémoire et chaque colonne de données (ou élément d'information d'en-tête) est affectée à une variable interne (clé). Pour obtenir un aperçu rapide des clés attribuées dans un flux donné (données), vous pouvez utiliser la méthode suivante :

Après avoir chargé les données d'un fichier, nous pouvons enregistrer les données aux formats standard IAGA02 et IMAGCDF avec les commandes suivantes.

Pour créer un fichier au format IAGA-02, utilisez :

Pour créer un fichier INTERMAGNET CDF (ImagCDF) :

Le nom de fichier sera créé automatiquement selon le format défini. Par défaut, des fichiers quotidiens sont créés et la date est ajoutée au nom de fichier entre les paramètres facultatifs filenamebegins et filenameends . Si filenameends est manquant, .txt est utilisé par défaut.

2.2.3 Autres possibilités de lecture des fichiers

Pour lire tous les fichiers locaux se terminant par .min dans un répertoire (crée un flux unique de toutes les données) :

Obtenir des données magnétiques directement à partir d'une source en ligne telle que le WDC :

Obtenir kp données du GFZ Potsdam :

(Remarque : l'accès et l'utilisation des données sont soumis aux conditions générales du fournisseur de données individuel. Veuillez vous assurer de les lire avant d'accéder à l'un de ces produits.)

Aucune spécification de format n'est requise pour la lecture. Si MagPy peut gérer le format, il sera automatiquement reconnu.

Obtenir des données pour une fenêtre de temps spécifique pour les fichiers locaux :

Lecture des données du Webservice INTERMAGNET :

Le flux peut être découpé à un intervalle de temps spécifique après la lecture en appliquant la méthode de découpage, par ex. pour un mois donné :

2.3 Obtenir de l'aide sur les options et l'utilisation

2.3.1 Fonction d'aide de Python

Les informations sur les différentes méthodes et options peuvent être obtenues comme suit :

Pour les méthodes spécifiques liées par ex. un objet de flux « données » :

Notez que cela nécessite l'existence d'un objet "data", qui est obtenu par ex. par données = lire(. ).Le texte d'aide peut également être affiché en appelant directement le Flux de données méthode objet utilisant :

2.3.2 Le système de journalisation de MagPy

MagPy enregistre automatiquement de nombreuses options de fonction et informations d'exécution, ce qui peut être utile à des fins de débogage. Ce journal est enregistré par défaut dans le répertoire des fichiers temporaires de votre système d'exploitation, par ex. pour Linux, ce serait /tmp/magpy.log . Le journal est formaté comme suit avec la date, le module et la fonction en cours d'utilisation et le niveau du message (INFO/AVERTISSEMENT/ERREUR) :

Les messages de niveau AVERTISSEMENT et ERREUR seront automatiquement imprimés sur le shell. Les messages pour un débogage plus détaillé sont écrits au niveau DEBUG et ne seront pas imprimés dans le journal à moins qu'un gestionnaire supplémentaire pour l'impression DEBUG ne soit ajouté.

Les enregistreurs personnalisés peuvent être définis en créant un objet enregistreur après avoir importé MagPy et ajouté des gestionnaires (avec formatage) :

L'enregistreur peut également être configuré pour imprimer vers le shell (stdout, sans formatage) :

Vous trouverez quelques exemples de parcelles à l'Observatoire Conrad.

Sélectionnez des clés spécifiques à tracer :

Définir un titre de tracé et des couleurs spécifiques (voir help(mp.plot) pour la liste et toutes les options) :

2.4.3 Données de plusieurs flux

Divers ensembles de données provenant de plusieurs flux de données seront tracés les uns au-dessus des autres. Fournissez une liste de flux et un tableau de clés :

La procédure de marquage permet à l'observateur de marquer des points ou des plages de données spécifiques. Les falgs sont utiles pour étiqueter les pics de données, les débuts d'orage, les pulsations, les perturbations, les coups de foudre, etc. Chaque drapeau est associé à un commentaire et à un numéro de type. Le numéro du type d'indicateur est compris entre 0 et 4 :

  • 0 : données normales avec commentaire (par exemple, "Hello World")
  • 1 : données marquées par une analyse automatisée (par exemple, un pic)
  • 2 : données marquées par l'observateur comme signature géomagnétique valide (par exemple, début d'orage, pulsation). Ces données ne peuvent pas être marquées comme invalides par des procédures automatisées
  • 3: données marquées par l'observateur comme invalides (par exemple foudre, perturbation magnétique)
  • 4: données fusionnées (par exemple données insérées à partir d'une autre source/instrument tel que défini dans le commentaire)

Les indicateurs peuvent être stockés avec l'ensemble de données (nécessite une sortie au format CDF) ou séparément dans une archive binaire. Ces drapeaux peuvent ensuite être appliqués à nouveau aux données brutes, assurant une reproductibilité parfaite.

Chargez un enregistrement de données avec des pics de données :

Marquez tous les pics à l'aide de la fonction automatisée flag_outlier avec les options par défaut :

Afficher les données signalées dans un graphique :

Marquer une certaine plage de temps :

Appliquez ces indicateurs aux données :

Afficher les données signalées dans un graphique :

Pour enregistrer les données avec la liste des drapeaux dans un fichier CDF :

Pour vérifier que la procédure de sauvegarde est correcte, lisez et tracez le nouveau fichier :

2.5.4 Enregistrer les drapeaux séparément

Pour enregistrer la liste des indicateurs séparément des données dans un fichier binaire picklé :

Ces indicateurs peuvent être chargés puis réappliqués à l'ensemble de données :

Pour certaines analyses, il est nécessaire d'utiliser des données « propres », qui peuvent être produites en supprimant les données signalées comme non valides (par exemple, des pics). Par défaut, la méthode suivante supprime toutes les données marquées avec les numéros de type d'indicateur 1 et 3.

Le filtre de MagPy utilise les paramètres recommandés par IAGA/INTERMAGNET. Consultez l'aide (data.filter) pour d'autres options et définitions des types de filtres et des bandes passantes.

Tout d'abord, obtenez le taux d'échantillonnage avant de filtrer en quelques secondes :

Filtrez l'ensemble de données avec les paramètres par défaut ( le filtre choisit automatiquement les paramètres corrects en fonction du taux d'échantillonnage fourni) :

Obtenez le taux d'échantillonnage et les données filtrées après le filtrage (veuillez noter que toutes les informations de filtrage sont ajoutées au dictionnaire de métadonnées des données (data.header) :

2.6.2 Transformation de coordonnées

En supposant des données vectorielles dans les colonnes [x,y,z], vous pouvez librement convertir entre les coordonnées xyz, hdz et idf :

Si le fichier de données contient des données xyz (hdz, idf) et une valeur f mesurée indépendamment, vous pouvez calculer le delta F entre les deux instruments à l'aide des éléments suivants :

Les valeurs moyennes de certaines colonnes de données peuvent être obtenues à l'aide de la méthode des moyennes. La moyenne ne sera calculée que pour les données dont le pourcentage de points de données valides (contrairement aux données manquantes) ne tombe pas en dessous de la valeur donnée par l'option de pourcentage (95 par défaut). S'il manque trop de données, aucune moyenne n'est calculée et la fonction renvoie NaN.

La médiane peut être calculée en définissant l'option de fonction moyenne :

Des décalages constants peuvent être ajoutés à des colonnes individuelles à l'aide de la méthode de décalage avec un dictionnaire définissant les clés de colonne de flux MagPy et le décalage à appliquer (objet datetime.timedelta pour la colonne de temps, flottant pour tous les autres) :

Les colonnes individuelles peuvent également être multipliées par les valeurs fournies dans un dictionnaire :

MagPy offre la possibilité d'adapter des fonctions aux données à l'aide de fonctions polynomiales ou de splines cubiques (par défaut) :

Les dérivées temporelles, qui sont utiles pour identifier les valeurs aberrantes et les changements brusques, sont calculées comme suit :

2.6.9 Toutes les méthodes en un coup d'œil

Pour un résumé de toutes les méthodes prises en charge, consultez la section Liste de toutes les méthodes MagPy au dessous de.

2.7.1 Détermination des indices K

MagPy prend en charge la méthode FMI pour la détermination des indices K. Veuillez consulter la publication MagPy pour plus de détails sur cette méthode et son application.

Un mois d'une minute est fourni dans l'exemple2 , ce qui correspond à un fichier d'archive INTERMAGNET IAF. La lecture d'un fichier dans ce format chargera des données d'une minute par défaut. L'accès aux données horaires et à d'autres informations est décrit ci-dessous.

La détermination des valeurs K prendra un certain temps car la fenêtre de filtrage est ajustée dynamiquement. Afin de tracer ensemble les données d'origine (composante H) et les valeurs K, nous utilisons maintenant la méthode de traçage à plusieurs flux plotStreams . Ici, vous devez fournir une liste de flux et un tableau contenant des variables pour chaque flux. Les options supplémentaires déterminent l'apparence du tracé (limites, histogramme) :

« z » dans la liste des symboles fait référence à la deuxième sous-intrigue (K), qui doit être tracée sous forme de barres plutôt que de la ligne standard ( ' - ').

2.7.2 Détection automatisée des orages géomagnétiques

La détection des orages géomagnétiques est prise en charge par MagPy à l'aide de deux procédures basées sur les ondelettes et le critère d'information d'Akaike (AIC) comme décrit en détail dans Bailey et Leonhardt (2016). Un exemple de base d'utilisation pour trouver un SSC à l'aide d'une transformée en ondelettes discrète (DWT) est illustré ci-dessous :

La méthode seekStorm renverra deux variables : la détection vaut True si une détection a été effectuée, tandis que ssc_list est une liste de dictionnaires contenant des données sur chaque détection. Notez que cette méthode seule peut renvoyer une longue liste de SSC possibles (la plupart incorrectement détectés), en particulier pendant les périodes de tempête actives. Il est particulièrement utile lorsque des restrictions supplémentaires basées sur les données de vent solaire satellitaire s'appliquent (actuellement optimisées uniquement pour les données ACE, par exemple à partir du site Web de la NOAA) :

Des méthodes sont actuellement en préparation.

2.7.4 Contrôle de validité des données

Une application courante et importante utilisée dans la communauté du géomagnétisme est un contrôle de validité générale des données géomagnétiques à soumettre aux référentiels de données officiels IAGA, WDC ou INTERMAGNET. Veuillez noter : ceci est actuellement en cours de développement et sera étendu dans un proche avenir. Une méthode de test « en un clic » sera incluse dans xmagpy à l'avenir, en vérifiant :

A) Validité des formats de données, par exemple :

B) L'exhaustivité des méta-informations

C) Conformité des techniques appliquées aux règles respectives

D) Cohérence interne des données

E) Facultatif : cohérence régionale

2.7.5 Analyse spectrale et bruit

Pour l'analyse du contenu spectral des données, MagPy fournit deux méthodes de traçage de base. plotPS calculera et affichera un spectre de puissance du composant sélectionné. plotSpectrogram tracera un spectrogramme de la série temporelle. Comme d'habitude, il existe de nombreuses options pour la fenêtre de tracé et les paramètres de traitement accessibles à l'aide de la méthode d'aide.

2.8 Gestion de plusieurs flux

La fusion de données consiste à combiner deux flux en un nouveau flux. Cela inclut l'ajout d'une nouvelle colonne d'un autre flux, le comblement des lacunes avec les données d'un autre flux ou le remplacement des données d'une colonne par des données d'un autre flux. L'exemple suivant illustre l'utilisation typique :

Si la colonne var1 n'existe pas dans data2 (comme ci-dessus), alors cette colonne est ajoutée. Si la colonne var1 avait déjà existé, les données manquantes seraient insérées à partir du flux kvals . Afin de remplacer toutes les données existantes, utilisez l'option mode='replace' .

2.8.2 Différences entre les flux

Parfois, il est nécessaire d'examiner les différences entre deux flux de données, par ex. différences entre les valeurs F de deux instruments fonctionnant en parallèle dans un observatoire. La méthode subtractStreams est fournie pour cette analyse :

2.9 L'art de la méta-information

Chaque ensemble de données est accompagné d'un dictionnaire contenant des méta-informations pour ces données. Ce dictionnaire est entièrement dynamique et peut être rempli librement, mais il existe un certain nombre de champs prédéfinis qui aident l'utilisateur à fournir des méta-informations essentielles demandées par IAGA, INTERMAGNET et d'autres fournisseurs de données. Toutes les méta-informations sont enregistrées uniquement dans les formats d'archives spécifiques à MagPy PYCDF et PYSTR. Tous les autres formats d'exportation n'enregistrent que les informations spécifiques requises par le format projeté.

Le contenu actuel de ce dictionnaire est accessible par :

Les informations sont ajoutées/modifiées en utilisant :

Les informations individuelles sont obtenues à partir du dictionnaire à l'aide d'une entrée de clé standard :

Si vous souhaitez avoir une liste plus lisible des informations d'en-tête, procédez comme suit :

2.9.1 Conversion en ImagCDF - Ajout de méta-informations

Pour convertir les données des formats IAGA ou IAF au nouveau format INTERMAGNET CDF, vous devrez généralement ajouter des méta-informations supplémentaires requises pour le nouveau format. MagPy peut vous aider ici, d'une part en extrayant et en ajoutant correctement des méta-informations déjà existantes dans des champs nouvellement définis, et d'autre part en vous informant des informations à ajouter pour produire le format de sortie correct.

Exemple de IAGA02 vers ImagCDF :

La sortie console de la commande d'écriture (voir ci-dessous) vous indiquera quelles informations doivent être ajoutées (et comment) afin d'obtenir des fichiers ImagCDF corrects. Attention, MagPy conservera les données dans tous les cas et pourra les relire même si des informations sont manquantes. Avant de soumettre à un GIN, vous devez vous assurer que les informations appropriées sont contenues. Les attributs liés à la publication des données ne seront pas vérifiés à ce stade et pourraient être inclus plus tard.

Ajoutez maintenant les informations manquantes. La sélection de « Partiel » nécessitera des informations supplémentaires. Vous recevrez un « rappel » si vous oubliez cela. Veuillez vérifier les instructions IMAGCDF sur les codes spécifiques :

Des rappels similaires pour remplir les informations d'en-tête complètes seront affichés pour d'autres conversions telles que :

2.9.2 Fournir des données de localisation

Fournir des données de localisation nécessite généralement des informations sur le système de référence (ellipsoïde. ). Par défaut, MagPy suppose que ces valeurs sont fournies dans le système de référence WGS84/WGS84. Afin de faciliter le référencement et les conversions les plus faciles, MagPy prend en charge les codes EPSG pour les coordonnées. Si vous fournissez les références géodésiques comme suit, et à condition que le package Python proj4 soit disponible, MagPy convertira automatiquement les données de localisation au format de sortie demandé (actuellement WGS84).

2.9.3 Champs spéciaux de méta-informations

Les champs de méta-informations peuvent contenir beaucoup plus d'informations que celles requises par la plupart des formats de sortie. Cela inclut la valeur de base et les paramètres de base, les détails de signalisation, les informations détaillées sur les capteurs, les numéros de série et bien plus encore. MagPy utilise ces possibilités. Afin d'enregistrer ces méta-informations avec votre ensemble de données, vous pouvez utiliser le format d'archivage interne de MagPy, PYCDF , qui peut ensuite être converti dans l'un des formats de sortie susmentionnés. Vous pouvez même reconstruire une base de données complète. Toute demande de méta-information ou de sortie à venir peut être facilement ajoutée/modifiée sans perturber les ensembles de données déjà existants et la capacité de lire et d'analyser les anciennes données. Ce format de données est également basé sur Nasa CDF. Les sorties ASCII sont également prises en charge par MagPy, dont le format PYSTR contient également toutes les méta-informations et PYASCII est le plus compact. Veuillez considérer que les formats ASCII nécessitent beaucoup de mémoire, en particulier pour les données de résolution d'une seconde et supérieure.

MagPy contient un certain nombre de méthodes pour simplifier le transfert de données pour les applications d'observatoire. Les méthodes au sein de la fonctionnalité Python de base peuvent également être très utiles. L'utilisation des méthodes mises en œuvre nécessite :

Utilisez la méthode de lecture décrite ci-dessus. Aucune importation supplémentaire n'est requise.

Les fichiers peuvent également être téléchargés sur un serveur FTP :

Les méthodes de téléchargement utilisant FTP, SCP et GIN prennent en charge la journalisation. Si le téléchargement du fichier de données échoue, le chemin est ajouté à un fichier journal et, lorsqu'il est à nouveau appelé, le téléchargement du fichier est réessayé. Cette option est utile pour les emplacements distants avec des connexions réseau instables.

2.10.3 Protocole de communication sécurisé (SCP)

Utilisez la commande suivante :

2.10.5 Éviter les mots de passe en texte réel dans les scripts

Afin d'éviter d'utiliser un mot de passe en texte réel dans les scripts, MagPy est livré avec une simple routine de cryptage.

Les informations d'identification seront enregistrées dans un fichier caché avec des mots de passe cryptés. Pour ajouter des informations pour le transfert de données vers une machine appelée 'MyRemoteFTP' avec une IP de 192.168.0.99 :

Extraction des informations passwd dans vos scripts de transfert de données :

2.11 Mesures DI, valeurs de base et lignes de base

Ces procédures nécessitent un import supplémentaire :

2.11.1 Structure des données des mesures DI

Veuillez vérifier example3 , qui est un exemple de fichier DI. Vous pouvez créer ces fichiers DI en utilisant la feuille de saisie de xmagpy ou la feuille de saisie en ligne fournie par l'Observatoire Conrad. Si vous souhaitez utiliser ce service, veuillez contacter le personnel de l'Observatoire. Les fichiers DI de l'AUTODIF sont également pris en charge.

La lecture et l'analyse des données DI nécessitent des fichiers DI valides. Pour une analyse correcte, les données du variomètre et les informations de champ scalaire doivent également être fournies. Aide à la caisse (di.absoluteAnalysis) pour toutes les options. Les procédures analytiques sont décrites en détail dans l'article MagPy (citation). Une analyse typique ressemble à :

Path to DI peut pointer vers un seul fichier, un répertoire ou même utiliser des caractères génériques pour sélectionner les données d'un observatoire/pilier spécifique. En utilisant les exemples fournis avec MagPy, une analyse peut être effectuée comme suit. Tout d'abord, nous copions les fichiers dans un dossier temporaire et nous devons renommer le fichier de valeur de base. La date et l'heure doivent faire partie du nom de fichier. Pour que les commandes suivantes fonctionnent, vous devez être dans le répertoire des exemples.

Le nous démarrons python et importons les packages nécessaires

Enfin, nous émettons la commande d'analyse.

L'appel de cette méthode fournira une sortie de terminal comme suit et un résultat d'objet de flux qui peut être utilisé pour d'autres analyses.

Fext indique que les valeurs F ont été utilisées à partir d'un fichier séparé et non fournies avec les données DI. Les valeurs delta pour F, D et I n'ont pas été fournies non plus. diresult est un objet de flux contenant les valeurs moyennes D, I et F, les angles de collimation, les facteurs d'échelle et les valeurs de base pour le variomètre sélectionné, à côté de quelques méta-informations supplémentaires fournies dans le formulaire de saisie de données.

2.11.4 Valeurs de base et valeurs de référence

Les valeurs de base telles qu'obtenues en (2.11.2) ou (2.11.3) sont stockées dans un objet de flux de données normal, par conséquent, toutes les méthodes d'analyse décrites ci-dessus peuvent être appliquées à ces données. L'objet diresult contient les valeurs D, I et F pour chaque mesure dans les colonnes x,y,z. Les valeurs de base pour H, D et Z liées au variomètre sélectionné sont stockées dans les colonnes dx,dy,dz. Dans l'exemple4, vous trouverez d'autres résultats d'analyse DI. Pour tracer ces valeurs de base, nous pouvons utiliser la commande plot suivante, où nous spécifions les colonnes, les cercles remplis comme symboles de tracé et définissons également un écart minimum de chaque axe y de +/- 5 nT pour H et Z, +/- 0,05 deg pour RÉ.

L'ajustement d'une ligne de base peut être facilement réalisé avec la méthode d'ajustement. Nous testons d'abord un ajustement linéaire aux données en ajustant une fonction polynomiale de degré 1.

Nous adaptons ensuite une fonction spline en utilisant 3 nœuds sur la plage de temps (l'option de nœud est toujours liée à la plage de temps donnée).

Astuce : une bonne estimation de la complexité d'ajustement nécessaire peut être obtenue en examinant les valeurs delta F. Si delta F est essentiellement constant, la ligne de base ne devrait pas non plus être très complexe.

La méthode de la ligne de base offre un certain nombre d'options pour aider l'observateur à déterminer les corrections de la ligne de base et les problèmes réels. Le bloc de construction de base de la méthode de base est la fonction d'ajustement comme discuté ci-dessus. Commençons par charger les données géomagnétiques vectorielles brutes, dont les absevalues ​​sont contenues dans l'exemple ci-dessus :

Nous pouvons maintenant appliquer les informations de la valeur de base et la fonction spline comme testé ci-dessus :

La méthode de base déterminera et renverra une fonction d'ajustement entre les deux plages de temps données en fonction des données de valeur de base fournies blvdata . L'option extradays permet d'ajouter des jours avant et après l'heure de début/fin pour lesquels la fonction de référence sera extrapolée. Cette option est utile pour fournir des données quasi-définitives. Lors de l'application de cette méthode, un certain nombre de nouveaux attributs de méta-informations seront ajoutés, contenant des valeurs de base et tous les paramètres fonctionnels pour décrire la ligne de base. Ainsi, l'objet de flux contient toujours des données brutes non corrigées, mais toutes les informations de correction de ligne de base sont désormais contenues dans ses métadonnées. Pour appliquer la correction de ligne de base, vous pouvez utiliser la méthode bc :

Veuillez noter que MagPy attend par défaut des valeurs de base pour HDZ (voir example3.txt). Lors de l'application de ces valeurs de base, la valeur de base D est automatiquement convertie en nT et appliquée à vos données de variation. Vous pouvez également utiliser des fichiers de valeurs de base MaPy avec des valeurs de base XYZ. Afin d'appliquer correctement ces données, les noms de colonnes doivent contenir les noms corrects, c'est-à-dire X-base, Y-base, Z-base au lieu de H-base, D-base et Z-base (comme dans example3.txt) .

Si des sauts/ruptures de ligne de base sont nécessaires en raison de données manquantes, vous pouvez appeler la fonction de ligne de base pour chaque segment indépendant et combiner les fonctions de ligne de base résultantes dans une liste :

La ligne de base combinée peut être tracée en conséquence. Étendez les paramètres de la fonction avec chaque segment supplémentaire.

Ajout d'une ligne de base pour les données scalaires, qui est déterminée à partir des valeurs delta F fournies dans le flux de données de la valeur de base :

L'obtention des moyennes quotidiennes et la correction de la ligne de base scalaire peuvent être accomplies en :

Veuillez noter qu'ici, la fonction initialement déterminée à partir des valeurs deltaF (df) des données de la valeur de base doit être appliquée à la colonne F (f) du flux de données. Avant d'enregistrer, nous extrairons également les paramètres de base des méta-informations, qui sont automatiquement générées par la méthode de base.

2.11.6 Sauvegarde de la valeur de base et des informations de base

Ce qui suit va créer un fichier BLV :

Les informations sur les lignes de base adoptées seront extraites de l'option absinfo. Si plusieurs fonctions sont fournies, les sauts de ligne de base seront automatiquement insérés dans le fichier de données BLV. La sortie des lignes de base scalaires adoptées est configurée par l'option deltaF . Si un nombre est fourni, cette valeur est supposée représenter la ligne de base scalaire adoptée. Si 'mean' ou 'median' sont donnés (par exemple deltaF='mean' ), alors la valeur moyenne/médiane de toutes les valeurs delta F dans le flux de valeurs de base est utilisée, nécessitant que ces données soient contenues. Fournir des paramètres fonctionnels tels qu'ils sont stockés dans un champ de méta-informations DataAbsInfo, comme indiqué ci-dessus, calculera et utilisera la fonction de base scalaire. Le flux moyen contient les moyennes quotidiennes des valeurs delta F entre les mesures du variomètre et de F et les données d'adoption de la ligne de base dans les méta-informations. Cependant, vous pouvez également fournir toutes ces informations manuellement. La manière typique d'obtenir un tel flux moyen est esquissée ci-dessus.

MagPy prend en charge l'accès aux bases de données et de nombreuses méthodes d'optimisation du traitement des données en lien avec les bases de données. Parmi de nombreux autres avantages, l'utilisation d'une base de données simplifie de nombreuses procédures typiques liées aux méta-informations.Actuellement, MagPy prend en charge les bases de données MySQL. Pour utiliser ces fonctionnalités, vous devez avoir MySQL installé sur votre système. Dans ce qui suit, nous fournissons un bref aperçu de la configuration et de l'utilisation de cet ajout facultatif. Veuillez noter qu'une utilisation correcte de la base de données nécessite des informations spécifiques au capteur. En géomagnétisme, il est courant de combiner les données de différents capteurs dans une seule structure de fichier. Dans ce cas, ces données doivent rester séparées pour l'utilisation de la base de données et ne sont combinées que lors de la production de données définitives IAGA/INTERMAGNET. De plus, des informations uniques sur le capteur telles que le type et le numéro de série sont requises.

2.12.1 Configuration d'une base de données MagPy (à l'aide de MySQL)

Ouvrez mysql (par exemple Linux : mysql -u root -p mysql ) et créez une nouvelle base de données. Remplacez #DB-NAME par le nom de votre base de données (par exemple MyDB ). Après sa création, vous devrez accorder des privilèges sur cette base de données à un utilisateur de votre choix. Veuillez vous référer aux documentations officielles de MySQL pour plus de détails et d'autres commandes.

2.12.2 Initialiser une base de données MagPy

La connexion à une base de données à l'aide de MagPy se fait à l'aide de la commande suivante :

2.12.3 Ajout de données à la base de données

Exemples de méta-informations utiles :

Toutes les méta-informations disponibles seront ajoutées automatiquement aux tables de base de données pertinentes. Le schéma SensorID se compose de trois parties : l'instrument (GSM90), le numéro de série (12345) et un numéro de révision (0002) qui peut changer en fonction de la maintenance, de l'étalonnage, etc. Comme vous pouvez le voir dans l'exemple ci-dessus, nous séparons les données provenant de différents instruments, ce que nous recommandons particulièrement pour les données à haute résolution, car les caractéristiques de fréquence et de bruit des types de capteurs seront différentes.

Pour lire les données d'une base de données établie :

Options, par ex. starttime='' et endtime='' sont similaires à la lecture normale.

Une application souvent utilisée de connectivité de base de données avec MagPy consistera à appliquer les méta-informations stockées dans la base de données aux fichiers de données avant la soumission. La commande suivante montre comment extraire toutes les méta-informations manquantes de la base de données pour le capteur sélectionné et les ajouter au dictionnaire d'en-tête de l'objet de données.

2.13 Surveillance des scripts planifiés

L'analyse automatisée peut être facilement réalisée en ajoutant une série de commandes MagPy dans un script. Un script typique pourrait être :

Si les critères fournis ne sont pas valides, le fichier journal est modifié en conséquence. Cette méthode peut vous aider en particulier à vérifier l'actualité des données, le contenu des données, la validité des données, le succès du téléchargement, etc. En combinaison avec un outil de surveillance indépendant comme Nagios, vous pouvez facilement créer des notifications par courrier/SMS de ces changements, en plus des processus de surveillance, durées de fonctionnement, disques, etc. MARCOS est accompagné de quelques instructions sur la façon d'utiliser Nagios/MagPy pour la surveillance de l'acquisition de données.

2.14 Prise en charge de l'acquisition de données

MagPy contient quelques packages qui peuvent être utilisés pour l'acquisition, la collecte et l'organisation de données. Ces méthodes sont principalement contenues dans deux applications : MARTAS et MARCOS. MARTAS (Magpy Automated Realtime Acquisition System) prend en charge la communication avec de nombreux instruments courants (par exemple GSM, LEMI, POS1, FGE et de nombreux instruments non magnétiques) et transfère les signaux du port série vers WAMP (Web Application Messaging Protocol), ce qui permet accès aux données de temps en utilisant par exemple Communication WebSocket via Internet. MARCOS (Magpy's Automated Realtime Collection and Organistaion System) peut accéder à de tels flux en temps réel ainsi qu'à des données provenant de nombreuses autres sources et assiste l'observateur en stockant, analysant, archivant des données, ainsi qu'en surveillant tous les processus. Des détails sur ces deux applications peuvent être trouvés ailleurs.

2.15 Interface utilisateur graphique

La plupart des méthodes mentionnées ci-dessus sont également disponibles dans l'interface utilisateur graphique de MagPy. Pour l'utiliser, consultez les instructions d'installation de votre système d'exploitation. Vous trouverez des tutoriels vidéo en ligne (à ajouter) décrivant son utilisation pour des analyses spécifiques.

2.16.1 Échanger des objets de données avec ObsPy

MagPy prend en charge l'échange de données avec ObsPy, la boîte à outils sismologique. Les objets de données des deux packages python sont très similaires. Remarque : ObsPy suppose des intervalles de temps réguliers. Soyez prudent si ce n'est pas le cas avec vos données. L'exemple ci-dessous montre une routine d'importation simple, sur la façon de lire un fichier de départ et de tracer un spectrogramme (que vous pouvez également obtenir de manière identique à partir d'ObsPy). Les conversions vers MagPy permettent des analyses vectorielles et des applications géomagnétiques. Les conversions vers ObsPy sont utiles pour une analyse efficace à haute fréquence, nécessitant des intervalles de temps régulièrement espacés, et pour l'exportation vers des formats de données sismologiques.

Les problèmes possibles avec MagPy et ObsPy sur la même machine qu'obspy nécessitent des packages scipy/numpy spécifiques, éventuellement en conflit : si vous observez de tels problèmes, envisagez d'installer ObsPy via APT

Ensuite, vous pouvez installer magpy comme décrit ci-dessus. L'utilisation de packages python3 essentiels d'apt est également utile, si des problèmes de dépendance sont observés :

L'option addflags indique que les informations de marquage seront ajoutées au format ImagCDF. Veuillez noter que ceci est encore en cours de développement et que les spécifications de contenu et de format peuvent donc changer. Veuillez donc l'utiliser uniquement à des fins de test et non pour l'archivage. Pour lire et afficher les données ImagCDF signalées, utilisez simplement la commande de lecture normale et activez l'annotation pour le traçage.

MagPy est livré avec un nombre croissant d'applications à des fins diverses. Ces applications peuvent être exécutées à partir d'une invite de commande et permettent de simplifier/automatiser certaines applications couramment utilisées de MagPy. Toutes les applications ont la même syntaxe, composée du nom de l'application et des options. L'option -h est disponible pour toutes les applications et fournit un aperçu de l'objectif et des options de l'application :

3.1 Exécution d'applications sous Linux/MacOs

Sur les systèmes Linux, toutes les applications sont ajoutées au répertoire bin et peuvent être exécutées directement à partir de n'importe quelle interface de commande/terminal après l'installation de MagPy :

3.2 Exécution d'applications sous Windows

Après avoir installé MagPy/GeomagPy sous Windows, trois exécutables se trouvent dans le dossier du programme MagPy. Pour exécuter des applications, vous devez lancer l'"invite de commande" MagPy. Dans ce terminal vous devrez vous rendre dans le répertoire Scripts :

Et ici, vous pouvez maintenant exécuter l'application de votre choix en utilisant l'environnement python :

Les applications disponibles sont brièvement présentées ci-dessous. Veuillez vous référer à "application -h" pour toutes les options disponibles pour chaque application.

mpconvert convertit entre les formats de données basés sur MagPy. Les applications typiques sont la conversion de formats de données binaires en ensembles de données ASCII lisibles ou la conversion.

Les applications typiques incluent

a) Convertissez les secondes IAGA en IMAGCDF et incluez les méta-informations obligatoires :

b) Convertir les secondes IMAGCDF en minutes IAF (à l'aide des procédures de filtrage IAGA/IM) :

mpconvert -r "/srv/products/data/magnetism/definitive/wic2017/ImagCDF/wic_201708_000000_PT1S_4.cdf" -f IAF -i -w "/tmp"

Utilisé pour stocker les informations d'identification cryptées pour le transfert automatique de données. Ainsi, les informations sensibles ne doivent pas être écrites en texte brut dans des scripts ou des tâches cron.

a) Ajoutez des informations pour le transfert de données ftp. Ces informations sont cryptées et sont accessibles en se référant au raccourci « zamg ».

4. Liste de toutes les méthodes MagPy

Veuillez utiliser la méthode d'aide (section 2.3) pour les descriptions et les valeurs de retour.

grouper méthode paramètre
- trouver le chemin nom, chemin
- _pickle_method méthode
- _unpickle_method nom_fonction, obj, cls
flux init self, container=Aucun, header=<>,ndarray=Aucun
flux poste soi, structure de colonnes
flux ajouter soi, datlst
flux longueur soi
flux remplacer soi, datlst
flux copie soi
flux str soi
flux repr soi
flux obtenir l'article soi, index
flux longueur soi
flux clear_header soi
flux se déployer self, datlst, en-tête, ndarray
flux syndicat soi, colonne
flux supprimédoublons soi
flux début self, dateformt=Aucun
flux finir self, dateformt=Aucun
flux trouver le temps soi,temps,**kwargs
flux _find_t_limits soi
flux _print_key_headers soi
flux _get_key_headers soi,**kwargs
flux _get_key_names soi
flux goutte vide soi
flux vide soi, ndarray, liste de clés
flux tri soi
flux _get_line soi, clé, valeur
flux _take_columns soi, clés
flux _remove_lines soi, clé, valeur
flux _get_column soi, clé
flux _put_column self, colonne, clé, **kwargs
flux _move_column soi, clé, put2key
flux _drop_column soi, clé
flux _clear_column soi, clé
flux _reduce_stream soi, limite de points = 100000
flux _remove_nancolumns soi
flux _aic self, signal, k, debugmode=Aucun
flux nuire soi, nt, val, fitdegré
flux _get_max self, key, returntime=False
flux _get_min self, key, returntime=False
flux amplitude soi, clé
flux _gf soi, t, tau
flux _hf soi, p, x
flux _residual_func soi, func, y
flux _tau soi, période, fac=0.83255461
flux _convertstream soi, coordonner, **kwargs
flux _effacer soi, index
flux _ajouter soi, flux
flux _det_trange soi, période
flux _is_numéro soi, m
flux _normaliser soi, colonne
flux _temps de test temps personnel
flux _drop_nans soi, clé
flux _select_keys soi, clés
flux _select_timerange self, starttime=Aucun, endtime=Aucun, maxidx=-1
flux aic_calc soi, clé, **kwargs
flux ligne de base self, Absolutedata, **kwargs
flux stream2dict self, keys=['dx','dy','dz'], dictkey='DataBaseValues'
flux dict2stream self,dictkey='DataBaseValues'
flux ligne de baseAvancé soi, absdata, liste de base, **kwargs
flux avant JC self, function=None, ctype=None, alpha=0.0,level='preliminary'
flux détecteur de reliure self,key,flagnum=1,keystoflag=['x'],sensorid=None,text=None,**kwargs
flux calc_f soi, **kwargs
flux tous les jours signifie self, keys=['x','y','z','f'], **kwargs
flux décalage_date soi, décalé
flux delta_f soi, **kwargs
flux f_de_df soi, **kwargs
flux différencier soi, **kwargs
flux DWT_calc self,key='x',wavelet='db4',level=3,plot=False,outfile=None,
flux enregistreur d'événements self, key, values, compare=None, stringvalues=None, addcomment=None, debugmode=None
flux extrait self, key, value, compare=None, debugmode=None
flux extrait2 self, keys, get='>', func=None, debugmode=None
flux extrapoler soi, début, fin
flux filtre soi,**kwargs
flux en forme soi, clés, **kwargs
flux extraire les drapeaux soi
flux au drapeau self,indexarray,flag,comment,keys=Aucun
flux flag_range soi, **kwargs
flux flag_outlier soi, **kwargs
flux drapeau self, flaglist, removeupplicates=False, debug=False
flux flagliststats soi, flaglist
flux flaglistclean soi, flaglist
flux stream2flaglist self, userange=True, flagnumber=None, keystoflag=None, sensorid=None, comment=None
flux flaglistmod self, mode='select', flaglist=[], parameter='key', value=None, newvalue=None
flux flaglistajouter self, flaglist, sensorid, keys, flagnumber, comment, startdate, enddate=None
flux flag_stream self, key, flag, comment, startdate, enddate=None, samplingrate=0., debug=False
flux simplebasevalue2stream self,basevalue,**kwargs
flux func2stream auto,fonction,**kwargs
flux func_add auto,fonction,**kwargs
flux func_subtract auto,fonction,**kwargs
flux get_gaps soi, **kwargs
flux get_rotationangle self, xcompensation=0,keys=['x','y','z'],**kwargs
flux get_sampling_period soi
flux taux d'échantillonnage soi, **kwargs
flux intégrer soi, **kwargs
flux Interpol soi, clés, **kwargs
flux k_étendre soi, **kwargs
flux k_fmi soi, **kwargs
flux linestruct2ndarray soi
flux signifier soi, clé, **kwargs
flux valeur manquante self,v,window_len,threshold=0.9,fill='mean'
flux MODWT_calc self,key='x',wavelet='haar',level=1,plot=False,outfile=None
flux multiplier soi, facteurs, carré=Faux
flux décalage soi, décalages, **kwargs
flux terrain self, keys=None, debugmode=None, **kwargs
flux spectre de puissance self, key, debugmode=None, outfile=None, fmt=None, axes=None, title=None,**kwargs
flux goutte au hasard self,percentage=Aucun,fixed_indicies=Aucun
flux supprimer self, starttime=Aucun, endtime=Aucun
flux supprimer_signalé soi, **kwargs
flux remove_outlier soi, **kwargs
flux rééchantillonner soi, clés, **kwargs
flux rotation soi,**kwargs
flux correction_échelle soi, clés, échelles, **kwargs
flux touches de sélection soi, clés, **kwargs
flux lisse self, keys=None, **kwargs
flux spectrogramme self, keys, per_lap=0.9, wlen=Aucun, log=False,
flux se stabiliser soi, clé, fenêtre de temps, **kwargs
flux stéréogramme soi, **kwargs
flux garniture self, starttime=Aucun, endtime=Aucun, newway=False
flux variomètrecorrection soi, variopath, la date, **kwargs
flux _write_format self, format_type, filenamebegins, filenameends, couverture, dateformat,year
flux écrivez self, chemin de fichier, compression=5, **kwargs
flux idf2xyz soi,**kwargs
flux xyz2idf soi,**kwargs
flux xyz2hdz soi,**kwargs
flux hdz2xyz soi,**kwargs
- transformation de coordonnées u,v,w,gentil
- estNuméro s
- trouver_le plus proche tableau, valeur
- ceil_dt dt, secondes
- lis path_or_url=Aucun, dataformat=Aucun, headonly=False, **kwargs
- _lis nom de fichier, dataformat=Aucun, headonly=False, **kwargs
- drapeaux de sauvegarde mylist=Aucun,chemin=Aucun
- indicateurs de charge path=None,sensorid=None,begin=None, end=None
- joinStreams stream_a, stream_b, **kwargs
- ajouterFlux liste de diffusion
- mergeStreams stream_a, stream_b, **kwargs
- dms2d dms
- find_offset stream1, stream2, guess_low=-60., guess_high=60.
- DiffStreams stream_a, stream_b, **kwargs
- soustraireFlux stream_a, stream_b, **kwargs
- stackStreams liste de diffusion, **kwargs
- comparerStreams stream_a, stream_b
- array2stream listofarrays, keystring,starttime=Aucun,sr=Aucun
- obspy2magpy opstream, keydict=<>
- extractDateFromString chaîne de date
- testTimeString temps
- dénormaliser colonne, valeur de départ, valeur de fin
- trouver_le plus proche tableau, valeur
- masqueNAN colonne
- nan_helper oui
- le plus prochePow2 X
- temps de test temps
- convertirGeoCoordinate lon, lat, pro1, pro2
mpplot intrigue facile flux
mpplot plot_new stream,variables=[],specialdict=<>,errorbars=False,padding=0,noshow=False
mpplot terrain stream,variables=[],specialdict=<>,errorbars=False,padding=0,noshow=False
mpplot plotStreams streamlist,variables,padding=Aucun,specialdict=<>,errorbars=Aucun
mplot toggle_selector un événement
mpplot ajouterDrapeau données, indicateur, indeciestobeflaged, variables
mpplot complotDrapeau data,variables=Aucun,figure=Faux
mpplot parcelleEMD stream,key,verbose=False,plottitle=Aucun
mplot plotNormStreams streamlist, clé, normalize=True, normalizet=False
mpplot plotPS stream,key,debugmode=False,outfile=None,noshow=False
mplot plotSatMag mag_stream,sat_stream,keys,outfile=None,plottype='discontinuous'
mplot plotSpectrogramme flux, clés, NFFT=1024, detrend=mlab.detrend_none
mpplot magpySpecgram x, NFFT=256, Fs=2, Fc=0, detrend=mlab.detrend_none
mplot plotStéréoplot stream,focus='all',colorlist = ['b','r','g','c','m','y','k']
mpplot _terrain data,savedpi=80,grid=True,gridcolor=gridcolor,noshow=False
mpplot _confinex hache, tmax, tmin, unité de temps
mplot _extract_data_for_PSD flux, clé
base de données dbgetPier db,pierid, rp, value, maxdate=Aucun, l=False, dic='DeltaDictionary'
base de données dbgetlines db, nom de table, lignes
base de données dbupdate db, tablename, keys, values, condition=None
base de données dbgetfloat db,tablename,sensorid,columnid,revision=Aucun
base de données dbgetstring db,tablename,sensorid,columnid,revision=Aucun
base de données dbupload db, path,stationid,**kwargs
base de données dbinit db
base de données dbdelete db, datainfoid, **kwargs
base de données dbdict2fields db,header_dict,**kwargs
base de données dbfields2dict db, informations de données
base de données débrouiller db
base de données dbselect db, element, table, condition=Aucun, expert=Aucun, debug=False
base de données coordonnées db base de données, jetée, epsgcode='epsg:4326'
base de données dbsensorinfo db,sensorid,sensorkeydict=None,sensorrevision = '0001'
base de données dbdatainfo db,sensorid,datakeydict=None,tablenum=None,defaultstation='WIC',updatedb=True
base de données écrireDB db, datastream, tablename=None, StationID=None, mode='replace', revision=None, debug=False, **kwargs
base de données dbsetTimesinDataInfo db, tablename,colstr,unitstr
base de données dbupdateDataInfo db, nom de table, en-tête
base de données stream2db db, datastream, noheader=None, mode=None, tablename=None, **kwargs
base de données readDB db, table, starttime=Aucun, endtime=Aucun, sql=Aucun
base de données db2stream db, sensorid=None, begin=None, end=None, tableext=None, sql=None
base de données diline2db db, dilinestruct, mode=Aucun, **kwargs
base de données db2diline db,**kwargs
base de données appliquerDeltas db, flux
base de données obtenir une ligne de base db, sensorid, date=Aucun
base de données flaglist2db db,flaglist,mode=Aucun,sensorid=Aucun,modificationdate=Aucun
base de données db2flaglist db,sensorid, begin=None, end=None, comment=None, flagnumber=-1, key=None, removeupplicates=False
base de données string2dict chaîne de caractères
transfert _checklogfile fichier journal
transfert transfert de données ftp **kwargs
transfert _valeurs manquantes myproxy, port, connexion, mot de passe, fichier journal
transfert scptransfer src,dest,passwd,**kwargs
transfert ssh_remotefilelist chemin distant, filepat, utilisateur, hôte, passwd
transfert ginupload nom de fichier=Aucun, utilisateur=Aucun, mot de passe=Aucun, url=Aucun,**kwargs
transfert ftpdirlist **kwargs
transfert ftpremove **kwargs
transfert ftpget ftpaddress,ftpname,ftppasswd,remotepath,localpath,identifier,port=None,**kwargs


Les références

Bates, P.A. et al. Progrès récents dans la recherche sur les phlébotomes liés à la lutte contre la leishmaniose. Parasite. Vecteur 8, 131. https://doi.org/10.1186/s13071-015-0712-x (2015).

Ferro, C. et al. Écologie des vecteurs de phlébotomies dans la transmission domestique de la leishmaniose cutanée américaine à Chaparral, Colombie. Un m. J. Trop. Méd. Hyg. 85, 847-856. https://doi.org/10.4269/ajtmh.2011.10-0560 (2011).

Maroli, M., Feliciangeli, M. D., Bichaud, L., Charrel, R. N. & Gradoni, L. K. M. Phlebotomine sand mouches et propagation des leishmanioses et autres maladies préoccupantes pour la santé publique. Méd. Vétérinaire. Entomol. 27, 123-147. https://doi.org/10.1111/j.1365-2915.2012.01034.x (2013).

Velez, I. D., Hendrickx, E., Robledo, S. M. & Agudelo, S. Leishmaniosis cutánea en Colombia y género. Goujat. Saude. Éd. 17, 171-180. https://doi.org/10.1590/S0102-311X2001000100018 (2001).

Département OMS de Lutte contre les Maladies Tropicales Négligées. OMS : Relevé épidémiologique hebdomadaire Relevé épidémiologique hebdomadaire. Hebdomadaire. Epidémiol. Rec. 21, 421–428 (2016).

OMS. Contrôle de la leishmaniose Informe d'une réunion du comité d'experts de l'OMS afin de lutter contre la leishmaniose. OMS 949, 1–199 (2010).

Agudelo, N.J. Informe de Evento Leishmaniasis Cutanea, Mucosa y Visceral, Colombie 2018. Préimpression sur https://www.ins.gov.co/buscador-eventos/Informesdeevento/LEISHMANIASIS_2018.pdf (2018)

Ferro, C. et al. Distribution spatiale des vecteurs des phlébotomes et éco-épidémiologie de la transmission de la leishmaniose cutanée en Colombie. PLoS UN 10, 1–16. https://doi.org/10.1371/journal.pone.0139391 (2015).

Ramirez, J.D. et al. Taxonomie, diversité, distribution temporelle et géographique de la leishmaniose cutanée en Colombie : une étude rétrospective. Sci. représentant https://doi.org/10.1038/srep28266 (2016).

Pardo, R.H., Cabrera, O.L., Becerra, J., Fuya, P. & amp Ferro, C. Lutzomyia longiflocosa, vecteur posible dans un foyer de leishmaniose cutanea dans la région subandina del departamento del Tolima, Colombie. Biomédecine 26, 95–108. https://doi.org/10.7705/biomedica.v26i1.1504 (2006).

Ovalle, C. et al. Distribución geográfica de especies de Leishmanie aisladas de pacientes consultants al Instituto Nacional de Dermatología Federico Lleras Acosta. Biomédecine 26, 145-151. https://doi.org/10.7705/biomedica.v26i1.1508 (2006).

Rodriguez-Barraquer, I. et al. Agent étiologique d'une épidémie de leishmaniose cutanée à Tolima, Colombie. Un m. J. Trop. Méd. Hyg. 78, 276–282 (2008).

Alvar, J. et al. Leishmaniose dans le monde et estimations mondiales de son incidence. PLoS UN 7, e35671. https://doi.org/10.1371/journal.pone.0035671 (2012).

Bejarano, E. E. & Estrada, L. G. Family Psychodidae. Dans Catalogue des Diptères de Colombie (eds Wolf, M. et al.) 187-238 (Magnolia Press, 2016).

Roque, A. L. R. & Jansen, A. M. Réservoirs sauvages et synanthropiques d'espèces de Leishmania dans les Amériques. Int. J. Parasitol. Parasites Wildl. 3, 251-262. https://doi.org/10.1016/j.ijppaw.2014.08.004 (2014).

Gonzalez, C. et al. Connaissances actuelles des vecteurs de Leishmania au Mexique : Comment les distributions géographiques des espèces sont liées aux zones de transmission. Un m. J. Trop. Méd. Hyg. 85, 839–846 (2011).

Stephens, C.R. et al. Utilisation des réseaux d'interactions biotiques pour la prédiction de la biodiversité et des maladies émergentes. PLoS UN 4, 1–9. https://doi.org/10.1371/journal.pone.0005725 (2009).

Urbano, J. et al. Caractérisation des isolats cutanés de Leishmanie en Colombie par typage des isoenzymes et analyse de restriction de l'ADNk. Rev. Ibéro-latinoam. 70, 16–24 (2011).

Contreras-Gutiérrez, M. A., Vélez, I. D., Porter, C. & Uribe, S. I. Lista actualizada de flebotomíneos (Diptera : Psychodidae : Phlebotominae) de la región cafetera colombiana. Biomédecine 26, 483-498. https://doi.org/10.7705/biomedica.v34i3.2121 (2014).

Meyer, C. P. & Paulay, G. Code-barres ADN : taux d'erreur basés sur un échantillonnage complet. PLoS Biol. 3, 1–10. https://doi.org/10.1371/journal.pbio.0030422 (2005).

Desjeux, P. Aspects de santé publique et contrôle de la leishmaniose. Clin. Dermatol. 14, 417–423 (1996).

Ibarra-Cerdeña, C.N., Valiente-Banuet, L., Sánchez-Cordero, V., Stephens, C.R. & Ramsey, J.M. Trypanosoma cruzi réservoir—Les réseaux de cooccurrence de vecteurs triatomes révèlent les effets de la méta-communauté des mammifères synanthropes sur la dispersion géographique. Pair J. 5, e3152. https://doi.org/10.7717/peerj.3152 (2017).

Adler, G. H., Becerra, M. T. & Travi, B. L. Succès alimentaire de Lutzomyia evansi (Diptera : Psychodidae) exposés expérimentalement à des hôtes de petits mammifères dans un foyer endémique de Leishmania chagasi dans le nord de la Colombie. Biomédecine 23, 396–400 (2003).

Adler, G. H., Arboledo, J. J. & Travi, B. L. Diversité et abondance de petits mammifères dans la forêt tropicale sèche dégradée du nord de la Colombie. Mammifères 61, 361–370 (1997).

Travi, B.L. et al. Didelphis marsupialis, un important réservoir de Trypanosoma (schizotrypanum) cruzi et Leishmania (leishmania) chagasi en Colombie. Un m. J. Trop. Méd. Hyg. 50, 557–565 (1994).

Pérez-Hernández, R., Ventura, J. & López Fuster, M. Gracilinanus marica. Dans La Liste rouge de l'UICN des espèces menacées. https://doi.org/10.2305/UICN.UK.20161.RLTS.T9420A22169944.en (2016).

Berzunza-cruz, M. et al. Leishmanie (L.) mexicaine chauves-souris infectées au Mexique : nouveaux réservoirs potentiels. PLoS Negl. Trop. Dis. 9, e0003438. https://doi.org/10.1371/journal.pntd.0003438 (2015).

De Lima, H. et al. Isolement et identification moléculaire de Leishmania chagasi d'une chauve-souris (Carollia perspicillata) dans le nord-est du Venezuela. Mém. Inst. Oswaldo. Cruz. 103, 412–414 (2008).

Mouriz-Savani, E.M. et al. Détection en parasitologie vétérinaire de Leishmania (Leishmania) amazonensis et Leishmania (Leishmania) infantum chagasi chez les chauves-souris brésiliennes. Vétérinaire. Parasitol. 168, 5-10. https://doi.org/10.1016/j.vetpar.2009.10.019 (2010).

Sousa, L. C. C., Gontijo, C. M. F., Botelho, H. A. & Fonseca, C. G. Variabilité génétique mitochondriale de Didelphis albiventris (Didelphimorphia, Didelphidae) dans des localités brésiliennes. Genet. Mol. Biol. 529, 522-529. https://doi.org/10.1590/S1415-47572012005000035 (2012).

De Rezende, M.B. et al. Détection de Leishmania spp chez les chauves-souris d'une zone du Brésil endémique de la leishmaniose viscérale. Transbound Emerg Dis. 64, e36–e42 (2017).

Killick-Kendrick, R. Phlébotomie vecteurs des leishmanioses : une revue. Méd. Vétérinaire. Entomol. 4, 1–24 (1990).

Ponce, N., Zipa, Y. & Ferro, C. Presencia en el peridomicilio de vectores infectados con Leishmanie (Viannie) panamensis en dos focos endémicos en el occidente de Boyacá, piedemonte del valle del Magdalena medio, Colombie. Biomédecine 26, 82–94 (2006).

Stephens, C.R. et al. Pouvez-vous juger un hôte de la maladie par la compagnie qu'il entretient ? Prédire les hôtes de la maladie et leur importance relative : une étude de cas pour la leishmaniose. PLoS. Négl. Trop. Dis. 10, e0005004. https://doi.org/10.1371/journal.pntd.0005004 (2016).

Sistema Nacional de Vigilancia en Salud Pública—SIVIGILA. Reportes epidemiológicos (2016). http://www.ins.gov.co/lineas-deaccion/SubdireccionVigilancia/sivigila/Paginas/sivigila.aspx. Consulté en juillet 2019.

Parmenter, R. R. et al. Estimation de la densité des petits mammifères : une comparaison sur le terrain des estimateurs de densité basés sur une grille et basés sur le Web. Écol. Monogr. https://doi.org/10.1890/0012-9615 (2002).

Tirira, D. Tecnicas de Campo Para el Estudio de Mamiferos Silvestres. Potinficia Universidad Catolica del Ecuador/SIMBIOE. Éd. Quito spécial 1, 93–125 (1998).

Cuartas-Calle, C. & Muñoz-Arango, J. Marsupiales, Celonéstidos, e insectivoros de Colombia. Éditer. Univ. de Antioquia (Medellin) 1, 227 (2003).

Young, D. & Duncan, M. Guide d'identification et de répartition géographique des phlébotomes Lutzomyia au Mexique, aux Antilles, en Amérique centrale et du Sud (Diptera : Psychodidae) Vol. 1, 881 (Éditeurs associés, 1994).

Galati, E.A.B. Apostila de Bioecologia e Identificação de Phlebotominae (Diptera, Psychodidae) Vol. 1, 127 (Departamento de Epidemiologia, Faculdade de Saúde Pública da USP, 2015).

Ocampo, C.B. et al. Facteurs environnementaux associés à la leishmaniose cutanée américaine dans un nouveau foyer andin en Colombie. Trop. Méd. Int. Santé 17, 1309-1317. https://doi.org/10.1111/j.1365-3156.2012.03065.x (2012).

Hernández, C. et al. Identification de Six Nouveau Monde Leishmanie espèces grâce à la mise en œuvre d'un essai de génotypage de fusion à haute résolution (HRM). Parasite. Vecteurs 7, 1–7. https://doi.org/10.1186/s13071-014-0501-y.1 (2014).

El Tail, N. O., Osman, O. F., El Fari, M., Presber, W. & Schonian, G. L'hétérogénéité génétique de l'espaceur transcrit interne ribosomique dans des échantillons cliniques de Leishmania donovani repéré sur papier filtre comme révélé par les polymorphismes de conformation simple brin et le séquençage. Trans. R. Soc. Trop. Méd. Hyg. 94, 575-579. https://doi.org/10.1016/S0035-9203(00)90093-2 (1996).

Herrera, G. et al. Évaluation d'un schéma de typage de séquences multilocus (MLST) pour Leishmanie (Viannie) braziliensis et Leishmanie (Viannie) panamensis en Colombie. Parasite. Vecteurs 10, 236. https://doi.org/10.1186/s13071-017-2175-8 (2017).

Molaei, G., Andreadis, T. G., Armstrong, P. M., Anderson, J. F. & Vossbrinck, C. R. Culex transmission des moustiques et du virus du Nil occidental, nord-est des États-Unis. Émerger. Infecter. Dis. 12, 468–474 (2006).

Laurito, M., De Oliveira, T. M. P., Almirón, W. R. & Sallum, M. A. M. COI barcode versus morphological identification of Culex Espèce (Culex) (Diptera: Culicidae): Une étude de cas utilisant des échantillons d'Argentine et du Brésil. Mém. Inst. Oswaldo. Cruz. 108, 110-122. https://doi.org/10.1590/0074-0276130457 (2013).

Kearse, M. et al. Geneious Basic : Une plate-forme logicielle de bureau intégrée et extensible pour l'organisation et l'analyse des données de séquence. Bioinformatique 12, 1647-1649. https://doi.org/10.1093/bioinformatics/bts199 (2012).


La visualisation des données simplifiée : aperçus pour devenir visuel

Data Visualization Made Simple est un guide pratique sur les principes fondamentaux, les stratégies et les cas réels de la visualisation des données, une compétence essentielle requise dans le monde riche en informations d'aujourd'hui. Avec des fondements ancrés dans les statistiques, la psychologie et l'informatique, la visualisation des données offre aux praticiens de presque tous les domaines un moyen cohérent de partager les résultats de la recherche originale, des mégadonnées, de l'analyse de l'apprentissage, etc.

En neuf chapitres attrayants, le livre :
• examine le rôle des graphiques de données dans la prise de décision, le partage d'informations, le déclenchement de discussions et l'inspiration de recherches futures
• examine les graphiques de données, délibère sur les messages qu'ils véhiculent et examine les options de visualisation et de conception de la conception.
• comprend des cas et des entretiens pour fournir une vision contemporaine de la façon dont les graphiques de données sont utilisés par les professionnels de tous les secteurs

Les novices et les concepteurs chevronnés dans les domaines de l'éducation, des affaires et d'autres domaines peuvent utiliser le processus linéaire efficace de ce livre pour développer la maîtrise de la visualisation des données et promouvoir des approches exploratoires et basées sur l'enquête des problèmes de visualisation.


Évaluation de l'accessibilité des établissements de santé basée sur les transports publics en tenant compte de l'hétérogénéité spatiale

Assurer une accessibilité adéquate par les transports publics aux établissements de santé dans différentes régions est une préoccupation majeure d'équité sociale et de santé publique pour le gouvernement. Cependant, la répartition spatiale déséquilibrée des établissements de santé peut conduire à une évaluation inexacte de l'accessibilité, qui est façonnée à la fois par l'utilisation du sol et les transports. Pour résoudre ce problème, cette étude a proposé une nouvelle approche pour évaluer l'adéquation de l'accessibilité par les transports publics aux établissements de santé compte tenu de l'hétérogénéité spatiale. Tout d'abord, nous avons obtenu la distribution spatiale des établissements de santé sur la base des données de POI, calculé les centroïdes de population des données de positionnement des téléphones portables basées sur les secteurs de recensement et estimé les temps de trajet des centroïdes de population à chaque établissement de santé sur la base des services de carte Web. Deuxièmement, l'accessibilité par les transports publics aux établissements de santé a été mesurée par l'approche isochrone. Ensuite, l'hétérogénéité spatiale des formations sanitaires a été quantifiée par un indice de proximité spatiale basé sur le modèle de gravité. Enfin, une courbe de référence de l'accessibilité par rapport à la proximité spatiale a été établie pour évaluer l'accessibilité par les transports publics aux établissements de santé dans différentes zones présentant une hétérogénéité spatiale. Une étude de cas de 218 secteurs de recensement à Shanghai a été menée pour vérifier cette méthode. Par conséquent, nous avons réussi à identifier les secteurs de recensement où l'accessibilité par les transports publics aux établissements de santé est insuffisante. Il montre que même certains secteurs de recensement dans les zones centrales de la ville ne disposent toujours pas d'une accessibilité par les transports publics aux établissements de santé, alors que certains secteurs de la périphérie urbaine peuvent avoir une accessibilité adéquate par les transports en commun, même s'il y a peu d'établissements de santé à proximité.

1. Introduction

Étant donné que la santé et le traitement sont essentiels à notre vie quotidienne, une accessibilité suffisante aux établissements de santé doit être assurée dans différentes régions et pour différents groupes de personnes. De plus, comme une grande partie des patients sont des personnes âgées, les pauvres et les handicapés qui ne possèdent pas de voiture doivent dépendre des transports publics pour se rendre à l'hôpital. Ainsi, comment évaluer l'accessibilité des établissements de santé par les transports publics est un problème important qui doit être résolu.

En fait, l'accessibilité est façonnée par deux facteurs, à savoir l'occupation du sol et le transport [1]. Plus précisément, le facteur d'occupation du sol peut être considéré comme la proximité spatiale des établissements de santé, tandis que le facteur de transport est le niveau de services de transport public. En raison des effets d'agrégation des populations et des ressources urbaines, la différenciation spatiale entre les zones urbaines centrales et les zones suburbaines de la ville est une tendance économique inévitable, également appelée hétérogénéité spatiale. Par conséquent, le facteur d'occupation du sol résultant d'une répartition déséquilibrée des établissements de santé peut avoir un impact plus important sur l'accessibilité que le développement des transports publics. Par exemple, les régions entourées de nombreux établissements de santé peuvent avoir une accessibilité élevée aux établissements de santé grâce aux transports publics, même si le niveau de service de transport public est médiocre. Au contraire, l'accessibilité par les transports publics dans les régions avec peu d'établissements de santé autour ne peut jamais atteindre un niveau élevé même si le système de transport public est bien développé.

Bien que le facteur d'occupation des sols ne soit pas facile à modifier car la construction d'établissements de santé est coûteuse et prend du temps, l'amélioration du système de transport public est plus réaliste. Alors comment évaluer et améliorer l'accessibilité par les transports publics dans différentes régions à hétérogénéité spatiale ? La plupart des études précédentes se contentaient de comparer directement les valeurs d'accessibilité des différentes régions sans tenir compte de l'hétérogénéité spatiale. Cependant, étant donné que le facteur d'occupation des sols détermine la disponibilité et la densité des formations sanitaires, il n'est pas raisonnable d'exiger des régions disposant de peu de formations sanitaires autour d'atteindre le même niveau d'accessibilité que les régions entourées de nombreuses formations sanitaires.

Pour répondre au problème ci-dessus, cet article vise à proposer une nouvelle approche pour évaluer l'accessibilité par les transports publics aux établissements de santé compte tenu de l'hétérogénéité spatiale. En explorant la relation entre l'accessibilité et la proximité spatiale des établissements de santé, nous pouvons établir une courbe de référence pour l'évaluation. De ce fait, il existe une accessibilité de référence correspondant à chaque valeur de proximité spatiale. Il est également considéré comme la norme d'évaluation que l'accessibilité basée sur les transports publics devrait atteindre. De cette manière, nous pouvons estimer l'écart entre l'accessibilité réelle et l'accessibilité de référence et reconnaître les zones géographiques où l'accessibilité par les transports publics aux établissements de santé est insuffisante.

Le reste de cet article est organisé comme suit : la section 2 passe en revue la littérature relative à cette étude.Les données, y compris les points d'intérêt, le positionnement du téléphone portable et le temps de trajet sont analysées dans la section 3. Ensuite, les méthodes de mesure de l'accessibilité basée sur les transports publics, l'analyse de la proximité spatiale des établissements de santé et le modèle d'évaluation tenant compte de l'hétérogénéité spatiale sont décrits dans la section 4 La section 5 examine les résultats et les implications politiques pour l'amélioration de l'accessibilité à Shanghai. La dernière section conclut les faits saillants et les limites de cette étude et suggère des orientations futures.

2. Revue de la littérature

2.1. Mesures de l'accessibilité

L'accessibilité peut être définie et mesurée avec différentes méthodes [1]. Celles-ci incluent des définitions bien connues telles que la facilité d'accès à n'importe quelle zone d'activité en utilisant un système de transport spécifique [2], les opportunités potentielles d'interaction [3], la liberté des individus de décider de participer à différentes activités [4], et la avantages globaux fournis par un système de transport donné [5]. Selon les études de Baradaran et Ramjerdi [6] et Handy et Niemeier [7], les mesures d'accessibilité ont souvent été classées en quatre catégories : (1) approche par coût de déplacement, (2) approche isochrone, (3) approche gravitaire, et (4) approche basée sur l'utilité [8]. Une comparaison des quatre mesures d'accessibilité est présentée dans le tableau 1. Différentes mesures ont leurs propres avantages et inconvénients. Les chercheurs doivent sélectionner l'approche appropriée en fonction des intérêts de recherche, des objectifs et de l'acquisition de données.

c∗ représente le seuil prédéterminé à l'intérieur duquel sont comptées les opportunités d'activité, Nj représente les opportunités dans une zone j,

représente l'utilité du groupe m sélection de l'alternative,

représente une mesure reflétant l'attrait de l'alternative j, et

représente un paramètre d'échelle positif.

Dans l'ensemble, les recherches existantes ont fourni une base solide pour la mesure de l'accessibilité. Différentes mesures ont leurs propres avantages et inconvénients. Par conséquent, les chercheurs doivent choisir l'approche appropriée en fonction des intérêts de recherche, des objectifs et de l'acquisition de données. Parce que cet article se concentre sur l'évaluation de l'accessibilité par les transports publics aux établissements de santé, cet article n'en appliquera qu'une seule plutôt que de proposer une nouvelle méthode de mesure de l'accessibilité.

2.2. Accessibilité aux établissements de santé

En termes d'accessibilité aux établissements de santé, il existe de nombreuses études empiriques dans la littérature internationale. Luo et Wang [10] ont utilisé à la fois la méthode des bassins versants flottants (FCA) et la méthode basée sur la gravité pour examiner l'accessibilité spatiale aux soins de santé primaires dans la région des dix comtés de Chicago. Ils ont en outre proposé une méthode améliorée de zone de chalandise flottante en deux étapes (E2SFCA) pour mesurer l'accessibilité spatiale aux médecins de soins primaires dans le nord de l'Illinois [11]. Ces méthodes peuvent identifier les personnes ayant un accès inadéquat aux médecins de soins primaires. Davy et al. [12] ont construit un cadre de synthèse pour analyser l'accessibilité aux services de soins de santé primaires pour les peuples autochtones. Ils ont découvert que les problèmes liés aux déterminants culturels et sociaux de la santé, tels que le chômage et les faibles niveaux d'éducation, peuvent influencer l'accès des patients autochtones, de leurs familles et de leurs communautés aux soins de santé. Agbenyo et al. [13] ont présenté un aperçu de l'accessibilité géographique aux services de santé dans les zones rurales du Ghana en utilisant une approche mixte. Ils ont constaté que le mauvais état des routes était le principal obstacle à l'accès des ménages à l'hôpital de district.

Ces études ci-dessus se concentrent principalement sur l'accessibilité en voiture aux établissements de santé. Cependant, de nombreuses personnes, telles que les personnes âgées, les pauvres et les handicapés, sont généralement plus dépendantes des transports publics pour accéder aux services de santé. Higgs et al. [14] ont étudié l'impact de différents modes de déplacement (voiture contre bus) sur les associations entre différentes mesures de l'offre de médecins généralistes (MG) et le pourcentage de patients âgés. Hou et Jiang [15] ont analysé l'accessibilité par les transports publics des quartiers résidentiels aux hôpitaux pendant les heures de pointe et les heures creuses à Changchun et ont examiné les problèmes des systèmes de transport public. LaMondia et al. [16] ont entrepris une comparaison statistique entre quatre mesures couramment appliquées de l'accessibilité des transports en commun aux établissements de santé. Leurs résultats indiquent que différentes catégories de mesures d'accessibilité fournissent des interprétations radicalement différentes de l'accessibilité qui ne sont ni comparables ni interchangeables. Cependant, aucune des études précédentes n'a jamais discuté de la relation entre l'accessibilité aux établissements de santé et les services de transport public.

2.3. Évaluation de l'accessibilité basée sur les transports publics

L'accessibilité peut être évaluée sous différentes perspectives, y compris un groupe, un mode, un emplacement ou une activité particulier [17]. La façon dont l'accessibilité est évaluée affecte de nombreuses décisions de planification [18]. Pendant ce temps, quatre types de composants peuvent être identifiés à partir de différentes évaluations : l'utilisation du sol, le transport, le temps et l'individu [1]. Dans cette étude, nous nous concentrons sur l'accessibilité basée sur les transports publics, qui décrit l'accessibilité des lieux à des destinations spécifiques par mode de transport public. Ceci est différent de l'accessibilité des transports publics qui a été définie comme « la qualité du transport en commun desservant un endroit particulier et la facilité avec laquelle les gens peuvent accéder à ce service » [19]. En bref, le premier est l'accessibilité par mode de transport public, tandis que le second est l'accessibilité aux services de transport public.

D'une part, de nombreuses recherches évaluent l'accessibilité aux transports en commun en tenant compte de l'accès aux arrêts de bus, de la durée du trajet en transports en commun et de l'accès aux destinations via les transports en commun [20]. De nombreux indices d'évaluation ont été proposés. L'un des développements les plus récents et apparemment l'un des indices les plus largement utilisés est le niveau d'accessibilité des transports publics (PTAL) développé par le London Borough of Hammersmith et Fullham [21]. Il reflète le temps de marche d'un point d'intérêt aux points d'accès aux transports en commun, la fiabilité des nœuds de services disponibles, le nombre de services disponibles dans le bassin versant et le temps d'attente moyen [19].

En revanche, peu d'études s'intéressent à l'évaluation de l'accessibilité par les transports publics. La plupart d'entre eux se limitent à la simple comparaison des mesures d'accessibilité. Par exemple, l'accessibilité basée sur les transports publics a été comparée à l'accessibilité basée sur la voiture à l'emploi et à d'autres utilisations du sol dans certaines recherches [22-26]. Yan-yan et al. [27] ont comparé l'accessibilité basée sur les transports publics de différentes zones d'analyse du trafic à Pékin en calculant les mesures d'accessibilité basées sur le SIG. Dans leurs conclusions, l'accessibilité dans les régions à ressources denses est toujours supérieure à celle dans les régions à ressources clairsemées [28]. Cependant, il y a un problème que le critère d'évaluation de l'accessibilité pour les régions avec des attributs spatiaux différents ne devrait jamais être cohérent parce que les quantités d'opportunités potentielles ne sont pas comparables. En effet, les régions avec des mesures d'accessibilité élevées n'ont pas toujours une accessibilité suffisante car la norme d'évaluation devrait être plus élevée avec plus de ressources à connecter. Par conséquent, une mesure d'accessibilité élevée ne signifie pas une accessibilité suffisante. Ces faits peuvent avoir un impact important sur le résultat de l'évaluation de l'accessibilité des établissements de santé par les transports publics.

En résumé, les études existantes se concentrent principalement sur les mesures d'accessibilité mais se penchent rarement sur l'adéquation de l'accessibilité basée sur les transports publics. La plupart d'entre eux ne tiennent pas compte de l'hétérogénéité spatiale lorsqu'ils comparent directement les mesures d'accessibilité dans différentes régions géographiques. En conséquence, il est possible que les régions à haute accessibilité manquent encore de services de transports publics, ce qui ne peut pas être reconnu par les méthodes précédentes. Par conséquent, il est plus raisonnable de comparer le niveau de services de transport public entre les régions ayant la même proximité spatiale des formations sanitaires. Dans ce contexte, cette étude vise à améliorer la méthode d'évaluation de l'accessibilité par les transports publics aux établissements de santé en intégrant l'hétérogénéité spatiale dans le critère d'évaluation. De cette manière, le problème du critère d'évaluation cohérent pour les régions avec des attributs spatiaux différents peut être résolu.

3. Préparation des données

Shanghai est une mégapole couvrant une superficie de 6 340,5 kilomètres carrés en Chine. Cette étude prend Shanghai comme cas pour évaluer l'accessibilité par les transports publics aux établissements de santé dans 218 secteurs de recensement, qui ont été définis par le gouvernement de Shanghai en 2016 dans le but d'effectuer un recensement. Nous avons obtenu les fichiers géographiques des secteurs de recensement à partir de l'Open Street Map (OSM) pour afficher les limites des secteurs de recensement sur la carte. En outre, les données de POI et les données de positionnement des téléphones portables ont été collectées et analysées pour soutenir cette étude. Les deux contiennent les informations sur les longitudes et les latitudes, avec lesquelles nous pouvons les faire correspondre aux secteurs de recensement sur la carte à l'aide de l'outil Spatial Analyst «Intersection» d'ArcGIS.

3.1. Analyse des établissements de santé basée sur les données POI

Un point d'intérêt (POI) est un emplacement de point spécifique que quelqu'un peut trouver utile ou intéressant, y compris des entreprises, des hôpitaux, des hôtels, des résidences, des bâtiments éducatifs et des centres commerciaux. Les données de POI sont généralement décrites par un nom, une adresse, une catégorie et un ensemble de coordonnées géospatiales [29]. Étant donné que cette étude se concentre sur les établissements de santé, les données de POI de tous les hôpitaux et centres de santé de Shanghai ont été collectées à l'aide de l'API de Baidu Map, un outil Web pour les interactions entre les utilisateurs et les entreprises. Par exemple, l'un des enregistrements de données POI ("a5097bfab4a5a97af13cbaa3", "Shanghai Changzheng Hospital", "Shanghai", "Huangpu", "415 Fengyang Road", "Medical Facility", "Class 3", "121.473726", "31.23890086" ) représente l'ID de l'article, le nom, la province, la région, l'adresse, l'étiquette de catégorie, l'étiquette de classe, la longitude et la latitude, respectivement.

En juillet 2016, il y avait 679 établissements de santé réguliers et faisant autorité à Shanghai, dont 78 hôpitaux (ou centres de santé) de classe 3 (les meilleurs), 184 hôpitaux de classe 2 et 417 hôpitaux de classe 1 ou autres. Étant donné les adresses, les longitudes et les latitudes de ces établissements de santé, la distribution spatiale est illustrée à la figure 1. Étant donné que les établissements de santé de classes différentes peuvent avoir des attraits différents pour les personnes, il est nécessaire de les considérer séparément. En outre, différents groupes de personnes peuvent avoir tendance à choisir différentes classes d'hôpitaux, ce qui dépend généralement de l'état du patient, de son revenu, de son âge, de son éducation, etc. Ainsi, nous attribuons différents poids d'attraction aux trois classes d'établissements de santé sur la base d'un réseau - une enquête par questionnaire où l'importance des trois classes d'établissements de santé a été évaluée par 598 répondants échantillonnés au hasard. La distribution de l'échantillon est proche de la distribution de la population. Les résultats montrent que 56% des répondants ont tendance à choisir l'hôpital de classe 3, 29% des répondants ont tendance à choisir des hôpitaux de classe 2, tandis que le reste des répondants ont tendance à choisir des hôpitaux de classe 1 ou d'autres. Ensuite, les poids des différentes classes sont normalisés comme le montre le tableau 2.


Voir la vidéo: ArcGIS API for JavaScript: Getting Started with Web Development (Octobre 2021).