Suite

L'interpolation spatiale étrange résulte du krigeage ordinaire


J'utilise le krigeage ordinaire pour interpoler un ensemble de données spatiales. Je travaille sur différents ensembles qui représentent différents jours de mesure. J'obtiens de bons résultats, à part un ensemble spécifique. Je posterai quelques exemples :

Bonnes interpolations :

Interpolation étrange :

Qu'est-ce qui peut être à l'origine de ce comportement ? Pourquoi passe-t-il au bleu clair sur presque toute la carte, sans étendre spatialement les bas et les hauts (qui sont assez regroupés !) ? Quels paramètres dois-je corriger ou quelle pourrait être l'erreur de jeu de données derrière ?

Je vois un schéma assez évident, dans lequel les valeurs ont tendance à augmenter dans le coin supérieur droit, mais cela n'est pas reflété par la surface d'interpolation.

Les pensées:

Il pourrait y avoir un bug dans mon code, mais comme dit, cela se passe bien pour tous les autres ensembles sauf celui-ci. J'ai essayé d'appliquer différents variogrammes mais les résultats sont toujours ridicules. D'autre part, d'autres algorithmes (par exemple, distance inverse) ne présentent aucun problème.

Autre info:

J'utilise R, mais je pourrais passer au SIG si nécessaire. Pour les gens de R, j'appelle juste :

krigeage <- autoKrige(value~1,finalDataset,new_data=DEM)

dumappage automatiquepaquet.

Exemples de données

J'ai téléchargé un cas de travail et le cas problématique (espérons-le).


En un mot, le problème réside dans une inadéquation entre le comportement des données et certaines hypothèses (fortes) que vous faites implicitement.

Diagnostic

Le plus fort d'entre eux est que les données sont une réalisation d'un processus stationnaire de second ordre. Ils ne le sont clairement pas, comme vous pouvez le constater en comparant la région proche (450000, 5075000) dans le "cou" supérieur (que j'appellerai "Région X") à d'autres régions de la carte. Dans toutes les autres régions, les voisins de tout support de données ont tendance à avoir des valeurs comparables. Dans la Région X, cependant, il existe de nombreuses variations sauvages entre des valeurs élevées et faibles sur de courtes distances. (Il s'agit d'une manifestation d'un fort changement dans la structure de second ordre.) Ces fluctuations gonfleront les estimations de semi-variance à de courts délais, ce qui amènera l'estimateur de variogramme automatique à déduire que la plage est courte. Il est peu probable que cette plage soit supérieure à une distance typique entre un point extrême supérieur et inférieur. C'est approximativement le rayon des points colorés apparaissant sur la carte.

Une propriété du krigeage ordinaire est que lorsque tous les points d'échantillonnage sont au-delà de la plage du variogramme, son estimation sera la moyenne du voisinage. De toute évidence, vous avez utilisé un voisinage assez vaste, peut-être l'ensemble de données complet. Il en résulte que de nombreuses valeurs de krigeage sont égales à la moyenne de l'ensemble de données, indiquée en cyan. Les valeurs de krigeage varieront de cela uniquement au niveau des cellules de la grille dans la plage d'un point de données.

De plus, d'une manière ou d'une autre, l'ajustement automatique n'incluait presque aucun effet de pépite. Cela était probablement dû au mélange des contributions du reste de l'ensemble de données, où la variation spatiale est localement faible et lisse. En particulier, il existe des groupes de points étroitement espacés (tels que ceux le long de la limite médiane gauche) qui orienteraient le variogramme vers zéro avec de courts décalages. L'absence d'effet de pépite appréciable oblige la surface krigée à passer par les points de données.

Ces deux caractéristiques du variogramme - courte portée et pépite petite ou inexistante - provoquent l'apparition d'un motif acnéique à œil de bœuf multiple, car les valeurs de krigeage doivent changer en douceur du fond cyan à chaque valeur de données sur de très courtes distances de chaque support de données.


Recommandations

Si vous deviez modifier les paramètres du variogramme, vous finiriez par lisser la variation dans la région X. Cela masquerait le changement intéressant et peut-être important du comportement des données dans la région X.

Une approche plus sophistiquée pourrait combiner certains des éléments suivants :

  • Variographie prudente et supervisée, y compris la validation croisée du variogramme et l'utilisation de variogrammes directionnels et mixtes.

  • Division de la zone d'étude en a priori régions identifiables de comportement stationnaire.

  • Co-krigeage avec les autres variables.

  • Krigeage universel pour incorporer des covariables explicatives.

  • Analyse exploratoire initiale des données pour vérifier la validité de toutes les données, en particulier celles de la région X.

  • Adopter des modèles plus complexes de covariation spatiale.

Avec les informations limitées disponibles, il serait irresponsable de recommander un plan d'action particulier, car cela dépendrait de la raison pour laquelle vous effectuez le krigeage, de ce que les données représentent et de la façon dont vous avez l'intention d'interpréter les cartes.


Vous avez dit avoir utilisé "R" mais R n'est pas un programme géostatistique, c'est plutôt un langage de programmation. Cependant, il existe des "paquets" géostatistiques dans R, par ex. gstat. Quel package as-tu utilisé ?

Notes latérales 1. La spline de lissage peut être répliquée en utilisant le cokrigeage, le krigeage ordinaire et le krigeage universel sont équivalents à l'interpolation de la fonction de base radiale et l'interpolation avec une spline est un cas particulier de RBF

  1. Vous n'avez pas besoin ou ne voulez pas plus de 15 à 20 emplacements de données dans n'importe quel quartier de recherche, cela peut dégrader les résultats et/ou conduire à des matrices de krigeage mal conditionnées.

  2. Si le variogramme change avec différentes régions, vous violez une hypothèse fondamentale du krigeage, c'est-à-dire la stationnarité intrinsèque. Vous devrez peut-être diviser la région en sous-régions et effectuer les analyses séparément pour chaque sous-région.

  3. Il est probable que vous deviez effectuer une analyse statistique plus exploratoire à la fois avant la modélisation du variogramme et le krigeage, ainsi qu'après. S'appuyer sur une routine d'ajustement de variogramme automatique n'est pas une bonne idée si vous n'avez pas une meilleure compréhension de vos données.


Caractérisation spatio-temporelle BME et cartographie de la chlorophylle de surface de la mer dans la baie de Chesapeake (USA) à l'aide des données de température de surface de la mer auxiliaire

L'introduction de SST peut aider à améliorer la précision et la couverture du SSCC distant par BME.

La modélisation à l'échelle locale est nécessaire pour décrire la relation SSCC-SST.

Une tendance à la baisse du SSCC a été observée de la partie supérieure à l'extérieur de la baie de Chesapeake (CPB).

Les SSI sont utiles pour explorer les caractéristiques spatio-temporelles de la SSCC.


Interpolation en temps réel de cartes ionosphériques globales au moyen d'une représentation éparse

Dans cet article, nous proposons une méthode pour la génération d'une carte ionosphérique globale en temps réel (RT-GIM) du contenu électronique total vertical (VTEC) à partir de mesures GNSS. Le besoin d'interpolation découle du fait que les mesures du point de perce ionosphérique (IPP) des satellites aux stations ne sont pas réparties uniformément sur l'ionosphère, laissant des lacunes non comblées au niveau des océans ou des pôles. La méthode que nous proposons est basée sur l'utilisation d'une base de données historique de haute qualité de GIM post-traités qui comprend plus de deux cycles solaires, calcule le GIM par superposition pondérée sur un sous-ensemble de la base de données avec la condition solaire compatible. La combinaison linéaire des GIM dans la base de données a été obtenue en minimisant une distance (ell _2) entre les mesures VTEC aux IPP et les VTEC de la base de données, en ajoutant une pénalisation (ell _1) sur les poids pour assurer un solution clairsemée. Le processus utilise un référentiel géomagnétique fixé par le Soleil. Cette méthode utilise l'opérateur de décomposition atomique/de retrait et de sélection le moins absolu (LASSO), qui sera appelé interpolateur de décomposition atomique des GIM (ADIGIM). Comme le calcul est fait en millisecondes, l'interpolation est effectuée en temps réel. Dans ce travail, deux produits ont été développés, notés UADG et UARG, l'UADG en temps réel et UARG avec une latence de 24h pour bénéficier de la disponibilité d'un plus grand nombre de stations. Les mesures de l'altimètre JASON3 VTEC ont servi de référence. La qualité des RT-GIM interpolés du jour 258 de 2019 au jour 155 de l'année 2020 est comparée à d'autres produits GIM RT/non-RT tels que ceux de l'International GNSS Service (IGS), du Centre National d'Etudes Spatiales (CNES), Académie chinoise des sciences (CAS), Université polytechnique de Catalogne (UPC) et autres. Les performances de RT ADIGIM se sont avérées meilleures, presque aussi bonnes que les GIM rapides ou finaux calculés rétrospectivement avec des retards de quelques heures à plusieurs jours. En outre, la qualité non RT ADIGIM est aussi bonne ou meilleure que la plupart des produits GIM. Les régions océaniques ont été incluses dans l'évaluation qui a montré que l'interpolation ADIGIM donne la meilleure estimation (référée à JASON3). La méthode développée, UADG, constituera l'UPC RT-GIM de prochaine génération, et UARG améliorera également le produit actuel UQRG (le produit UPC rapid GIM actuel calculé rétrospectivement) en raison de ses informations complémentaires.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Modélisation de la variabilité temporelle et spatiale de la durée d'humectation des feuilles au Brésil

La durée d'humectation des feuilles (LWD) est reconnue comme un conditionneur très important des maladies des cultures et des forêts, mais il est clair qu'il existe une lacune considérable dans la littérature sur les modèles temporels pour la prédiction de la LWD dans de vastes régions à partir de données météorologiques standard. L'objectif de cette étude était de développer des modèles LWD mensuels basés sur la relation entre les heures d'humidité relative (HR) ≥ 90 % et l'HR moyenne pour le Brésil et sur la base de ces modèles pour caractériser la variabilité temporelle et spatiale de LWD à travers le pays. Deux bases de données d'humidité relative différentes, l'une sur une base horaire (RHh) et une autre sur une base mensuelle (RHm), ont été utilisées. Pour élaborer les modèles LWD, 58 stations météorologiques automatiques réparties à travers le pays ont été sélectionnées. Des cartes LWD mensuelles pour l'ensemble du pays ont été préparées, et pour cela, le RHm des 358 stations météorologiques conventionnelles ont été interpolées à l'aide de techniques géostatistiques. HRm et LWD ont montré une relation sigmoïde avec un coefficient de détermination supérieur à 0,84 et étaient hautement significatifs (p < 0,0001). En ce qui concerne la validation des modèles mensuels LWD, une très bonne performance pour tous les mois a été obtenue, avec une très grande précision avec r entre 0,92 et 0,96. En ce qui concerne les erreurs, l'erreur moyenne a montré une légère tendance à la surestimation en février (0,29 h jour -1 ), mai (0,31 h jour -1 ), juillet (0,14 h jour -1 ) et août (0,34 h jour -1 ), alors que pour les autres mois, la tendance était à la sous-estimation comme janvier (−0,27 h jour −1 ) et mars (−0,25 h jour −1 ). Même dans une première approche, les résultats présentés ici représentent une grande avancée dans la climatologie de la LWD pour le Brésil et permettront le développement d'études liées aux plans de lutte contre les maladies des cultures et des forêts.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Développer une méthode de simulation géostatistique pour informer la quantité et le placement de nouveaux moniteurs pour une campagne d'échantillonnage de l'air de suivi

La conception des campagnes d'échantillonnage est un aspect crucial des études d'exposition à la pollution atmosphérique. La sélection à la fois du nombre de moniteurs et des emplacements est importante pour maximiser les informations mesurées, tout en minimisant les biais et les coûts. Nous avons développé une méthode géostatistique en deux étapes utilisant le pilote NO2 échantillons de Lanzhou, en Chine, dans le but d'améliorer la prise de décision en matière de conception d'échantillons, y compris les nombres de moniteurs et la configuration spatiale. Dans la première étape, nous évaluons comment des moniteurs supplémentaires modifient la précision de la prédiction grâce à une variance de krigeage minimisée. Cela a été évalué à la manière de Monte Carlo en ajoutant jusqu'à 50 nouveaux moniteurs à nos sites existants avec des concentrations attribuées basées sur le NO simulé de manière conditionnelle.2 superficies. Après avoir identifié un certain nombre de sites d'échantillonnage supplémentaires, une deuxième étape évalue leur placement potentiel en utilisant un schéma de Monte Carlo similaire. Les évaluations sont basées sur la précision et l'exactitude des prédictions. Les coûts sont également pris en compte dans l'analyse. Il a été déterminé que l'ajout de 28 emplacements à l'actuel Lanzhou NO2 La campagne d'échantillonnage a capturé 73,5 % de l'amélioration totale de la variance du krigeage et a abouti à des prévisions qui se situaient en moyenne à 10,9 g/m 3 des valeurs mesurées, tout en utilisant 56 % du budget potentiel. Des sites de surveillance supplémentaires ont amélioré la variance du krigeage de manière non linéaire. Ce développement de méthode permet une conception d'échantillonnage éclairée en quantifiant l'amélioration des prédictions (exactitude et précision) par rapport aux coûts de déploiement du moniteur.


2.4 Utilisation des informations sur la densité de la neige et validation

Les informations dérivées de la densité de neige sont utilisées pour post-traiter la récupération SWE de référence GSv3.0. Le post-traitement de la récupération SWE signifie que les valeurs SWE obtenues sont mises à l'échelle avec le rapport de densité de neige dynamique et constante :

ρconstant a des valeurs de 240 kg m -3 . La mise à l'échelle est effectuée pour chaque pixel dans la zone pour laquelle des densités dynamiques sont disponibles. Pour les régions en dehors des informations dynamiques de densité de neige, la considération de densité constante est retenue.

Les densités de neige obtenues et les ensembles de données SWE post-traités ont été validés à l'aide de données de validation indépendantes. Les emplacements de validation ont été séparés des données utilisées pour générer les champs de densité de neige afin d'assurer une validation croisée indépendante. L'erreur quadratique moyenne (RMSE), le biais, les coefficients de corrélation et l'erreur absolue moyenne (MAE) sont les quatre mesures statistiques utilisées pour évaluer la performance.


CONFLIT D'INTÉRÊT

Jianchao Liang : Conceptualisation (égal) curation des données (chef) analyse formelle (chef) enquête (chef) méthodologie (chef) ressources (chef) logiciel (chef) validation (égal) visualisation (chef) rédaction-ébauche originale (chef). Huijian Hu : Conceptualisation (égale) acquisition de financement (chef de file) supervision (égale). Zhifeng Ding : Analyse formelle (support) acquisition de financement (support) logiciel (support) validation (support) rédaction-ébauche originale (support). Ganwen mensonge : Analyse formelle (support) investigation (support) visualisation (support). Zhixin Zhou : Analyse formelle (soutien) acquisition de financement (soutien) logiciel (soutien). Paras Bikram Singh : Rédaction – brouillon original (à l'appui). Zhixiang Zhang : Conceptualisation (égale) acquisition de financement (soutien) supervision (égale). Shengnan Ji : Conceptualisation (accompagnement) acquisition de financement (leader) supervision (accompagnement).