Suite

Openlayers 3: Drag-draw bbox avec formulaire


Est-il possible de faire glisser/dessiner une bbox dans Openlayers 3 et de faire en sorte que les coordonnées de cette fonction remplissent automatiquement un ou plusieurs champs de formulaire sur la même page ?


J'ai compris! Je ne peux pas copier-coller à partir de mon code, alors je l'ai retapé. Pardonnez les fautes de frappe.

html :

JS :

//Dragbox - select draw = new ol.interaction.DragBox({ condition: ol.events.condition.altKeyOnly, style: new ol.style.Style({ stroke: new ol.style.Stroke({ color: [0, 0, 255, 1] ​​}) }) }); /* ajoute l'interaction DragBox à la carte */ map.addInteraction(draw); draw.on('boxend', function (evt) { var string = draw.getGeometry().getCoordinates(); itest(string); }); function itest(myString) { var thebox = myString.toString().split(","); var long1 = thebox[0]; var lat1 = laboîte[1] ; var long2 = laboîte[4] ; var lat2 = laboîte[5] ; document.getElementById("bbox0").value = long1; document.getElementById("bbox3").value = lat1; document.getElementById("bbox2").value = long2; document.getElementById("bbox1").value = lat2; }

Vous pouvez écouter l'événement boxend qui est émis lorsque l'utilisateur a fini de créer une zone de déplacement. Quelque chose comme

dragbox.on('boxend', function(evt) { form.coordinates.value = dragbox.getGeometry().getExtent().join(','); });

Intégration avec le champ géographique

Voici ce qui m'est venu aujourd'hui.
champ d'adresse est LE projet le plus prometteur et le plus "célèbre" pour stocker des adresses sur D7.
champ géo ( http://drupal.org/project/geofield ) va être LE module utilisé pour stocker les données de géolocalisation pour D7 (il a été largement discuté sur le dernier drupalcon) et est compatible avec gmap. openlayers et location, qui sont probablement tous la meilleure solution pour afficher des données cartographiques sur drupal.
Actuellement, il n'existe pas de solution complète pour saisir et stocker les données d'adresse, les géolocaliser et les afficher sur une carte.
addressfield s'occupe du stockage de l'adresse, geofield s'occupe du stockage des données de coordonnées, openlayers/location s'occupe de l'affichage des données.
Il ne manque plus qu'un lien entre les 2 premières étapes.
Des idées à ce sujet ?
Cela pourrait-il être fait peut-être avec un sous-module?


Construire le système ultime de gestion des adresses et le module de géocodage pour Drupal 7

Il existe plusieurs modules dans Drupal 6 qui gèrent les adresses, le géocodage et les points géospatiaux. J'aimerais voir une discussion à leur sujet et sur leurs meilleures parties pour baser la construction d'un système de gestion d'adresses dans Drupal 7. idées ici dans le Groupe Géolocalisation pour les rendre accessibles à un public plus large. Le fil de discussion d'origine se trouve sur http://drupal.org/node/1093392#comment-4256540.

Il existe plusieurs projets qui géocodent les données d'une manière ou d'une autre. Ce serait bien si nous pouvions les lister et catégoriser les choses que nous aimons et celles que nous n'aimons pas à leur sujet. J'ai une installation sandbox de Drupal 7 (et une sandbox Drupal 6 d'OpenLayers Geocoder) avec environ 8 modules différents qui géocodent à l'aide de plusieurs services différents. Les deux qui ont le plus à offrir en termes de connaissances pour contribuer à un géocodeur Drupal 7 sont le géocodeur openlayers (http://drupal.org/project/openlayers_geocoder) et le champ de géolocalisation Drupal 7 (http://drupal.org/ projet/géolocalisation).

Le géocodeur openlayers utilise le widget de saisie semi-automatique Drupal 6 pour interroger le serveur Google Maps Api et renvoie un objet JSON pour modifier la valeur $('input').value sur les champs du formulaire de nœud. Je pense que sa plus grande force est la prise en charge des jetons pour renommer les champs. Un inconvénient à procéder de cette manière est un plafond de 15 000 par jour sur les requêtes de géocodage vers Google Maps Api par serveur unique sans avoir à payer à Google 10 000 $ par an pour le service.

J'ai répondu à un message du forum sur le remplissage des champs CCK dans Drupal 6 avec des informations glanées auprès d'un tiers ici http://drupal.org/node/1044286#comment-4062056 décrivant la technique dans le module Openlayers Geocode. Bien sûr, en utilisant le framework Drupal 7 Ajax, ce processus serait mille fois plus facile.

Le module Geolocation Field s'annonce très prometteur. Il crée un widget qui a un seul champ pour que l'utilisateur tape une adresse. Ensuite, l'utilisateur clique sur le bouton Géocoder et le widget via un script côté client interroge l'API Google Maps qui renvoie les données géocodées pour cette adresse. L'adresse elle-même peut contenir des fautes d'orthographe et le pays placé avant la rue ou la ville et Google fera toujours un bon travail en renvoyant des informations géocodées. Cependant, le module enregistre uniquement les informations de latitude et de longitude. De plus, chaque utilisateur ou client reçoit 2500 requêtes par jour et par adresse IP, ce qui n'affecte pas les 2500 requêtes de l'autre utilisateur sur Google Maps Api

Il est tout à fait logique que ce widget fasse partie ou au moins soit un module d'extension du module Champ d'adresse où un script est ajouté et deux champs pour la latitude et la longitude. Plutôt que d'avoir un bouton qui géocodera l'adresse, faites simplement une requête à chaque frappe. Faites également en sorte que le marqueur soit déplaçable en cliquant et en faisant glisser juste au cas où il s'agirait d'un emplacement isolé que quelqu'un essaie de géocoder. C'est ainsi que fonctionne le géocodeur sur yelp.com pour ajouter des listes d'entreprises.

J'ai parcouru Google Maps Api v.3 et je pense que cela pourrait être un processus très simple.

Je ne pense pas que http://drupal.org/project/geofield soit très similaire à http://drupal.org/project/geolocation. Geofield est juste un moyen d'entrer des coordonnées géographiques dans Drupal indépendamment des adresses réelles sous forme de point, de ligne ou de polygone et se concentre sur les mathématiques pour les gérer. Geofield serait utile si un site Web gardait une trace des zones de déforestation ou des concentrations de populations de poissons (polygone). Geofield serait également utile pour suivre les schémas de migration des requins ou des oiseaux marqués (lignes) ou pour suivre l'emplacement des poissons capturés. Peut-être que si je voulais créer plusieurs points sur une carte d'où un marlin bleu a été capturé, j'utiliserais le champ géo.

Bien qu'une adresse soit un point, il n'est peut-être pas préférable d'utiliser Geofield pour gérer les adresses. Actuellement, Geolocation gère la création d'un point d'une adresse de manière très éloquente en utilisant l'API Google Geocoding et en enregistrant les coordonnées. C'est surtout ce qu'il fait. Pourtant, il ne fait pas deux choses très importantes : gérer les informations d'adresse comme le fait le module Champ d'adresse ou les mathématiques pour gérer les points comme le fait le module Geofield.

Je pense que les deux modules similaires sont Geolocation et celui-ci, Address Field. Je pense qu'ils sont en fait deux des trois parties du même paradigme de gestion des adresses. Le champ d'adresse gère les données de chaîne d'adresse et les formate pour l'affichage et le module de géolocalisation augmente les informations de chaîne d'adresse en y ajoutant deux champs supplémentaires, la latitude et la longitude. Les widgets cartographiques du module Géolocalisation ne sont que secondaires à la gestion et au stockage des champs lat et long.

Ces deux fonctions doivent être consolidées en un seul système même si, par souci de simplicité, il s'agit de deux modules distincts pouvant s'intégrer de manière transparente.

La troisième fonction du paradigme de gestion des adresses est la fonctionnalité de recherche de proximité qui est mathématique. Le module Geofield gère les mathématiques et devrait être chargé de créer des ensembles de points qui se trouvent dans un polygone arbitraire, par exemple, ou des mathématiques pour calculer l'intersection de deux lignes. Ces types de fonctionnalités dépassent de loin la portée de tout module de gestion d'adresses qui n'a besoin de rien de plus que des mathématiques pour effectuer des recherches de proximité.

À la réflexion, le module Geofield pourrait avoir une application dans un site Web de commerce électronique. Des polygones peuvent être créés pour différentes régions postales et un point d'adresse géocodé qui se situe dans les limites d'une région peut déterminer le prix de l'expédition en temps réel. Néanmoins, l'étendue que j'ai vue des informations d'adresse sur le Web ne va pas beaucoup plus loin que la recherche de proximité, qu'il s'agisse d'un site Web immobilier qui affiche les écoles à proximité en fonction de la recherche de proximité ou d'un site d'achat de compagnies aériennes qui affiche les prix des billets des aéroports voisins trop.

Dans Drupal 7, OpenLayers et http://tilemill.com/ géreront la présentation des données de géolocalisation. Geofield gérera le stockage des données géographiques sous forme de points, de lignes et de polygones et gérera les mathématiques qui leur sont associées. Et, il y aura une niche pour un module qui gère les adresses dont le lat/lng fait partie qui standardise les champs d'adresse, les champs lat/lng de géolocalisation et les méthodes pour travailler sur ces champs. Un module d'adresse doit également s'étendre via des modules contrib pour s'intégrer à OpenLayers et Geofield.

  • Une fourchette idiote d'une ancienne solution de localisation centrée sur les États-Unis de 4,6 zones qui essaie d'en faire trop
  • Un moyen de stocker et de manipuler des coordonnées géographiques ou de s'intégrer aux systèmes SIG

Le simple fait de jeter toutes les années de connaissances contenues dans un ancien module 4.6 n'est peut-être pas une si bonne idée. Joel Spolsky fait valoir un bon point lorsqu'il dit que la plus grosse erreur stratégique qu'une entreprise de logiciels puisse commettre est de réécrire le code à partir de zéro. Le module de localisation a deux fonctionnalités que le champ d'adresse serait bien servi à implémenter, l'intégration de vues et les codes de pays pour conduire l'utilisation plus claire du nouveau framework Ajax dans Drupal 7 qui est utilisé dans le module de champ d'adresse.

De plus, étant donné que la recherche de proximité peut utiliser le géocodage de l'API Google Maps et est très fortement liée aux adresses, elle doit être dans le cadre de la gestion des adresses.

Tout le code et les idées exprimés ici et d'autres tels que l'intégration du module Rules pour rendre les nœuds conscients d'autres nœuds basés sur la proximité ont été parfois bien implémentés et parfois moins bien dans plusieurs autres modules de Drupal 6. J'aimerais voir le mieux parties de tous ces modules intelligemment intégrées à l'aide de toutes les nouvelles fonctionnalités API intéressantes de Drupal 7 Core.


Ouvrir la carte SIG

L'objectif initial de FalconView est d'être un logiciel SIG gratuit et open source. Georgia Tech a construit ce logiciel ouvert pour afficher divers types de cartes et de superpositions référencées géographiquement. Désormais, la plupart des utilisateurs de FalconView proviennent du département américain de la Défense et d'autres agences nationales de renseignement géospatial. L'intention est de s'éloigner du statu quo actuel dans lequel des applications et des capacités SIG spécifiques sont étroitement couplées à leurs modèles et structures de données internes. Cette carte a été créée par un utilisateur. Apprenez à créer le vôtre Tout d'abord, vous devez vous inscrire pour créer un compte. Mais ça vaut bien le temps. Ensuite, sélectionnez votre zone d'intérêt en faisant un clic droit sur la carte. Enfin, sélectionnez le produit S2A ou S2B que vous souhaitez télécharger et télécharger. Le Copernicus Open Access Hub stocke également Sentinel-1, qui est un radar à ouverture synthétique. Alors, faites attention à ce que vous choisissez de télécharger

13 options logicielles SIG gratuites : cartographiez le monde en open source

  • Plugins WordPress (Maps Maker, Plugin WP-OSM) avec Einbinden von Karten. Communauté. OpenStreetMap (OSM) wird ganz wesentlich durch seine Community geprägt. Ohne die vielen Freiwilligen, die die Arbeit erledigen, wäre OpenStreetMap nicht denkbar. Natürlich kann jeder auch einfach so Geodaten sammeln und beitragen, aber zusammen macht es viel mehr Spaß. Communauté Zur. Veranstaltungen.
  • Die folgende Linkliste bringt euch direkt zu den Open Geodata Inhalten aller 16 Bundesländer und Deutschland gesamt. Generell unterscheiden sich die offenen Daten in ihrer räumlichen Auflösung von Land über Bundesland, Landkreis, Gemeinde, Ortslage hin zu Punktdaten
  • OpenStreetMap est une carte du monde, créée par des gens comme vous et libre d'utilisation sous une licence ouverte. L'hébergement est pris en charge par UCL, Bytemark Hosting et d'autres partenaires
  • Carte hergestellt aus OpenStreetMap-Daten | Lizenz : Licence de base de données ouverte (ODbL) | Lizenz : licence de base de données ouverte (ODbL
  • Blog OPENGIS.ch Puissant et doux QField 1.8 Selma s'est introduit. Lutra Consulting Support pour les nuages ​​de points Publié dans QGIS 3.18. Lutra Consulting Test QGIS avec des nuages ​​de points sous Windows. Étude de cas Lutra Consulting. Mehr Karten und Bildschirmfotos ansehen. Dauerhafte Fördermitglieder. La navigation. Indice weiter | » Willkommen beim QGIS Projekt! Wenn nicht anders angegeben steht sämtlicher.
  • , Lowrance

Qu'est-ce qu'un SIG ouvert ? - Salon SIG

  • carte certaines caractéristiques ne sont souvent pas bien définies et il n'y a pas de contrôle de qualité obligatoire. Cette ouverture permet une grande flexibilité et fait partie de la raison pour laquelle OSM a pu collecter autant de données dans un laps de temps si court, mais cela rend l'utilisation des données plus difficile
  • OpenStreetMap (OSM) est une carte du monde ouverte et modifiable. Depuis plusieurs années, Esri donne accès aux données OSM sous forme de fond de carte. Cela a commencé avec Esri référençant les tuiles raster hébergées par OpenStreetMap et a évolué vers Esri générant et hébergeant des tuiles vectorielles, qui sont mises à jour toutes les 3 semaines avec les dernières données OSM du moment.
  • Für Nutzer von ArcGIS bietet der ArcGIS Editor for OpenStreetMap eine große Werkzeugpalette zur Nutzung der Daten. Es lassen sich OSM Daten in eine File-Geodatabase herunterladen, eigene OSM Daten erzeugen, OSM Daten direkt in ArcGIS editieren und wieder in die Community-Daten einspeisen
  • a utilisé la spécification de mise en œuvre OpenGIS® Web Map Service (WMS) pour adoption en tant que norme communautaire de la NASA Earth Science Data Systems (ESDS) pour la diffusion

Emplacements SIG - Google My Map

  1. Das Open Geospatial Consortium ist eine 1994 als Open GIS Consortium gegründete gemeinnützige Organisation, die sich zum Ziel gesetzt hat, die Entwicklung von raumbezogener Informationsverarbeitung auf Basis allgemeingültiger Standards zum Zweck der Interopergen. Dabei baut sich das OGC aus Mitgliedern von Regierungsorganisationen, privater Industrie und Universitäten auf, deren Mitgliedschaft im OGC kostenpflichtig ist. Das OGC seinerseits ist seit Januar.
  2. OpenStreetMap wurde von Seiten wie Wikipedia inspiriert - die Karte (siehe Abbildung Figure_OpenStreetMap_1) verfügt über einen deutlich hervorgehobenen Bearbeiten Reiter sowie eine vollständige Historie der durchgefunhrten. Änder Registrierte Nutzer können GPS-Track Protokolle hochladen und die Vektordaten unter Verwendung der bereitgestellten Bearbeitungswerkzeuge editieren
  3. OpenGIS, Konsortium aus Vertretern der Wissenschaft und Industrie zur Entwicklung von offenen Systemstandards und Schnittstellenspezifikationen im Bereich der Geodatenverarbeitung (Geoinformationssystem). Als Open- Gis wird damit auch der transparente Zugriff auf heterogene Geodatenund Systeme in einer vernetzten Umgebung bezeichnet
  4. Avec Map Express, vous pouvez effectuer gratuitement les opérations de géotraitement suivantes : interrogation spatiale, interrogation d'attributs, visualisation tabulaire, visualisation 3D, publication de cartes au format Adobe Portable Document Format (PDF) et impression de cartes. Map Express est disponible en 32 bits et 64 bits. Christine GIS Christine GIS system est un logiciel SIG gratuit qui vous permet de visualiser et d'interroger l'espace.

Vous verrez une carte du monde chargée dans QGIS. Bemerkung. Sollte Sie nichts sehen, stellen Sie sicher, dass Sie online sind, wenn die Kacheln der Basiskarte geladen werden. Sie können auch das Karte verschieben Werkzeug benutzen, um die Karte leicht zu verschieben. Dadurch wird die Karte aktualisiert. Suchen wir jetzt nach Londres. Geben Sie Ihre Suche in das Feld Name contient im OSM Place.

MapWinGIS.ocx est un système d'information géographique C++ GRATUIT et OPEN SOURCE qui programme un contrôle ActiveX et une interface de programmation d'applications (API) qui peut être ajouté à un formulaire Windows en Visual Basic, C#, Delphi ou d'autres langages prenant en charge ActiveX, fournissant votre application avec une carte. Allez sur notre forum pour des questions et de l'aide. Ils ne sont pas seulement destinés à la création et au dessin de cartes, mais vous permettent de capturer, stocker, cartographier, partager, gérer et analyser gratuitement de grandes quantités de données géographiques et spatiales dans une seule base de données. Logiciels, créateurs et applications SIG (Systèmes d'information géographique) open source.

10 sources de données SIG gratuites : meilleurs raster et vecteurs mondiaux

On peut dire que tout logiciel qui fonctionne avec des données cartographiques peut être appelé logiciel SIG, mais le terme est souvent associé à une série de puissants progiciels traditionnels, fonctionnant comme des applications de bureau, avec de riches ensembles de fonctionnalités matures qui existaient bien avant l'existence d'OpenStreetMap (voir aussi Wikipedia sur les applications SIG) Vous cherchez à cartographier le monde ? Peu d'entre vous savent peut-être comment les données géographiques sont accumulées, gérées et affichées, à part les données météorologiques que nous rencontrons sur nos téléphones portables, ordinateurs portables et bulletins météo. Croyez-moi quand je dis que les données topographiques sont utilisées pour beaucoup de choses plus sérieuses que de simplement nous indiquer la météo. C'est là qu'intervient le logiciel d'information géographique (SIG). SQLite/SpatiaLite avec Hilfe der SpatiaLite-Tools 'spatialite_osm_map' et QGIS FME OSM-Daten direkt als GIS-Format herunterladen. Vektordaten von OSM können in GIS genutzt werden, gegeben man hält die ODbL-Lizenz ein und kennt die Besonderheiten von [[OSM], d.h. das spezielle Geometrie- und Tags-Schema. Für den Download der ganzen Welt in diesem Format siehe 'Downloading Data' im.

OpenStreetMap Deutschland: Die freie Wiki-Weltkart

Logiciel de cartographie et de SIG de qualité technique Profitez d'une gamme complète d'applications géospatiales pour les équipements informatiques d'entreprise, de bureau et mobiles. Découvrez l'édition Bentley OpenCities Map qui correspond le mieux à vos besoins et exigences ou un document juridique. Des couches de données supplémentaires ne provenant pas des bureaux de l'évaluateur sont également présentées à titre informatif uniquement. Avant de poursuivre toute question juridique, toutes les données doivent être vérifiées en contactant le comté ou le bureau municipal approprié Couches de carte Open GIS Shapefile et images GeoTIFF du monde par pays. 6 mai 2021. GIS Shapefile Store - pour les débutants et les utilisateurs expérimentés de SIG. Système d'information sur les noms géographiques, installations nucléaires, limites de code postal, districts scolaires, terres indiennes et fédérales, changement climatique, tornades, barrages - Créez des cartes SIG numériques en quelques minutes

La version s'accompagne également d'une amélioration significative de l'expérience utilisateur, telle qu'un rendu plus rapide et la restauration de la dernière étendue de carte consultée.Puissant et doux QField 1.8 Selma s'est infiltré Collectez des données précises avec la numérisation à main levée et des widgets de formulaire améliorés, utilisez les données de vos récepteurs GNSS externes sans aucune application tierce et profitez de la convivialité agréable de QField 1.8 Selma UN Open GIS Initiative Series of Online Workshops [Groupe de travail 5 Geo-AI] Premier rapport d'appel de consultation de Tomaz Logar (coprésident du groupe de travail Geo-AI, UN Global Pulse) 16 juillet 2020 | Le GT5-GeoAI a publié un nouvel article sur la création d'un outil GeoAI - Partie II. DevOps et mise à l'échelle. QGIS utilisé par l'équipe SIG de Malakal dans la Mission des Nations Unies au Soudan du Sud (MINUSS) 16 JUL 2020 | WG2 et WG3 publiés. . 19 décembre 2017. 19 décembre 2017. 15 décembre 2017. Installation d'Apache, QGIS Server et Lizmap Web Client sur le système d'exploitation Windows. 15 décembre 2017. 15 décembre 2017. 8 novembre 2017 . Atelier de formation GIS4DAR ArcGIS - 7-8 septembre 2017. 8 novembre 2017. 8 novembre 2017. 12 avril 2017. Implémentation SIG Open Source - Partie 4 Installation de GeoServer. 12 avril.

Open Data Deutschland - freie Geodaten von Bund und

  • JRC, Une carte globale de l'accessibilité, temps de trajet jusqu'à la ville 50 000 la plus proche. Résolution : 30''. 2000. Résolution : 30''. 2000. Eurostat, Répartition de la population , inc. Population européenne, résolution : 1x1km et zones densément peuplées 2006, 2011
  • Lexikon der Kartographie und Geomatik: Open GIS Consortium Anzeige Open GIS Consortium OGC ist ein internationales Industrie-Konsortium mit dem Ziel Spezifikationen im GIS-Bereich zu vereinbaren beispielsweise GML. Lien Siehe auch : GML Open GIS Standards supporté : Client Web Map Service Client Time Series Web Map Service (WMS)
  • © 2021 Ville de Norfol
  • Nun wird ein Teil dieser Geo-Informationen aus dem städtischen GIS unter dem Namen OpenGIS für alle Bürger zugänglich gemacht. Über die Homepage der Stadt Achern ist die Karte ab sofort abrufbar. Eine Anleitung ist zur Orientierung hinterlegt. Der Oberbürgermeister begründet diesen Schritt: Wir möchten mithilfe des 'OpenGIS' umfassende Informationen und eine neue Möglichkeit zur Bürgerbeteiligung in Achern schaffen
  • DONNÉES OUVERTES - PORTAIL SIG. Il s'agit de la plate-forme publique de la communauté pour explorer et télécharger des données ouvertes, découvrir et créer des applications, et s'engager pour résoudre des problèmes locaux importants. Vous pouvez analyser et combiner des jeux de données ouverts à l'aide de cartes, ainsi que développer de nouvelles applications Web et mobiles. Rendons notre grande communauté encore meilleure, ensemble
  • Ouvrez la carte SIG. Élévations de la zone et de la crue de base proposées : Cliquez ici pour trouver les élévations de la zone et de la crue de base proposées. Entrez une adresse dans l'espace Trouver une adresse en haut de la page pour identifier rapidement l'élévation de base de crue proposée pour une propriété. Le site LSU Ag Center fournit des estimations basées sur le LIDAR et les informations d'adresse
  • En savoir plus sur le programme de données Copernicus Open GIS. Des données gratuites et constamment mises à jour sur l'atmosphère, la mer et la terre. Géoapify. Domicile. Produits. Solutions. Les industries. Prix. Blog. Données SIG ouvertes par Copernicus . 27 avril 2019 / par Geoapify / dans Maps API. L'importance des données ouvertes disponibles joue un rôle important dans le développement d'applications d'analyse géospatiale et de localisation.

Vous pensez que Google Maps est le seul outil de cartographie en ligne en ville ? Détrompez-vous. De nos jours, il existe une tonne d'excellents outils de cartographie en ligne de toutes sortes pour les développeurs Web. L'ingénieur Toptal Tomislav Bacinger détaille les options et vous donne tout ce que vous devez savoir pour choisir le meilleur outil pour tous vos besoins de cartographie. Découvrez les données SIG ouvertes et comment accéder aux cartes SIG. Mise à jour sur la préparation au nouveau coronavirus (COVID-19) - En savoir plus sur la vaccination locale, la prévention, des conseils rapides et des ressources supplémentaires, les dernières nouvelles sur le coronavirus, les informations sur les événements annulés ou reportés, etc.

OpenStreetMa

  • Es ist eine offene Schnittstelle zu SIG. Das Format soll nur dem Datenaustausch und der Datensicherung dienen. Es handelt sich um einen Dialekt von XML und ist dazu bestimmt, Geometrien (Caractéristiques) durch zugehörige räumliche und nicht-räumliche Attribute zu beschreiben
  • Ville de Buda | Cartes et données SIG
  • Ein OGC-conformateur WMS - d. h. ein Web-Map-Service, der die Spezifikation des Open Geospatial Consortiums erfüllt - besitzt drei Funktionen, die von einem Benutzer angefragt werden können. Dabei wird bislang zur Kommunikation auf das Hypertext Transfer Protocol ( HTTP) zurückgegriffen
  • Beaucoup de nos couches cartographiques ont plus de 500 000 vecteurs/entités, la plus grande étant plus de 11 000 000. La possibilité de télécharger, de stocker et d'afficher de très grands ensembles de données était la clé de notre sélection de GIS Cloud en tant que société d'hébergement. Technologies Management Inc. récent de GIS Cloud. Gestion des données en viticulture à l'aide d'un SIG en ligne (Étude de cas - Croatie) Ana Jantoš a Géographie - Étudiante en SIG de la.
  • Marble Maps apporte l'OpenStreetMap très détaillé sur vos appareils mobiles. Il présente une belle carte nette avec une interface utilisateur intuitive. Le Behaim Globe est une reproduction numérique d'un globe conçu à l'époque du premier voyage en mer de Colomb vers l'ouest. Android. Afficher les détails » Extensible. En son cœur, une bibliothèque de logiciels alimente les applications Marble - également intégrées dans un large.

OpenStreetMap Deutschland: Kart

  • Cincinnati Area Geographic Information System Hub Sit
  • version imale : 2.8. Avertissement aux utilisateurs Mac : actuellement l'addon ne fonctionne pas sur Mac avec Blender 2.80 à 2.82. Veuillez ne pas signaler le problème ici, il est déjà résolu avec Blender 2.83. Consultez le rapport de bogue. Wiki - FAQ - Guide de démarrage rapide - Présentation des fonctionnalités de l'organigramme
  • Données SIG ouvertes des transports d'Auckland
  • Téléchargez une variété de couches SIG dans un choix de formats

OUVRIR LES DONNÉES SIG. Le GeoHub est la nouvelle plateforme publique de la Ville pour explorer, visualiser et télécharger des données ouvertes géolocalisées. Vous pouvez également analyser et combiner des couches de données ouvertes à l'aide de cartes, ainsi que développer de nouvelles applications Web et mobiles. Rendons notre grande ville encore meilleure, ensemble Connectez-vous. ArcGIS en ligne. Connectez les personnes, les emplacements et les données à l'aide de cartes interactives. Travaillez avec des styles intelligents basés sur les données et des outils d'analyse intuitifs. Partagez vos idées avec le monde ou des groupes spécifiques. En savoir plus sur ArcGIS Online. Il s'agit d'un plug-in de base fourni avec QGIS lors de sa première installation et qui doit simplement être activé. Allez dans le menu 'Plugins' -> 'Gérer les plugins. ' et recherchez OpenStreetMap. Cochez le plugin pour l'activer. Trouver le plug-in dans la boîte de dialogue « Gérer les plug-ins » SW Maps est une application gratuite de SIG et de cartographie mobile pour la collecte, la présentation et le partage d'informations géographiques. Que vous meniez un levé GNSS à grande échelle avec des instruments de haute précision, que vous ayez besoin de collecter une grande quantité de données basées sur la localisation en utilisant uniquement votre téléphone, ou que vous ayez simplement besoin de visualiser quelques fichiers de formes avec des étiquettes sur une carte d'arrière-plan lors de vos déplacements, SW Maps a tout couvert OpenGIS — Open Geospatial Consortium L Open Geospatial Consortium, ou OGC, est un consortium international pour développer et promouvoir des standards ouverts, les spécifications OpenGIS®, afin de garantir l'interopérabilité des contenus, des services et Wikipédia en Français

L'application SIG mobile d'OPENGIS.ch combine un design minimaliste avec une technologie sophistiquée pour transférer les données du terrain au bureau de manière confortable et simple. QField est construit sur le projet open source professionnel QGIS, permettant aux utilisateurs de configurer des cartes et des formulaires dans QGIS sur leur poste de travail, et de les déployer sur le terrain via QField A Basic Understanding on UN Ouvert SIG • L'ONU est une organisation internationale, qui fonctionne comme un gouvernement • L'ONU SIG en tant qu'infrastructure nationale de données spatiales (NSDI) • Cadre NSDI (base et référence) Carte Capacité du système et des services (c'est-à-dire la capacité des individus et de l'organisation ou des unités organisationnelles à exécuter des fonctions de manière efficace, efficiente et durable. Jackson County, Oregon GIS. Jackson County, Oregon Le portail de données SIG ouvert donne accès aux données spatiales et aux cartes Web Jackson County, Oregon Le portail de données SIG ouvert permet d'accéder aux données spatiales et aux cartes Web sur la basemap publique.at ist ein kartographisches Produkt, basierend auf den Verwaltungs-Geodaten der neun Bundesländer, der Graphenintegrations-Plattform (GIP.at) , sowie der Länderpartner, allen voran den Städten und Gemeinden. les possibilités de style offertes par QGIS Desktop. Comme vous l'avez toujours fait avec QGIS Desktop. Ensuite, publiez simplement des données et des cartes avec QGIS Cloud gonfler. Tout cela en quelques minutes, c'est aussi simple que possible. Gérer les données. QGIS Cloud vous offre une base de données PostgreSQL 9 complète, étendue avec PostGIS 2. Créez de nouvelles bases de données.

. Téléchargez au format CSV, KML, Zip, GeoJSON, GeoTIFF ou PNG. Recherchez des liens API pour GeoServices, WMS et WFS. Analysez avec des graphiques et des cartes thématiques. Passez à l'étape suivante et créez StoryMaps et Web Maps County of Simcoe GIS Interactive Map Viewer. Il est construit à l'aide de technologies Open Source. OpenLayers, GeoServer et Postgres/PostGIS

OpenGIS ® Web Map Service Interface Standard (WMS) fournit une interface HTTP simple pour demander des images cartographiques géo-enregistrées à partir d'une ou plusieurs bases de données géospatiales distribuées. WFS OpenGIS ® Web Features Service Interface Standard (WFS) fournit une interface permettant de demander des caractéristiques géographiques sur le Web à l'aide d'appels indépendants de la plate-forme. REST REST (Representational State Transfer. De nombreuses cartes sont déjà diffusées sur le Web à l'aide de protocoles WMS. Avec un peu de chance, vous pourrez en trouver une qui vous sera utile pour votre application Map Builder. Normes SIG ouvertes. Toutes les communications entre les composants du Community Map Builder utilisera les normes Open GIS. Cela signifie que n'importe quel composant ou fond de carte peut être. Open Maps donne accès à l'information géospatiale du gouvernement du Canada. Vous pouvez combiner, visualiser et analyser des données géospatiales et collaborer avec d'autres Canadiens . Open Maps est un travail en cours et sera développé et amélioré au cours des prochains mois. Revenez pour les mises à jour et faites-nous savoir ce que vous pensez Ce qui suit est une référence rapide pour afficher des cartes dans Map Viewer.. 1. Voir les détails de la carte . Les détails incluent des options pour afficher des informations sur la carte, le contenu de la carte et une légende.. Le bouton À propos de affiche des informations descriptives sur la carte, telles qu'un résumé, le propriétaire de la carte, le dernier m la date d'odification, les évaluations des utilisateurs et un lien vers des informations plus détaillées

Qu'est-ce qui est disponible ?, Organisations, Open Source général, Base de données, Web, Bureau, Bibliothèques, OGC, OSGEO, Exemples, Développement, Le débat . Ouvrez votre ordinateur, ouvrez Google Earth Pro. Cliquez sur Fichier Ouvrir. Ensuite, choisissez le fichier que vous souhaitez importer. La fenêtre d'édition de la superposition apparaît. Définissez l'emplacement de la nouvelle superposition dans n'importe quel dossier du panneau "Lieux". Choisissez les propriétés pour le développement de l'application MapServer d'image SIG et la configuration des fichiers .map. Une connaissance de la spécification WMS serait un atout. Les liens vers les documents MapServer WMS sont inclus dans la section suivante. Liens vers les informations relatives au SLD¶ Spécification de mise en œuvre du descripteur de couche stylisée. Comment faire pour le client MapServer WMS. MapServer WMS Server HowTo. Atelier sur les services Web MapServer OGC. Open GIS Consortium (OGC. http://www.fossgis.de/konferenz/2014/programm/events/761.de.htmlIn dem Vortrag wird ein kurzer Überblick über vorhandene Open Source Bibliotheken und Werkzeu..

map_tools. glisser import_wms import_kml choose_theme <> layer_displayed. help_search_data_link. Les paramètres. problem_announcement. help_label. privacy_protection_label. conditions d'utilisation. conditions d'utilisation. link_ba_plus. link_ba_plus_sign_out. close_menu open_menu fermer. homescreen_title homescreen_content Der BayernAtlas - der Kartenviewer des Freistaates Bayern mit Karten, Luftbildern. L'analyse de distance de coût, également connue sous le nom d'analyse de surface de coût accumulé, est l'analyse du mouvement dans un espace continu, dans laquelle le coût du déplacement à travers n'importe quel endroit est variable, de sorte que certains chemins de déplacement ont des coûts plus élevés que d'autres. Bien que la notion de coût -L'analyse de proximité basée sur les données remonte aux années 1950, le SIG a rendu de telles études pratiques Realisierung verteilter Geodatenserver mit der OpenGIS SFS für CORBA Alexander Zipf und Hidir Aras European Media Laboratory - EML, Villa Bosch, Heidelberg [email protected] de Zusammenfassung: Im Rahmen dieses Artikels werden wir auf Details der Implementierung der Simple Feature Specification (SFS) für CORBA eingehen, die Ergebnisse diskutieren und Einsatzszenarien im.

.seattle.gov via Socrata. OU Services Web - Connexion de données en lecture seule en direct URL des services Web ESRI : http. ArcGIS Pro est das neue Desktop-GIS d'Esri. Erstellen Sie professionelle Karten und führen Sie komplexe Analysen durch - en 2D et 3D. Kaufen Sie die Version jetzt, oder testen Sie sie 21 Tage lang kostenfrei Web Portrayal Services : OpenGIS Web Map Service, Styled Layer Descriptor, Symbology Encoding et ISO 19117 Portrayal vorgestellt und erläutert (OpenGIS essentials) | Christine Andrae, Christian Graul, Martin Over, Alexander Zipf | ISBN : 9783879075027 | Kostenloser Versand für alle Bücher mit Versand und Verkauf duch Amazon

Willkommen beim QGIS Projekt

Toutes les fonctionnalités et options du serveur de carte peuvent être personnalisées en modifiant les fichiers de configuration ASCII. Le téléchargement comprend également un exemple HTML d'une visionneuse SIG basée sur JavaScript qui permet de zoomer, de faire un panoramique, de modifier la projection et de sélectionner des couches sur la carte. Le serveur de cartes GLG est conforme à la norme OpenGIS et est optimisé pour les performances d'exécution Nom de la carte : Open GIS Legend Toutes les couches et tables Dynamic Legend Dynamic All Layers Layers : Property and Tax Parcels (0) Address Points (1) Tax Parcels (Current ) (2) Transport (3) Chemins de fer (4) Routes (5) Transport_emprise_de_passage (6) Limites (7) Limites municipales (8) Districts scolaires (9) Districts de supervision (2011) (10) Salles de vote (2011) (11) WI Sénat (12) WI Assemblée (13.

Des cartes de plusieurs fournisseurs sont disponibles, la carte par défaut est OpenStreetMap. Formats de piste actuellement pris en charge : route gpx Garmin, piste gpx Garmin, Garmin tcx, kml et plain txt. JGPSTrackEdit peut également être utilisé pour télécharger des images de tuiles pour une utilisation ultérieure hors ligne par des applications pour smartphone. JGPSTrackEdit est écrit en langage Java. Pour exécuter le logiciel, une installation d'exécution Java est requise (peut être. UN Ouvert SIG est une initiative conçue par la Section UNGIS de la Division d'appui aux opérations du Bureau des technologies de l'information et de la communication (OICT) pour tirer parti ouvert sources de ressources logicielles. L'engagement a été présenté pour la première fois en septembre 2015 à Vienne, en Autriche, principalement pour établir un ouvert programme source pour les opérations de paix (Eom, 2016). Le résultat fut la création de l'ONU Ouvert SIG Initiative en mars 2016 qui permettrait d'exploiter ouvert la source. GisMap utilise la norme OpenGIS Web Map (OGC Web Map Server) pour accéder aux données. Le diagramme de classes ci-dessous montre les principales classes du composant GisMap. Il utilise le contrôle Canvas et son modèle géométrique (GeomModel) pour afficher des cartes et des classes GDAL pour traiter les données SIG, les systèmes de coordonnées et les transformations OpenJUMP est un système d'information géographique (SIG) open source écrit en langage de programmation Java. Il est développé et maintenu par un groupe de bénévoles du monde entier. OpenJUMP a commencé en tant que JUMP GIS conçu par Vivid Solutions pour tenter de créer un google maps comme un simple widget sans la contrainte de rendu par tuile - Open-Source-GIS/canvas-map

OpenSeaMap : Startseit

GRASS GIS est un logiciel gratuit de système d'information géographique (SIG) utilisé pour la gestion et l'analyse de données géospatiales, le traitement d'images, la production de graphiques/cartes, la modélisation spatiale et la visualisation. GRASS GIS Ce site contient diverses données spatiales qui peuvent être utilisées par toute personne intéressée par les données des systèmes d'information géographique (SIG) pour leurs applications

Les projections cartographiques sont utilisées pour aplatir les coordonnées 3D en coordonnées 2D, puis les mathématiques matricielles sont utilisées pour peindre les données géographiques de manière significative. Le panoramique et le zoom d'une carte impliquent de modifier l'emplacement et la taille de la fenêtre, et la navigation est généralement liée aux événements du clavier et de la souris. Le rapport hauteur/largeur de la fenêtre est ajusté pour correspondre au rapport hauteur/largeur du formulaire. Arizona OpenGIS Initiative for Deceased Migrants, une ressource développée par le Pima County Office of the Medical Examiner (Pima County OME) en partenariat avec Humane Borders, Inc. Map Tools Map of Migrant Mortalit À ajouter bientôt. GeoServer implémente les protocoles OGC standard de l'industrie tels que Web Feature Service (WFS), Web Map Service (WMS) et Web Coverage Service (WCS). Des formats et des options de publication supplémentaires sont disponibles sous forme d'extensions, notamment le service de traitement Web (WPS) et le service de mosaïque de cartes Web (WMTS). GeoServer travaille avec la Fondation OSGeo pour être certifié.

éditez simplement la carte geojson dat Der BayernAtlas - der Kartenviewer des Freistaates Bayern mit Karten, Luftbildern und vielfältigen Themenkarte Geoshape est une plateforme géospatiale gratuite et open source créée à partir de divers projets open source. Vous pouvez visiter www.geoshape.org pour plus d'informations. Ce Quick Start fournit un guide sur la façon de 1. Créer, éditer et partager des données critiques sur une carte dynamique intégrée en temps quasi réel. 2. Affichez les mises à jour cartographiques par les utilisateurs de n'importe où dans le monde et 3. Utilisez l'échange GeoSHAPE dans des environnements connectés et déconnectés. Le matériel de formation est destiné à fournir tout le matériel nécessaire. Le Web Coverage Service (WCS) est une norme publiée par l'Open Geospatial Consortium (OGC). Il est conçu pour simplifier l'accès à distance aux couvertures, communément appelées cartes raster dans les SIG. WCS fonctionne sur le protocole HTTP, expliquant comment obtenir des données et des métadonnées à l'aide des requêtes disponibles dans ce protocole

Comp Plan Map App CGIS aide le Bureau of Planning and Sustainability à rendre le processus de plan global plus accessible Bienvenue sur la page principale de l'équipe City of Portland Corporate GIS (CGIS). Ici, vous pouvez rester à jour sur nos principaux projets, trouver des exemples de cartes et d'applications qui utilisent nos données d'entreprise et fournir des commentaires sur nos produits et services. MapWorks. Installer. Les fichiers que vous pouvez télécharger ici sont destinés à être utilisés dans DIVA pour le géoréférencement automatique (pour attribuer des coordonnées aux lieux). Les fichiers doivent être placés dans le répertoire \gazet. (ancien, utilisez Biogeomancer ). Ils peuvent également être utilisés pour cartographier les localités, mais vous pouvez télécharger des fichiers plus récents à partir de NIMA Arizona OpenGIS Initiative for Deceased Migrants, une ressource développée par le Pima County Office of the Medical Examiner (Pima County OME) en partenariat avec Humane Borders, Inc. Carte personnalisée de la mortalité des migrants.Les limiteurs suivants sont facultatifs pour afficher tous les décès, appuyez simplement sur le bouton Rechercher. Nom du défunt : Sexe du défunt : Année du décès : Cause du décès : Comté de découverte : Terre.


Histoire

19-05-07 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.
  • Mise à jour des scénarios de péage (Mai 2019_5).
    Contenu de la mise à jour du péage :
    Italie

    Nouveaux tarifs 2019. Ce scénario remplace le précédent scénario « Italie mars 2018 ».
19-04-03 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.
  • Mise à jour des scénarios de péage (avril 2019_4).
    Contenu de la mise à jour du péage :
    Slovaquie

    Nouveaux tarifs 2019 et nouvelles routes à péage. Ce scénario remplace le précédent scénario "Slovaquie octobre 2016".
19-03-20 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.
  • Mise à jour des scénarios de péage (mars 2019_3).
    Contenu de la mise à jour du péage :
    La France

    Ce scénario reprend les péages actuels, c'est-à-dire principalement le réseau autoroutier sur la base des derniers tarifs disponibles de l'ASFA en date de février 2019. Ce scénario remplace le précédent scénario « France janvier 2019 ».
19-03-06 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.
  • Mise à jour des scénarios de péage (février 2019_2).
    Contenu de la mise à jour du péage :
    Hongrie

    Ce scénario contient le péage kilométrique des camions en Hongrie (règlement 25/2013 [V. 31.] en vigueur le 1er janvier 2019). La disposition s'applique à tous les camions de plus de 3,5 tonnes, sur les autoroutes et autres grands axes de transport. Le coût est calculé en fonction du nombre d'essieux et de la classe d'émission. Les autoroutes et les grands axes secondaires sont identifiés sur la carte comme soumis à péage. Nouvelles rubriques. Type de calcul : Exact. Ce scénario remplace le scénario précédent 'Hongrie novembre 2015'.
2019-02-25 ( api-eu, api-eu-integration) Mise à jour silencieuse.
2019-02-14 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.
  • Mise à jour des scénarios de péage (Janvier 2019_1_1 - Mise à jour spéciale péage).
    Contenu de la mise à jour du péage :
    Grèce

    Nouveaux tarifs pour le pont Rio-Antirrio. Ce scénario remplace le précédent scénario « Grèce janvier 2017 ».
    Espagne
    Ce scénario inclut de nouveaux tarifs pour le tunnel de Cadi, le tunnel de Vallvidrera et les tunnels d'Artxanda pour 2019. Ce scénario remplace le précédent scénario "Espagne janvier 2018".
    Royaume-Uni
    Ce scénario contient les tarifs les plus récents à partir de janvier 2019. Nouveaux tarifs pour Eurotunnel, M6, tunnel de la Mersey, Middlesbrough Transporter Bridge, Tyne Tunnel. Tunels Severn Bridge, Second Severn Crossing à partir de 2019 sans frais. Ce scénario remplace le précédent scénario « Grande-Bretagne janvier 2018 ».
    Danemark
    Nouveaux tarifs pour le pont Storebælt et le pont Øresund 2019. Ce scénario remplace le scénario précédent « Danemark janvier 2018 ».
    Suède
    Version actuelle des tarifs en date de janvier 2019. Ce scénario remplace le précédent scénario « Suède janvier 2018 ».
    Irlande
    Nouveaux tarifs 2019. Ce scénario remplace le précédent scénario 'Irlande janvier 2018.
    Andorre
    Nouveaux tarifs pour le Tunnel d'Envalira. Ce scénario remplace le précédent scénario « Andorre janvier 2018 ».
    Croatie
    Tunel Sveti Ilija à partir de 2019 sans frais. Ce scénario remplace le précédent scénario "Croatie janvier 2018"
    dinde
    Nouveaux tarifs 2019 pour le pont Fatih Sultan Mehmet, le pont des martyrs du 15 juillet, le pont Yavuz Sultan Selim, le pont Osman Gazi, le tunnel eurasien. Ce scénario remplace le précédent scénario « Turquie janvier 2018 ».
2019-02-04 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.
  • Mise à jour des scénarios de péage (Janvier 2019_1_1 - Mise à jour spéciale péage).
    Contenu de la mise à jour du péage :
    La France

    Ce scénario reprend les péages actuels, c'est-à-dire principalement le réseau autoroutier sur la base des derniers tarifs disponibles de l'ASFA en date de février 2018. Nouveaux tarifs pour Tunnel du Mont-Blanc, Tunnel du Fréjus, Tunnel de Puymorens, Tunnel Maurice Lemaire, Le Viaduc de Millau. Ce scénario remplace le précédent scénario « France fév. 2018 ».
    Sitzerland
    Ce scénario contient les facteurs de péage valables à partir de janvier 2019. Nouveaux tarifs pour Tunnel Munt la Schera, Tunnel du Grand St Bernard, Bodenseefähre Romanshorn. Il remplace le précédent scénario "Suisse 2018".
    L'Autriche
    Autriche janvier 2019, v2. Nouveaux tarifs pour Karawankentunnel, Felbertauerntunnel. Ce scénario remplace le précédent scénario « Autriche janvier 2019 ».
    Allemagne
    Ce scénario contient les tarifs selon les tableaux 17.1 (autoroutes) et 6.1 (routes fédérales). Nouveau tarif pour Warnowtunnel. Ce scénario remplace le précédent scénario « Allemagne janvier 2019 ».
2019-01-21 (api-eu-integration, api-eu-test) Mise à jour silencieuse.
2018-12-19 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.
  • Mise à jour des scénarios de péage (décembre 2018).
    Contenu de la mise à jour du péage :
    L'Autriche

    Nouveaux tarifs de péage valables à partir du 1er janvier 2019. Ce scénario remplace le scénario précédent 'Autriche janvier 2018'.
12/12/2018 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.
  • Mise à jour des scénarios de péage (novembre 2018).
    Contenu de la mise à jour du péage :
    la Belgique

    Ce scénario inclut les redevances de péage à partir de janvier 2019, pour les camions d'une masse maximale autorisée supérieure à 3,5 t dans les trois régions belges : Wallonie, Flandre et Bruxelles. Les routes à péage comprennent les autoroutes, les routes principales supplémentaires et le réseau routier local à Bruxelles. Les frais de péage sont calculés sur la base de facteurs kilométriques et dépendent du type de route et dépendent en outre de la classe d'émission et du poids total du véhicule. Ce scénario remplace le précédent scénario 'Belgique juillet 2018'.
2018-10-10 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.
  • Mise à jour des scénarios de péage (septembre 2018).
    Contenu de la mise à jour du péage :
    Allemagne

    Ce scénario contient les facteurs de péage valables à partir de janvier 2019. Le péage pour les camions à partir de 7,5 tonnes s'applique à toutes les routes nationales fédérales.
2018-10-08 ( api, api-test, api-intégration) Mise à jour silencieuse.
2018-09-11(api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

La mise à jour du péage du 08.08.2018 n'était disponible que pour les cartes ici.

Mise à jour des scénarios de péage (août 2018).

Contenu de la mise à jour du péage :

Ce scénario contient les tarifs selon le tableau du 1er juillet 2018. Le péage pour les camions de plus de 7,5 tonnes s'applique à toutes les routes nationales fédérales.

2018-08-13 (api-eu, api-eu-test, api-eu-integration) Mise à jour silencieuse.
  • Mise à jour de la carte de la carte des villes du monde 2018 1T à la carte des villes du monde 2018 2T
  • Mise à jour PTV xServer vers la version 1.26.0.3
2018-06-29 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Mise à jour des scénarios de péage (avril 2018).

Contenu de la mise à jour du péage :

Ce scénario inclut les redevances de péage à partir de juillet 2018, pour les camions d'une masse maximale autorisée supérieure à 3,5 t dans les trois régions belges : Wallonie, Flandre et Bruxelles. Les routes à péage comprennent les autoroutes, les routes principales supplémentaires et le réseau routier local à Bruxelles. Les frais de péage sont calculés sur la base de facteurs kilométriques et dépendent du type de route et dépendent en outre de la classe d'émission et du poids total du véhicule.

2018-05-23 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Mise à jour des scénarios de péage (avril 2018).

Contenu de la mise à jour du péage :

Nouvelle grille tarifaire valable à partir du 1er avril 2018.

Nouveaux tarifs 2018 et nouvelle(s) route(s) à péage.

04/04/2018 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Mise à jour des scénarios de péage (mars 2018).

Contenu de la mise à jour du péage :

Nouveaux tarifs sur autoroutes à partir de février 2018. Ce scénario reprend les péages actuels, c'est-à-dire principalement le réseau autoroutier sur la base des derniers tarifs disponibles de l'ASFA en date de février 2018.

2018-02-22 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Mise à jour des scénarios de péage (février 2018).

Mise à jour spéciale du péage, nouveaux tarifs de péage pour :

  • Espagne
  • Roumanie
  • Royaume-Uni
  • Danemark
  • Suède
  • Irlande
  • Bulgarie
  • Andorre
  • Croatie
  • dinde
2018-01-31 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Mise à jour des scénarios de péage (janvier 2018).

Contenu de la mise à jour du péage :

  • Nouveaux tarifs sur les autoroutes à partir de février 2017. Ce scénario reprend les péages actuels, c'est-à-dire principalement le réseau autoroutier sur la base des derniers tarifs disponibles de l'ASFA en date de février 2017. Les péages s'appliquent aux poids lourds à partir d'un PTAC de 3,5 t et aux voitures .
  • L'extension des péages sur toutes les autoroutes secondaires comprend de nouvelles grilles tarifaires 15.4 (BAB), 4.4 (Bundesstraßen) et un péage spécial 2017. Ce scénario inclut la perception de péages sur les autoroutes et sur toutes les routes nationales fédérales. En outre, la limite inférieure pour les véhicules soumis au péage doit être réduite de 12 tonnes à 7,5 tonnes.
  • Péage spécial 2017 : Nouveaux tarifs pour Warnowtunnel. Ce scénario contient les tarifs selon les tableaux 16.1 (BAB) et 5.1 (routes fédérales).
  • Nouveaux tarifs 2017 (nouvelles catégories de véhicules).
  • Nouvelle définition des tarifs et des véhicules pour le tunnel de l'Escaut occidental.
2018-01-15 ( api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.
  • Mise à jour de la carte de PTV World City Map 2017 2T à PTV World City Map 2018 1T
  • Mise à jour PTV xServer vers la version 1.24.0.5
2017-12-22 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Mise à jour des scénarios de péage (novembre et décembre 2017).

Contenu de la mise à jour du péage :

Belgique : Ce scénario inclut les redevances de péage à partir de janvier 2018, pour les camions d'une masse maximale autorisée supérieure à 3,5 t dans les trois régions belges : Wallonie, Flandre et Bruxelles. Les routes à péage comprennent les autoroutes, les routes principales supplémentaires et le réseau routier local à Bruxelles.

Autriche : Nouveaux tarifs de péage valables à partir du 1er janvier 2018.

2017-11-19 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Mise à jour des scénarios de péage (septembre 2017).

Contenu de la mise à jour du péage :

Autriche : Correction d'un bug pour l'affichage des noms des postes de péage dans la table tarifaire pour l'Autriche en janvier 2017 avec un nouveau tarif dépendant de l'heure (jour/nuit) pour tout le pays.

Allemagne : Ce scénario contient les tarifs selon les tableaux 17.1 (autoroutes) et 6.1 (routes fédérales) sur les autoroutes et sur toutes les routes fédérales.

2017-09-11 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Mise à jour des scénarios de péage (août 2017).

Contenu de la mise à jour du péage :

Pologne : Environ 360 km de nouvelles routes à péage pour S, DK. Nouveaux tarifs pour A2, A4.

2017-07-19 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Contenu de la mise à jour du péage :

Norvège : Nouveaux tarifs 2017 et nouvelle(s) route(s) à péage.

2017-07-10 (api-eu, api-eu-test, api-eu-integration) Mise à jour silencieuse.
  • Mise à jour de la carte de la carte des villes du monde 2017 1T à la carte des villes du monde 2017 2T
  • Mise à jour PTV xServer vers la version 1.24.0.x
2017-06-07 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Contenu de la mise à jour du péage :

Belgique : Nouveaux tarifs à partir de juillet 2017

Tunnel de Liefkenhoek avec nouveau tarif horaire (jour/nuit). Ce scénario inclut les frais de péage à partir de juillet 2017, pour les camions d'une masse maximale autorisée supérieure à 3,5 t dans les trois régions belges : Wallonie, Flandre et Bruxelles. Les routes à péage comprennent les autoroutes, les routes principales supplémentaires et le réseau routier local à Bruxelles.

2017-05-24 (api-eu-n, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Contenu de la mise à jour du péage :

Italie : Nouveaux tarifs à partir de janvier 2017

2017-04-25 (api-eu-n, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Mise à jour des scénarios de péage (avril 2017).

Contenu de la mise à jour du péage :

Slovénie : Nouveaux tarifs à partir de janvier 2017

2017-04-12 (api-eu-n, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Mise à jour des scénarios de péage (février 2017).

Contenu de la mise à jour du péage :

France : Nouveaux tarifs sur les autoroutes à partir de février 2017

2017-02-13 (api-eu-n, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Mise à jour des scénarios de péage (janvier 2017).

Contenu de la mise à jour du péage :

Grèce : Péage spécial 2017 : Nouveaux tarifs pour le pont Rio-Antirrio

Pays-Bas : Péage spécial 2017 : Nouveaux tarifs 2017 (nouvelles catégories de véhicules)

France : Péage spécial 2017 : Nouveaux tarifs pour le Mont-Blanc-Tunnel, le Fréjus-Tunnel, le Tunnel de Puymorens, le Tunnel Maurice Lemaire et le Viaduc de Millau à partir de janvier 2017

Espagne : Péage spécial 2017 : Nouveaux tarifs 2017

Hongrie : Nouvelles routes à péage 01.11.2015

Roumanie : Péage spécial 2017 : Nouveaux tarifs pour Donaubrücke Ruse (Rousse) et Giurgiu

Suisse : Péage spécial 2017 : Nouveaux tarifs pour Bodenseefähre Romanshorn

Autriche : A partir du 1er janvier 2017, les nuisances sonores (par jour et par nuit) seront également prises en compte ainsi que la pollution de l'air (classes d'émission EURO).

Royaume-Uni : Péage spécial 2017 : Nouveaux tarifs 2017

Danemark : Péage spécial 2017 : Nouveaux tarifs de 2017 pour Øresundbridge et Storebæltbridge

Suède : péage spécial 2017 : jours fériés pour 2018 ajoutés

Allemagne : L'extension des péages sur toutes les autoroutes secondaires comprend de nouvelles grilles tarifaires 15.4 (BAB), 4.4 (Bundesstraßen) et un péage spécial 2017

Allemagne : Péage spécial 2017 : Nouveaux tarifs pour Warnowtunnel.

Portugal : Péage spécial 2017 : Nouveaux tarifs pour le Pont 25 de Abril, Pont Vasco da Gama

Bulgarie : Péage spécial : nouveaux tarifs 2017

Liechtenstein : Correction d'un bug pour les véhicules EEV pour les tarifs de péage à partir du 01.01.2017

Croatie : Péage spécial 2017 : Nouveaux tarifs 2017

Turquie : Péage spécial 2017 : Nouveaux tarifs 2017

2016-12-20 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Mise à jour des scénarios de péage (décembre 2016).

Contenu de la mise à jour du péage :

  • Suisse : Nouveaux tarifs à partir de janvier 2017 avec de nouvelles classifications de véhicules
  • Liechtenstein : Nouveaux tarifs à partir de janvier 2017 avec de nouvelles classifications de véhicules
2016-12-12 (api-eu, api-eu-intégration, api-eu-test)
  • Mise à jour de la carte de PTV World City Map 2016.2T vers PTV World City Map 2017.1T
  • Mise à jour de PTV xServer - Version de correction de bugs pour PTV xServer 1.22.0
2016-12-12 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Mise à jour des scénarios de péage (décembre 2016).

Contenu de la mise à jour du péage :

  • Slovaquie : Augmentation des péages sur les autoroutes, diminution des péages sur les routes de 2e et 3e classe. Outre les nouveaux facteurs de péage du 01-01-2016.
  • Autriche : Nouveaux tarifs 2017
2016-11-22 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Mise à jour des scénarios de péage (novembre 2016).

Contenu de la mise à jour du péage :

2016-08-10 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Contenu de la mise à jour du péage :

  • Espagne : Nouveaux tarifs à partir de juin 2016 et tarifs mis à jour en janvier 2016.
    Nouvelle autoroute à péage sur l'AP 46 au nord de Malaga
04/07/2016 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Mise à jour PTV xServer vers la version 1.22.0.2

2016-06-28 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Contenu de la mise à jour du péage :

Pays-Bas : Nouveau tarif pour : Tunnel de l'Escaut occidental, Tunnel de Kil. Ce scénario remplace le précédent scénario « Pays-Bas janvier 2016 ». Valable à partir du 01.05.2016

Italie : Mise à jour de la grille tarifaire. Valable à partir du 01.01.2016.

Luxembourg : correction de bugs pour les routes à vignette EURO. Valable à partir du 01.05.2016.

Portugal : contient les tarifs les plus récents, valables à partir de janvier 2013.

Slovénie : Ce scénario contient les tarifs de péage actuels sur la base des derniers tarifs disponibles valables à partir du 01/10/13. Des frais de péage s'appliquent aux camions d'un volume brut de plus de 3,5 t. Des remises pour les véhicules de catégorie d'émission EURO III et supérieure, qui sont accordées pour paiement par voie électronique, sont également incluses. Valable à partir du 01.01.2015.

04-05-2016 (api-eu, api-eu-integration, api-eu-test) Mise à jour silencieuse.

Mise à jour des scénarios de péage (avril 2016).

Contenu de la mise à jour du péage :

  • Belgique : Concerne la Wallonie, la Flandre et Bruxelles valable à partir du 1er avril 2016
    Correction d'un bug pour les véhicules de plus de 3,5 t corrigé à 3,501 t
  • Slovénie : Frais de péage sur la base des derniers tarifs disponibles à partir de 2013
    Valable à partir du 1er novembre 2015
    S'applique aux camions d'un volume brut de véhicule supérieur à 3,5 t
    Réductions pour les véhicules de catégorie d'émission EURO 3 et supérieure
  • France : Nouveaux tarifs pour 2016. Péages actuels du réseau autoroutier
    Valable à partir du 1er février 2016
    Sur la base des derniers tarifs disponibles de l'ASFA en date de février 2016
    S'applique aux camions à partir d'un volume de véhicule brut de 3,5 t et aux voitures
2016-03-30 (eu-n, eu-n-integration, eu-n-test) Mise à jour silencieuse.

Mise à jour des scénarios de péage (mars 2016).
Contenu de la mise à jour du péage : France
Nouveaux tarifs pour 2016

2016-03-14 api-eu-test, api-eu
  • Mise à jour de la carte pour World City Map 2016.1T.
    Données mises à jour pour les pays suivants : Azerbaïdjan (aze), Îles Féroé (fro), Géorgie (geo), Groenland (grl), Kazakhstan (kaz), Ouzbékistan (uzb), Arménie (arm)
  • Mise à jour de la version majeure de PTV xServer à 1.22 sur le système de production
2015-02-03 (eu-n, eu-n-integration, eu-n-test) Mise à jour silencieuse.
2016-01-25 api-eu-test, api-eu
  • Carte et formulaire de mise à jour de contenu supplémentaire PTV World City Map 2015T à 2016.1T
  • Conversion du système de test en système de production
2015-12-22 (eu-n, eu-n-integration, eu-n-test) Mise à jour silencieuse.

Mise à jour des scénarios de péage (décembre 2015).
Contenu de la mise à jour du péage : Autriche
Nouveaux tarifs pour 2016

2015-11-16 api-test.cloud.ptvgroup.com - Version initiale

Pour certains liens une authentification avec votre token est requise

Veuillez noter que les liens fournis dans le tableau ci-dessous peuvent nécessiter une authentification. Les systèmes de test et d'intégration peuvent être atteints en ajoutant respectivement '-test' ou '-integration' à l'URL. Veuillez vous référer aux liens fournis dans la colonne correspondante.

Veuillez également noter que ajaxmaps, ajaxfg et ajaxbg(1-4) sont des alias de service valides qui peuvent être utilisés à la place de "xmap-". dans le nom d'hôte, par ex. https://ajaxbg3-api.cloud.ptvgroup.com/xmap/ws/XMap. Pour contourner les restrictions du navigateur avec le partage de domaine, utilisez ajaxbg(1-4).

Veuillez noter que les liens fournis dans le tableau ci-dessous peuvent nécessiter une authentification. Les systèmes de test et d'intégration peuvent être atteints en ajoutant respectivement '-test' ou '-integration' à l'URL. Veuillez vous référer aux liens fournis dans la colonne correspondante.

Veuillez noter que les liens fournis dans le tableau ci-dessous peuvent nécessiter une authentification. Les systèmes de test et d'intégration peuvent être atteints en ajoutant respectivement '-test' ou '-integration' à l'URL. Veuillez vous référer aux liens fournis dans la colonne correspondante.

Veuillez noter que les liens fournis dans le tableau ci-dessous peuvent nécessiter une authentification. Les systèmes de test et d'intégration peuvent être atteints en ajoutant respectivement '-test' ou '-integration' à l'URL. Veuillez vous référer aux liens fournis dans la colonne correspondante.

Veuillez noter que les liens fournis dans le tableau ci-dessous peuvent nécessiter une authentification. Les systèmes de test et d'intégration peuvent être atteints en ajoutant respectivement '-test' ou '-integration' à l'URL. Veuillez vous référer aux liens fournis dans la colonne correspondante.

Cluster eu-n - PTV Europe City Map

Carte: Carte de ville PTV Europe Premium (TOMTOM)

Centre de données: Europe de l'Ouest / Pays-Bas


Comment ça marche?¶

InaSAFE fournit un moyen simple mais rigoureux de combiner les données des scientifiques, des gouvernements locaux et des communautés pour fournir des informations sur les impacts probables des futures catastrophes. Le logiciel se concentre sur l'examen, en détail, des impacts d'un seul danger sur des secteurs spécifiques.

A la fin de ce matériel, vous serez capable de :

  • installer un plugin dans QGIS et comprendre son utilisation pour l'analyse spatiale
  • comprendre ce que sont les données sur les dangers et l'exposition et comment elles peuvent être utilisées pour estimer les impacts
  • apprendre à préparer les données pour pouvoir les utiliser dans InaSAFE
  • réaliser un scénario de risque en utilisant les données d'inondation et de tremblement de terre
  • analyser l'impact estimé des exemples de scénarios
  • apprendre à imprimer et enregistrer le résultat de la simulation.

De Putney à Poplar : 12 millions de trajets sur le London Bikeshare

Le graphique ci-dessus (cliquez pour la version complète) montre 12,4 millions de trajets à vélo effectués sur le système Barclays Cycle Hire à Londres sur sept mois, du 13 décembre 2013, lorsque l'extension sud-ouest de Putney et Hammersmith a été mise en service, jusqu'au 19 juillet 2014 & #8211 les dernières données de trajet disponibles sur le portail Open Data de Transport for London. Il s'agit d'une mise à jour d'un graphique que j'ai fait pour les trajets sur les phases précédentes du système à Londres (& pour NYC, Washington DC et Boston) – mais c'est la première fois que des données sont disponibles couvrant l'étendue actuelle du système - de la station d'accueil la plus à l'ouest (Ravenscourt Park) à la plus à l'est (Inde orientale), le trajet le plus court fait plus de 18 km.

Comme auparavant, j'ai utilisé Routino pour calculer les itinéraires « idéaux » en évitant les autoroutes les plus fréquentées et en empruntant les pistes cyclables à proximité et en ajoutant peu de distance au trajet. L'épaisseur de chaque segment correspond au nombre estimé de vélos en libre-service passant le long de ce segment. Le segment le plus achalandé de tout ce temps est sur Tavistock Place, une piste cyclable très populaire juste au sud de Euston Road à Bloomsbury. Mes calculs estiment que 275 842 des 12 432 810 trajets, pour lesquels il existe de « bonnes données », ont voyagé vers l'est le long de ce segment.

Les données du réseau routier et des chemins proviennent d'OpenStreetMap et il s'agit d'un instantané de cette semaine. Cela signifie que Putney Bridge, qui est actuellement fermé, ne montre aucun cycle le traversant, alors qu'en fait, il était ouvert pendant la période de collecte des données. Il y a quelques autres bizarreries - la fermeture d'Upper Ground provoquant l'apparition d'un gros pli juste au sud du pont Blackfriars. L'évitement des itinéraires les plus fréquentés ne reflète probablement pas réellement la réalité - la carte montre très peu de trafic "Boris Bike" le long d'Euston Road ou de l'autoroute, alors que je parie qu'il y a quelques âmes courageuses qui empruntent ces itinéraires.

Ma carte en direct des stations d'accueil, qui, comme le London Bikeshare lui-même, existe depuis plus de quatre ans, est ici.

[Mettre à jour – Une version de la carte apparaît dans l'article du Telegraph. N.B. L'article a été un peu brouillé entre sa rédaction et sa publication, en particulier sur la distinction entre les statistiques pour le vélo en libre-service et pour les cyclistes pendulaires à Londres.]


Sommet des développeurs Esri : jour 3

Esri a donc donné le coup d'envoi mercredi en annonçant les gagnants des Developer Challenges. Frank Roberts a remporté le Developer Challenge avec ce qui ressemble à quelque chose comme l'outil Tri-View que nous déployons depuis quelques années. Je ne suis pas sûr des détails, mais cela vaudrait la peine d'être examiné pour voir si nous pouvons tirer parti du travail de chacun. Certains d'entre vous connaissent peut-être Frank, nous l'avons interviewé à quelques reprises pour essayer de comprendre comment s'intégrer au sein de GISi. Félicitations à Franck.

Vient ensuite la Keynote. Apparemment, une substitution de dernière minute par le groupe Gartner a envoyé un solide numéro 2. Michael King, directeur de recherche, Gartner, a parlé de l'orientation future du développement d'applications mobiles. Il avait de nombreuses statistiques et graphiques différents expliquant à quel point l'industrie mobile est incroyablement dynamique maintenant et comment cela nous affecte en tant que développeurs et fournisseurs de solutions. Quelques statistiques intéressantes :

  • Dans les prochaines années, 70% de toutes les interactions se feront via nos téléphones portables
  • Le mobile est une entreprise d'un billion de dollars.
  • L'industrie est TRÈS fragmentée et ne verra pas de consolidation avant au moins quelques années si cela se produit, en grande partie en raison du caractère personnel de l'utilisation et de l'expérience des appareils mobiles.

Au-delà des statistiques et des observations, Michael a expliqué qu'il pense que les solutions réussies seront celles qui exploiteront le plus efficacement la capacité d'être sensible au contexte et d'avoir les interfaces les plus élégantes. Spécifiquement autour de la connaissance du contexte, non seulement il fait référence à l'endroit où vous êtes (GPS), à ce que vous faites (calendrier), à ce que vous êtes censé faire (vous rappelant que votre anniversaire est demain pendant que vous passez devant le fleuriste que vous avez acheté fleurs de l'année dernière), mais en liant tout cela aux systèmes de données professionnelles et personnelles au point où l'appareil mobile garde une trace de plus d'informations sur vous que vous ne pouvez vous en souvenir à un moment donné. Ajoutez à cela une interface qui s'adapte à la façon dont vous utilisez le téléphone et apprend quelles sont vos préférences au fil du temps. Par exemple, pour moi, cela pourrait signifier que lorsque je voyage, je cherche toujours une salle de sport CrossFit près de chez moi. Eh bien, au lieu d'aller sur Google sur mon téléphone et de trébucher en entrant "CrossFIt XXXXXX" où que je sois, il reconnaîtrait que je suis sur le point de voyager et effectue simplement la recherche et me donne une liste de résultats dans le format que je recherchent généralement : les coordonnées, les directions et l'horaire. Dans ce thème de conscience contextuelle, il a parlé un peu de la réalité augmentée et de la façon dont l'industrie essaie toujours de comprendre ce que nous pouvons faire avec cela, comment nous la mettons en œuvre et que nous devons attendre un peu que la technologie matérielle progresse vers faire que cela fonctionne vraiment bien. Un exemple qu'il a donné était une équipe dans un trou d'homme regardant une vanne vieille de 100 ans. Le seul gars de la ville qui sait comment entretenir cette vanne est de retour au bureau, mais peut partager l'écran de la caméra avec le gars sur le terrain et faire des annotations en direct pour expliquer à l'équipe ce qu'il faut faire et ne pas faire. Cela a bien mis en valeur la présentation que Pat a faite plus tard dans la journée et a rempli la salle.

Je suis quand même un peu surpris que les sessions Mobile, et il y en a beaucoup, ne soient pas celles qui sont emballées. On dirait que les sessions serveur sont toujours les plus populaires.

Steve Mulberry

Grand conférencier d'honneur de Gartner Il a discuté des nombreuses facettes de l'informatique mobile et des tendances et prévisions pour l'avenir. Une chose qui s'est démarquée est que le nombre d'appareils mobiles qui devraient être utilisés à l'avenir dépassera de loin le nombre d'ordinateurs portables. La planification en conséquence en ce qui concerne le développement de l'interface utilisateur/d'applications est donc la clé du succès dans cet espace de marché. L'orateur a noté que le développement mobile ne devrait pas être un événement secondaire mais intégré dans les stratégies et procédures de développement d'applications. Nous entendons toujours le même vieil adage sur le fait de le rendre simple et facile à utiliser. Mais nous, les geeks du SIG, devons penser en dehors de l'ordinateur portable lorsqu'il s'agit de développement mobile. C'est là que vous, les concepteurs, intervenez.

J'ai assisté à plusieurs sessions traitant des performances, des tests d'évolutivité et de la mise à l'échelle de l'architecture. Le thème commun revient toujours à s'assurer que votre document ArcMap est optimisé et prêt pour le déploiement Web. Voici quelques outils qui facilitent ce processus :

  • Mxdperfstat - http://arcscripts.esri.com/details.asp?dbid=15570. Cet outil, avec l'analyseur de carte prêt à l'emploi, vous donne une image claire du temps de rendu pour ArcGIS Server.
  • PerfHeat - http://arcscripts.esri.com/details.asp?dbid=16880. Cet outil produit une grille affichant les plages de temps de rendu codées par couleur sur l'étendue de la carte. Les temps de rendu d'affichage sont générés pour chaque échelle de carte, présentant un aperçu spatial des charges de traitement d'affichage.
  • Fiddler avec le plugin neXpert - http://www.fiddlertool.com/fiddler2/addons/nexpert.asp. neXpert aide à tester les performances des applications Web via des tâches de gestion de flux de travail.

Tous ces outils, ainsi qu'une planification supplémentaire des capacités et une analyse comparative des performances, sont disponibles dans le rapport. http://resources.arcgis.com/gallery/file/enterprise-gis/details?entryID=6367F821-1422-2418-886F-FCC43C8C8E22

Esri a dévoilé un nouvel outil de test SIG qui intègre les outils et méthodologies ci-dessus dans un outil tout-en-un. Actuellement, cet outil n'est disponible que par le biais de services professionnels, mais il a été suggéré qu'une fois finalisé, il pourrait être disponible pour téléchargement.

Patrick Barnhart

Les deux plus grandes choses qui se sont produites aujourd'hui, du moins de mon point de vue, ont été de survivre avec succès à ma présentation sur la réalité augmentée et de voir l'équipe de ballon chasseur GISi (nommée Gone in 30 Seconds en l'honneur de l'année dernière) dépasser les attentes. La présentation s'est bien déroulée si vous souhaitez en voir la partie à l'écran, consultez http://prezi.com/iy3lglcdn6xi/augmented-reality-using-arcgis-and-layar/. Prezi a sauvé la mise sur celui-ci, cela a rendu les choses beaucoup plus amusantes à préparer et à présenter que si je devais le faire en utilisant des diapositives standard. Gone in 30 Seconds a obtenu un laissez-passer au premier tour, a triomphé au second, puis a été battu par l'équipe qui a remporté la victoire.

Quant à ce pour quoi je suis vraiment là, à savoir apprendre autant que possible sur le développement d'applications Web à l'aide des produits Esri, ce fut également un succès. J'ai assisté à une session intitulée « Développement avancé avec l'API ArcGIS pour JavaScript » qui aurait vraiment dû s'appeler « Introduction au développement mobile à l'aide de l'API JavaScript plus du HTML 5 et une touche de CSS3 ». Donc, ce n'était pas ce à quoi je m'attendais, mais cela s'est quand même avéré être la session la plus intéressante à laquelle j'ai assisté aujourd'hui.

Il existe des API autres que JavaScript conçues pour le développement mobile, mais elles sont spécifiques à l'appareil, ce qui est en quelque sorte un désagrément pour moi. Si je prends le temps d'écrire une application pour téléphone, je veux qu'elle fonctionne sur iPhone, iPad, Android, Blackberry, et si elle fonctionne aussi sur le bureau, alors gloire alléluia. Ecrire une fois exécuté n'importe où est ce que je recherche et bien qu'il semble que le monde ne soit pas prêt à 100% pour cela, l'API JavaScript vous rapproche plus que toute autre chose. À part du HTML bien sûr, mais c'est tout simplement trop limitatif. La session d'ouverture du matin a parlé des « à faire et à ne pas faire du développement mobile, et si vous n'utilisez que du HTML, vous vous retrouverez avec un tas de choses à ne pas faire (interfaces maladroites qui sont difficiles à utiliser).

Pour créer une application téléphonique vraiment agréable avec une apparence native sans refaire le code à l'aide d'une API distincte pour chaque appareil, vous devez utiliser un framework pour le front-end. Quelque chose comme JQuery Touch, DojoX Mobile ou Sencha Touch fournit à l'utilisateur de beaux gros boutons et les panoramiques et zooms à gros doigts auxquels tout le monde est habitué. Je fais beaucoup de développement ExtJS, donc ça aurait été bien de voir Sencha en action, mais JQuery Touch est cool aussi et c'est ce qu'étaient la plupart des démos. Ces applications ne fonctionneront pas pour le bureau, mais c'était du gâteau de toute façon, les plates-formes sont tout simplement trop différentes pour utiliser la même interface.

  • iOS (iPhones et iPads) - il a été décrit comme le meilleur navigateur des appareils mobiles avec prise en charge des superpositions SVG, de la géolocalisation, du html 5, de la création et de l'édition de graphiques vectoriels, etc.
  • Blackberry Torch - celui-ci est un peu plus limité dans le sens où le zoom avant/arrière à l'aide d'un pincement, n'est pas pris en charge et il est un peu plus lent, mais il gère la plupart des autres capacités.
  • Android - les téléphones Droid sont plus limités dans certaines choses, d'autant plus qu'ils ne prennent pas en charge les superpositions SVG. Les graphiques vectoriels sont rendus dans le cadre du canevas, vous ne pouvez donc pas sélectionner une fonction individuelle et la manipuler, bien que vous puissiez créer des fonctions et les ajouter. Vous devez également définir une balise META pour désactiver les gestes sur toute la page afin de pouvoir zoomer/dézoomer sur un objet cartographique, mais pas sur la vue globale.

Donc, revenons à ce que je veux, à savoir la possibilité d'exécuter la même application sur autant d'appareils que possible, la façon de procéder semble utiliser quelque chose comme Sencha Touch pour créer l'interface, puis accrocher les événements et les auditeurs à JavaScript. API, qui appelle le serveur ArcGIS. Concevez l'application pour l'appareil le plus limité, qui semble assez étonnamment être l'Android, et allez en ville.

L'API JavaScript fonctionne de la même manière que le reste de la famille des API Web : créez un objet carte, créez un objet couche, créez un objet caractéristique, ajoutez l'entité à la couche, la couche à la carte, etc. Il y en a beaucoup d'intégrés (beaucoup plus que OpenLayers), mais c'est assez simple une fois que vous avez pris le coup, donc je n'y vais pas beaucoup ici. Mais maintenant, au moins, j'ai un plan pour créer des applications mobiles flexibles et je sais quels outils j'aimerais utiliser lorsque j'aurai le temps de le faire.

La session a également abordé des exemples assez intéressants d'utilisation de HTML 5 et CSS3, mais je ne m'y attarde pas tant que ce n'est pas vraiment là. Remarque rapide : il existe un site appelé CanIUse.com qui vous indique quels appareils prennent en charge les éléments vraiment à la pointe de la technologie.

Et il y avait un bonus ! À la toute fin de la présentation, ils ont mentionné quelque chose appelé l'API REST d'impression, qui simplifie apparemment l'impression de cartes avec des superpositions vectorielles, des couches wms externes, du texte, etc. Exactement ce que j'ai fait dans le monde open source pour les deux derniers mois. Cela n'aide pas pour mon projet actuel, mais je suis sûr que je vais essayer tôt ou tard.

Dans une session distincte sur Python, j'ai également eu un aperçu de l'utilisation d'ArcPy pour prendre en charge l'impression basée sur des modèles au format PDF, ce qui est une autre de mes tâches actuelles (utilisant également la technologie open source). Encore une fois, je ne peux pas encore vraiment l'utiliser, mais je prévois de grandes possibilités et j'espère en apprendre plus sur Python demain.

Danny Bradshaw

La troisième journée a débuté par une discussion intrigante avec Michael King de Gartner Research concernant l'omniprésence et les tendances de l'informatique mobile au cours des prochaines années. Bien que personne n'ait le 8-ball magique (en particulier dans le flux et le reflux de l'industrie de la technologie mobile), il a lancé quelques statistiques intéressantes :

  • 214 000 000 de tablettes dans les prochaines années
  • 80% de pénétration du marché des smartphones dans les pays développés dans les prochaines années
  • 2013 – Les téléphones portables dépasseront les PC pour l'accès à Internet.
  • 2014 – 30% des utilisateurs utiliseront la réalité augmentée avec leur expérience mobile

D'autres sessions intéressantes sont venues des Esri Prototype Labs et des équipes de production Esri (c'est-à-dire ceux qui sont chargés de s'assurer qu'ils respectent les délais). Alors que je pouvais écrire un livre sur des trucs sympas, j'étais particulièrement intéressé par un symbole de physique dynamique non conventionnel, dans lequel les plus gros symboles « intimidaient » les petits symboles et prenaient leur place sur la carte. L'équipe du prototype a également fait la démonstration d'une application de réalité augmentée intéressante qui utilisait une feuille de papier avec un « marqueur » spécifique qui a été remplacé par une carte interactive lors d'une vidéoconférence… pensez à un écran vert.

Les équipes/responsables de développement ont parlé du processus de développement interne d'Esri. J'étais intéressé de voir leurs stratégies, qui suivent de près le processus de développement Agile (Scrum). ESRI aime Scrum et évangélisait ce processus de développement. Je vais être honnête, je m'ennuyais jusqu'aux larmes lorsque la discussion s'est tournée vers leurs processus d'assurance qualité étendus… étendus, mais soyez heureux de savoir qu'ils sont approfondis. Quelques statistiques intéressantes sur cette session :

  • 200 développeurs uniques vérifiant le code quotidiennement
  • 95 000 fichiers de code source pour ArcGIS Desktop, dont la compilation prend 5 heures (quotidiennement)
  • AGS Desktop 9.0 = 6,9 millions de lignes de code AGS Desktop 10,0 = 15,97 millions de lignes de code

Melinda Frost

Puisque je suis tout au sujet du mobile, je vais écrire cela sur mon iPhone! Bien sûr, ce sera plus court car j'ai dû me rendre à la clinique sans rendez-vous pour une infection des sinus. Tout le monde ici est super sympa.

Quoi qu'il en soit, retour aux affaires. Mardi soir, lors de la soirée Meet the Teams, j'ai rencontré deux des développeurs du SDK mobile 10.1. Alors, bien sûr, je les ai percés sur le problème que j'ai avec le "scintillement" du contrôle de carte WPF. Les gens veulent qu'il se comporte comme TomTom ou Garmin. Ils m'ont dit que le SDK 10.1 pour mobile sera très différent. Toute l'API sera tirée d'un nouveau SDK principal. Et ils prétendent que ce sera BEAUCOUP mieux que TomTom à cet égard. J'ai dit 'Super mais j'en ai besoin MAINTENANT'. J'ai laissé mes coordonnées avec eux afin que je puisse participer aux tests holistiques pour cela. Mercredi, j'ai « attaqué » Martin et Jay, les responsables de l'équipe de développement du SDK mobile. Encore la même réponse. Après leur avoir montré la meilleure solution de contournement que j'ai trouvée, je commence à voir un peu d'espoir (s'effondrer) de leur part. Ils prévoient de reprendre mon code et de voir si c'est quelque chose qu'ils peuvent faire plus tôt. Doigts croisés!

D'autres informations relatives à la conférence sont que si vous avez développé une application Web Silverlight et/ou des applications WPF, vous êtes prêt à créer une application pour téléphone Windows 7. Même xaml et C# ou VB.NET dans le back-end. Bonne nouvelle pour tous les développeurs Silverlight et WPF.

Tommy ronce

Le troisième jour a commencé avec le conférencier principal de la conférence, Michael King, de Gartner Research. Il a parlé des tendances passées et futures de la technologie mobile et de la façon dont nos vies seront affectées par l'évolution de la technologie. L'informatique contextuelle deviendra la norme où nos appareils intelligents et les services qui les alimentent en sauront plus sur nous que nous-mêmes. Les appareils intelligents deviendront encore plus puissants et « conscients » grâce à la capture de données pilotée par des capteurs, comme la reconnaissance faciale, une meilleure reconnaissance vocale, des capteurs audio et vidéo améliorés et d'autres capteurs avancés qui nécessitent moins d'entrées directes de l'utilisateur pour interagir avec l'appareil. M. King a également abordé certaines choses à faire et à ne pas faire en matière de développement d'applications mobiles et a expliqué comment la réalité augmentée deviendra un outil beaucoup plus puissant au fur et à mesure de son évolution. Nous pouvons nous attendre à voir plus d'applications « du monde réel » où les applications de réalité augmentée aideront les gens à travailler et à d'autres choses dans la vie au lieu d'être simplement le jouet « cool ».

Ma première session de la journée était « Développement avancé avec l'API JavaScript ArcGIS ». Cette session était presque entièrement axée sur le développement mobile avec l'API JS, bien que la session n'ait pas été répertoriée comme mobile. La session aurait probablement attiré un public plus large s'ils avaient effectivement inscrit le cours sous mobile. Les présentateurs ont démontré la création d'applications Web adaptées aux mobiles à l'aide de jQuery Mobile, Dojox.Mobile et Sencha Mobile, toutes utilisant l'API JS pour la fonctionnalité de cartographie. Les présentateurs ont également brièvement couvert les composants HTML5 disponibles dans la plupart des navigateurs qui peuvent également être exploités dans les applications Web mobiles. À mon avis, il n'y avait pas beaucoup de connaissances « avancées » concernant le développement mobile. Les démos étaient des exemples très basiques de câblage d'une application Web mobile. Peut-être que le simple fait qu'il était « mobile » était avancé. J'ai dû quitter la session 10 minutes plus tôt pour préparer ma session d'assistance technique avec les techniciens Esri, et on m'a dit que les présentateurs avaient fait la démonstration d'une fonctionnalité de glisser-déposer vraiment intéressante de l'application Web, mais vous devrez en entendre parler par Ben qui était disponible pour toute la session.

Ensuite, la session « Créer des applications sécurisées ».Cette session s'est concentrée sur la sécurisation de vos services ArcGIS Server et des applications Web qui les utilisent. Les présentateurs ont d'abord examiné les procédures correctes pour sécuriser les services AGS à l'aide d'utilisateurs et de rôles, puis ont examiné comment utiliser les jetons de sécurité d'administrateur pour accéder aux services sécurisés. La session a également couvert l'utilisation de proxys avec vos services sécurisés, puis le passage à un niveau supérieur de sécurité en sécurisant le front-end de votre application (client). Le fournisseur d'adhésion ASP.NET prêt à l'emploi a été utilisé comme exemples pour créer l'utilisateur et les rôles du serveur AGS et pour la sécurité de l'application, bien qu'un fournisseur d'adhésion personnalisé puisse être utilisé à sa place.

J'ai ensuite assisté à l'introduction à l'API ArcGIS pour Windows Phone. Ce sujet était complètement nouveau pour moi, mais j'ai pu partir pour cette session avec les principes de base du développement de Windows Phone. Un point sur lequel les présentateurs ont souligné à plusieurs reprises était que le développement pour le téléphone Windows n'était pas différent du développement d'applications Silverlight. La plupart des mêmes outils et bibliothèques de classes pour la création d'applications Silverlight sont utilisés pour Windows Phone, à l'exception de quelques bibliothèques de classes spécifiques à l'environnement Windows Phone. Les présentateurs ont également présenté certaines de leurs applications Windows Phone existantes, comme ArcGIS pour Windows Phone et l'application AtoB Navigation. Les présentateurs ont également remis un Windows Phone 7 à la fin de la session à la personne dans l'auditoire qui pourrait surprendre la foule avec une question de développement Silverlight/Windows Phone.

Ensuite, la partie la plus attendue de la journée, la Dev Summit Party. Esri a eu une belle configuration de jeux et de divertissements comme d'habitude, le point culminant de l'événement étant le tournoi de Dodgeball. GISi a formé l'équipe « Gone in 30 Seconds ». Heureusement, nous n'avons pas été à la hauteur de ce nom et avons en fait remporté notre premier match au deuxième tour (après un bye au premier tour), mais malheureusement, nous avons été éliminés du tournoi au troisième tour. J'ai également tenté ma chance au tennis de table, mais j'ai terminé la soirée avec un bilan décevant de 1-4 dans mes matchs. Après que mon dernier concurrent m'ait détruit par un score de 21-8, avec quelques-uns de mes collègues qui regardaient, j'ai décidé de me retirer du tennis de table et de l'arrêter. Dans l'ensemble, une autre excellente journée à la conférence.

Je me suis assis sur une autre session d'API Javascript. Il y a une fonctionnalité de glisser-déposer assez élégante qui arrive dans le pipeline. Le présentateur a présenté une API de fichier en faisant glisser une image directement depuis son système de fichiers et en la déposant sur la carte dans le navigateur. Je pensais que c'était plutôt cool jusqu'à ce qu'il fasse glisser un fichier csv vers son navigateur et que les points ainsi que les données d'attribut associées dans le fichier csv apparaissent sur sa carte. Il a également pu ajouter des services supplémentaires en faisant simplement glisser le lien d'un point de terminaison de repos depuis un autre navigateur et en le déposant sur la carte. Le seul inconvénient à ce stade est qu'ils n'ont fait fonctionner la fonctionnalité que dans FireFox et Chrome. Ils travaillent toujours à rendre cela viable dans IE9.

De plus, ils ont fait une démonstration d'un outil d'impression pour l'API Javascript qui sera probablement inclus dans la prochaine version. Cet outil est destiné à être utilisé jusqu'à ce que l'exportation prête à l'emploi soit disponible dans 10.1.

J'ai également assisté à une session Flex avancée. Ceci étant mon premier sommet de développement, cela s'est avéré être un vrai plaisir d'entendre Mansour Raad présent. Il a donné une présentation animée sur la meilleure façon d'utiliser le modèle MVC pour développer des applications Flex, afin qu'elles puissent facilement être ajustées pour s'adapter aux plates-formes Web et mobiles.


Dépôt Fringe Day Two LiveBlog

Bienvenue au deuxième jour de Repository Fringe 2015 ! Pour un deuxième jour, nous partagerons la plupart des discussions via notre blog en direct ici, ou vous pouvez rejoindre la conversation à #rfringe15. Nous prenons également des images autour de l'événement et vous encourageons à partager vos propres images, articles de blog, etc. Utilisez simplement le hashtag et/ou dites-nous où les trouver et nous nous assurerons de créer un lien vers votre couverture, vos photos et commentaires.

Ceci est un liveblog et cela signifie qu'il y aura quelques fautes d'orthographe et quelques corrections peuvent être nécessaires. Nous apprécions vos commentaires et, si vous avez des corrections ou des liens supplémentaires, nous vous encourageons à les publier ici.Â

L'intégration – au cœur de Claire Knowles, Université d'Édimbourg Steve Mackey, Arkivum

Steve dirige cette session, qui a été présentée comme « stockage » mais qui concerne en réalité l'intégration.

Nous sommes une entreprise issue de l'Université de Southampton et notre service phare Arkivum100 a une garantie d'intégrité des données à 100 %. Nous signons des contrats à long terme, pendant 25 ans – la plupart des services cloud signent des contrats annuels. Mais nous avons également une sortie de dépôt de données –, il y a donc une copie sur bande qui vous permet de récupérer vos données après votre départ. Il utilise tout le cryptage open source, ce qui signifie qu'il peut être déchiffré tant que vous avez la clé.

Alors pourquoi utiliser un service comme Arkivum pour conserver les données en vie pendant plus de 25 ans. Eh bien, les choses changent tout le temps. Nous ajoutons des médias tout le temps, plus ou moins continuellement… Nous effectuons des vérifications mensuelles et des mises à jour de maintenance, mais également des vérifications annuelles de récupération et d'intégrité des données. Il existe des entreprises, Sky par exemple, qui a mis en place un processus technologique continu &# 8211 trois systèmes parallèles – pour leur stockage multimédia afin de suivre la technologie. Il y a une obsolescence de 3 à 5 ans des services, des systèmes d'exploitation et des logiciels, nous allons donc actualiser le matériel et les migrations de logiciels et de matériel.

L'appliance Arkival est une représentation CIFS/NFS, ce qui signifie qu'elle s'intègre facilement aux systèmes de fichiers locaux. Il existe également une API REST robuste. Il y a une administration simple des autorisations des utilisateurs, des allocations de stockage, etc. Nous avons une interface graphique pour l'état d'ingestion des fichiers, mais également la pré-mise en place et la sécurité de la récupération. Il existe également un processus d'ingestion déclenché par le délai d'attente, la somme de contrôle, le changement, le manifeste – nous souhaitons que si quelque chose change, vous êtes invité à vérifier et à archiver les données avant de perdre ou de supprimer potentiellement votre commentaire local.

Ainsi, le service commence avec les ensembles de données et les fichiers d'origine, nous prenons une copie pour l'ingestion, via la passerelle Arkivum sur l'appliance, nous chiffrons et décryptons également pour vérifier le processus. Nous vérifions les sommes à toutes les étapes. Une fois que tout est vérifié, il est validé et envoyé à nos archives sur le réseau Janet, et il est également archivé dans une deuxième archive et dans la copie séquestre sur bande.

Nous sommes le coffre-fort de données, la couche de stockage au sein du système plus vaste qui comprend le référentiel de données, le registre des actifs de données et CRIS. Robin Taylor parlera davantage de ce plus grand écosystème.

Nous avons tendance à considérer les données comme existant dans deux cycles qui se chevauchent : les données en direct et les données d'archives. Nous avons tendance à nous concentrer beaucoup plus sur l'aspect archives des choses, qui est lié aux attentes des bailleurs de fonds. Mais l'accent est souvent moins mis sur les données en direct générées par les chercheurs et celles-ci peuvent être tout aussi précieuses et avoir besoin d'être sécurisées que ces données archivées.

Dans un récent rapport Jisc Research Data Spring, le concept de flux de travail RDM est discuté. Voir “Une approche consortiale pour créer un système RDM intégré – “petit et spécialisé”” et qui parle spécifiquement d'exemples de flux de travail, y compris les flux de travail centrés sur le chercheur qui définissent le processus de recherche à intégrer dans leur recherche gestion de données. Nous avons des exemples dans le rapport, notamment ceux créés pour Loughborough et Southampton.

Loughborough a un CRIS, ils ont DSpace et ils utilisent FigShare pour la diffusion des données. Vous pouvez voir que les interactions en termes de flux de données sont très complexes [les diapositives seront partagées mais jusque-là, je peux confirmer qu'il s'agit d'une image très complexe] et l'intention du flux de travail et du processus d'intégration est de rendre ce processus plus simple et plus transparent pour le chercheur.

Alors, pourquoi intégrer ? Eh bien, nous voulons que ces processus soient plus simples et plus faciles pour encourager l'adoption et également un coût inférieur du soutien institutionnel à la base de recherche. C'est une chose d'avoir une case à cocher, c'en est une autre d'amener les chercheurs à l'utiliser réellement. Nous avons également, après avoir été impliqués à plusieurs reprises, de l'expérience dans le processus de déploiement de RDM - notre travail avec l'ULCC sur CHEST nous a particulièrement aidé à explorer et à développer des approches à cet égard. la base de recherche. Nous déployons RDM en tant que service partagé communautaire afin que les petites institutions puissent « unir leurs forces » pour bénéficier d'un accès à une infrastructure RDM commune.

Ainsi, en termes d'intégrations, nous travaillons avec des clients avec DSpace et EPrints, avec des clients utilisant FigShare, et en nous éloignant un peu du référentiel et vers des données de recherche en direct, nous travaillons également autour de Sharegate (basé sur l'archivage Sharepoint), iRODS et QStar et avec ExLibris Rosetta et archivematica. Nous n'avons pas encore vraiment vu de véritable travail de préservation se faire avec la gestion des données de recherche, mais il est à venir, et archivematica est un outil établi pour la préservation dans le secteur du patrimoine culturel et des musées.

Q1) Avez-vous des mesures sur les fichiers que vous stockez ?

A1) Oui, vous pouvez générer des rapports à partir de l'API ou y accéder via l'interface graphique. L'outil QStar et l'outil HSM vous permettent de faire une étude complète de l'environnement qui va explorer votre système et vous informer de l'âge et du stockage des fichiers, etc. Et vous pouvez faire une simulation de ce qui va se passer.

Q2) Puis-je poser des questions sur l'intégration avec EPrints ?

A2) Nous développons actuellement un nouveau plugin qui est motivé par de nouvelles exigences pour des ensembles de données beaucoup plus volumineux entrant dans EPrints et se reliant à travers. Mais le travail que nous avons déjà fait avec l'ULCC est open source. Les plugins pour EPrints sont open source. Certains correctifs créés ont été conçus par @mire, donc un processus différent, mais une fois ceux-ci financés, ils souhaitent qu'ils soient open source.

Q3) Lorsque les référentiels ont été configurés, il y avait un réel besoin d'avoir le plus grand référentiel possible, en étant sûr que tout le monde voudrait le plus de stockage possible, mais c'est aussi cher, et cela peut prendre beaucoup de temps pour voir l'adoption. Y a-t-il quelque chose que vous pouvez dire qui soit utile pour la planification et des conseils pratiques sur la mise en place d'un service pour commencer ? Pour réaliser quelque chose de pratique à une échelle plus modeste.

A3) Si vous utilisez des services gérés, vous pouvez en utiliser aussi peu que vous le souhaitez. Si vous construisez le vôtre, vous avez tendance à avoir un capital fixe, c'est un niveau de dotation qui nécessite une certaine échelle. Nous commençons par quelques téraoctets…

Commentaire – Frank, ULCC) Nous avons quelques clients qui optent pour la configuration la plus petite possible pour une approche de type essai et erreur. La plupart des clients optent pour la solution complète, puis la réévaluent au bout de 6 mois ou d'un an. Bonne affaire en termes de prix.

A3) Le travail avec Jisc a consisté à examiner quelles sont ces exigences. D'après CHEST, il est clair que toutes les organisations ne souhaitent pas se mettre en place à la même échelle.

Malheureusement, notre prochaine intervenante, Pauline Ward d'EDINA, est malade. Au lieu de sa présentation, Vos fichiers sont trop gros ? (pour télécharger / télécharger) nous entendrons Robin Taylor.

Coffre de données – Robin TaylorÂ

Il s'agit d'un projet collaboratif avec l'Université de Manchester, financé par JISC Research Data Spring.

Il y a quelque temps, nous avons acheté beaucoup de kits et d'espaces pour les chercheurs, en donnant à chacun sa propre allocation. Mais pour le chercheur, le flux de travail est généré par les données, qui entrent dans un référentiel, mais ils ne sont pas sûrs des données à conserver et à rendre disponibles, de ce qui pourrait être à nouveau utile et de ce qu'il peut être mandaté de conserver. Nous voulions donc un moyen de stocker ces données, et cela devait avoir une sorte d'interface pour permettre cela.

Édimbourg et Manchester avaient des scénarios communs, des usages communs. Nous traitons tous les deux de gros volumes de données, des centaines de milliers voire des millions de fichiers. Il est impossible d'utiliser des mécanismes d'interfaces Web pour le téléchargement. Nous avons donc besoin que l'archivage se fasse en arrière-plan.

Ainsi, notre solution a été d'établir l'interface utilisateur de Data Vault, qui interagit avec un Data Vault Broker/Policy Engine qui interagit avec Data Archive, et le Broker interagit ensuite avec le stockage actif. Mais nous ne voulions pas construire quelque chose de tellement sur mesure qu'il ne s'intègre pas à d'autres systèmes, par exemple les cahiers de laboratoire RSpace. Et il se peut que l'archive soit Arkivium, ou Amazon, ou pourrait être une bande. Notre mécanisme résume donc cela d'une certaine manière, pour créer un moyen simple pour les chercheurs d'archiver leurs données dans un format standard. manière de type #8221.

Mais nous devons dire que la préservation n'est pas quelque chose que nous avons examiné. La migration de format n'est pas réaliste à ce stade. À l'échelle que nous recevons des données, cela ne rend pas ce travail pratique. Mais, plus important encore, nous ne savons pas quelle est l'heure appropriée, nous stockons donc ces données pendant la période requise, puis nous voyons ce qui se passe.

Q1) Vous avez mentionné que vous n'envisagez pas la préservation pour le moment ?

A1) Ce n'est pas sur notre liste de choses à faire pour le moment. La comparaison évidente serait avec archivematica qui permet de stocker les données dans des formats plus durables, car nous ne savons pas quels seront ces formats. Cette entreprise a une liste spécifique de formats qu'elle peut gérer. Ce n'est pas tout. . Mais cela ne veut pas dire qu'en fin de compte ce ne sera pas quelque chose que nous voulons regarder, ce n'est tout simplement pas ce que nous regardons en ce moment. Nous répondons au besoin des chercheurs de stocker des données sur le long terme.

Q1) Je demande parce que ce que signifie l'accessibilité est important ici.

A1) Sur les données en direct, qui sont publiées, il incombe davantage à l'institution de s'assurer qu'elles sont disponibles. Cela retient des collections de données plus larges

Q2) Est-ce que quelqu'un a déjà demandé à récupérer ses fichiers ?

A2) Il y a une discussion en cours sur ce qu'est une sauvegarde, ce qu'est une archive, etc. Certains l'utilisent comme sauvegarde mais ce n'est pas ce que cela devrait être. Il s'agit de données qui doivent être plus sécurisées, mais qui n'ont peut-être pas besoin d'un accès instantané, ce qui n'est peut-être pas le cas. Nous avons des personnes qui posent des questions sur l'archivage, mais nous n'avons reçu aucune demande de retour de données. L'autre question est de savoir si nous supprimons les éléments que nous avons archivés ? Les chercheurs sont les mieux placés pour le faire, nous découvrirons donc en temps voulu comment cela fonctionne.

Q3) Y a-t-il une limite entre le stockage en direct et le stockage d'archives ?

A3) Oui, chaque chercheur dispose d'une quantité limitée de stockage actif, mais un groupe de recherche peut également acheter du stockage supplémentaire si nécessaire. Â Mais plus vous travaillez avec des quotas, plus cela devient complexe.

Commentaire) J'imagine que si vous facturez quelque chose, l'utilisation pourrait être plus réfléchie.

A3) Il existe une école de pensée selon laquelle la recharge signifie que l'utilisation ne sera pas infinie, elle sera plus réfléchie.

Les référentiels libérant les données ! Qui d'autre pourrait utiliser vos données ? – Graham Steel, ContentMine/Open Knowledge Ecosse

Graham porte son T-shirt “ContentMine : le droit de lire est le droit d'avoir le mien !” pour son discours…

Comme Graham l'a dit (via les médias sociaux) avant son discours, ses diapositives sont en ligne.

Je vais parler brièvement d'Open Data… Et j'ai pensé que je commencerais par une petite revue de quand j'étais à Repository Fringe 2011 et j'ai appris que tout le contenu des référentiels n'était pas en accès libre, ce qui m'a choqué ! Les choses se sont apparemment améliorées, mais nous parlons toujours de l'or contre le vert même en libre accès.

En termes de partage de données et d'informations, beaucoup d'entre vous connaissent généralement PubMed.

Il y a quelques années, un blogueur/chercheur sur le diabète, Jo Brodie et un tweeter régulier ont demandé pourquoi PubMed n'avait pas de boutons de partage sur les réseaux sociaux. J'ai recueilli des opinions sur la question et j'ai envoyé les résultats à David Lipman (que je connais bien) qui est en charge de NBCI/PubMed. Et David a dit « qu'est-ce que les médias sociaux ? »

Cela a pris environ un an et trois suivis, mais PubMed Central a ajouté un bouton Twitter et en juillet 2014, des boutons de partage étaient en place…

L'information veut être disponible, mais nous avons différentes manières d'arrêter ce streaming de vidéo géographique et restreint par licence, par exemple.

Le regretté grand Jean-Claude Bradley considérait la science comme étant dirigée par des machines… Cette diapositive a environ 7 ans maintenant, mais je sens que les choses ont progressé depuis !

Mais parfois, il n'est pas si facile d'accéder aux données ou d'extraire des données - certains éditeurs facturent 35 £ pour extraire chaque article " gratuit ", un coût ridicule pour ce qui devrait être une fonction de base.

L'Open Knowledge Foundation travaille avec des données ouvertes depuis 2004… [remarquez de nombreuses images stupides de données sur Star Trek: The Next Generation images!].

Nous avons également de nombreux référentiels de données ouverts, fig.partager (qui compte maintenant un peu moins de 2 millions de téléchargements), etc. Il y a deux semaines, je n'avais même pas réalisé que de nombreuses universités disposaient de référentiels de données, mais nous voulons également Rdépositaires Use déchaîner à Everywhere [RUDE!] et nous avons aussi la nouvelle initiative, le Radical Librarians Collective…

Les Carr, Université de Southampton (data.ac.uk)

L'Initiative d'accès ouvert de Budapest nous a en quelque sorte lancé il y a une dizaine d'années. À Southampton, nous avons été très impliqués dans les données gouvernementales ouvertes et celles-ci ont de nombreux domaines de préoccupation communs concernant la transparence, le partage de la valeur, etc.

Et nous avons maintenant data.gov.uk qui permet le partage des données qui ont été collectées par le gouvernement. Et à Southampton, nous avons également participé récemment à la compréhension des données, de l'infrastructure, des activités, des équipements du milieu universitaire en mettant en place data.ac.uk. Il s'agit d'un agrégateur national qui collecte des informations à partir de données ouvertes sur chaque institution. Ainsi, si vous avez besoin de données, par ex. sur l'ADN et les équipements associés, qui contacter pour l'utiliser, etc.

Cela est rendu possible car les institutions essaient de rassembler des données sur leurs propres actifs, mises à disposition sous forme de données ouvertes institutionnelles de manière standard qui peuvent être automatiquement récupérées. Nous rendons les informations sur le bâtiment accessibles ouvertement, par exemple sur les consommations d'énergie, les services disponibles, les cafés, etc. Pourquoi ? Qui va utiliser ça ? Eh bien, c'est le fait que d'autres personnes sachent mieux que vous ce que vous devez faire avec vos données. Ainsi, les étudiants de notre département d'informatique, par exemple, ont examiné la création d'applications d'itinéraires recommandés, par ex. entre les cours. Aussi la croix avec des installations de restauration – par ex. “les applications de caféine les plus proches” ! Cela semble ridicule, mais les étudiants apprécient vraiment cela. Et nous pouvons croiser les données des bus de la ville avec les horaires avec les niveaux d'hygiène alimentaire du Royaume-Uni – afin que vous puissiez trouver où trouver quel bus à quel pub pour un événement, etc. Et les plans du campus aussi !

Maintenant, nous avons un monde de plates-formes ouvertes, nous avons Internet, le Web, etc. Mais pas Google, ce n'est certainement pas ouvert.Alors…, pourquoi les systèmes fermés sont-ils mauvais ? Eh bien, nous devons passer de la connaissance à la compréhension, à l'application, à l'analyse, à la synthèse et à l'évaluation. Nous avons des référentiels au bas de ces connaissances, mais nous sommes tous en train de nous inquiéter pour REF2020, mais il s'agit d'évaluation – qui sait quoi, où est cette chose, quelle différence cela fait-il ?

Donc, pour finir, j'ai pensé aller sur le site Web de Fringe et cette année, il a fière allure et ressemble à un référentiel ! Cette année, ils incluent les tweets, la discussion, etc. en un seul endroit. Les dépôts peuvent apprendre du Fringe. Des tas de petites entreprises ont désespérément besoin d'attention, et quelques petites entreprises qui ne sont pas du tout dérangées, elles savent qu'elles trouveront leur public.

Jisc on Repositories libérant des données – Daniela Duca, Jisc

Je travaille dans l'équipe de recherche de Jisc et nous essayons de soutenir les universités dans leur cœur de métier et d'aider à rendre le processus de recherche plus productif. Et je parlerai de deux projets dans ce domaine : UK Research Data Discovery Service et le deuxième Research Data Service.

Le service de découverte de données de recherche (RDDS) vise à rendre les données plus faciles à découvrir. Il s'agit d'un projet qui est à mi-parcours et qui est en collaboration avec UK Data Archive et le DCC. Nous voulons passer d'un pilote à un service qui rend les données de recherche plus découvrables.

Dans la phase 1, nous avons eu le projet pilote pour évaluer le Research Data Australia développé par ANDS, avec des contributions des archives de données britanniques, du centre de données archéologique et des centres de données NERC. Dans la phase 2, Jisc, avec le soutien de DCC et de l'UKDA, finance 9 autres institutions pour tester ce service.

Le deuxième projet, Research Data Usage and Metrics, est né d'un intérêt pour la diffusion des travaux universitaires et pour l'efficacité des systèmes et processus de gestion des données. Nous essayons d'évaluer l'utilisation et la demande de métriques et nous développerons un outil de validation de principe à l'aide d'IRUS. Nous contribuerons à et tirerons parti d'un large éventail de normes internationales.

Et, avec cela, nous nous dispersons en 5 groupes de discussion super rapides de 17 minutes qui, nous l'espérons, ajouteront leurs commentaires/notes ici. Gardez également un œil sur ces tweets (#rfringe15) !

Nous reviendrons sur le blog à 11h15 après les petits groupes, puis café et démo deDMAOnline –Â Hardy Schwamm, Université de Lancaster.

Et nous sommes de retour, sous la présidence de William Nixon (Université de Glasgow), et il met à jour notre programme pour cet après-midi qui voit notre pause-café de l'après-midi raccourcie à 15 minutes.

Neil et moi parlerons de certains travaux que nous avons réalisés pour relier les résultats de la recherche. Je suis basé à la British Library au sein d'une équipe travaillant sur les résultats de la recherche.

Lier les données –Â Neil Chue Hong, Software Sustainability Institute Rachael Kotarski, Project THOR

Rachael : La recherche est représentée par de nombreux extrants. Les articles sont parmi les résultats les plus faciles à reconnaître, mais qu'en est-il des échantillons, des données, des objets issus de la recherche ? les bonnes informations, vous ne pouvez pas reproduire ce travail.

La citation permet également de reconnaître, par exemple, des ensembles de données historiques et des recherches longitudinales sur de nombreuses années, ce qui s'avère utile de manière inattendue.

La citation des données soulève également des problèmes de paternité. Une citation d'une ligne avec un lien n'est pas nécessairement suffisante. Ainsi, une partie du travail de DataCite et de la British Library a consisté à relier des données et des objets de recherche à des auteurs et à des personnes, avec l'utilisation d'ORCID aux côtés de DOI, d'URL, etc. Lier un large éventail de personnes et d'objets.

THOR est un projet, qui a démarré en juin, sur les infrastructures techniques et humaines. C'est plus de travail sur les objets de recherche, les domaines, les bailleurs de fonds, les organisations, élargissant vraiment le champ de ce qui devrait être combiné et lié ici.

Le premier domaine ici est donc la recherche et la compréhension des lacunes et de la manière dont elles peuvent être comblées. Et y amener des bailleurs de fonds. Et nous examinons également l'intégration de services, etc. Donc, une chose que nous avons faite dans ODIN et que nous apportons dans THOR consiste à connecter votre identifiant ISNI à ORCID, afin qu'il y ait une relation là-bas, afin que les données restent à jour. Et la prochaine partie du travail porte sur le travail de sensibilisation sur les bootcamps, les webinaires, etc. pour vous permettre également d'alimenter le travail de recherche. Et, enfin, nous examinerons la durabilité, en regardant comment ce que nous faisons peut être autofinancé au-delà de la fin du projet, grâce à l'adhésion à des organisations partenaires : CERN, DataCite, ORCID, DRYAD, EMBL-EBI, ets, PLoS, Elsevier Labs, Panomia (?). Il s'agit d'un projet financé par l'UE, mais il a une portée internationale et une infrastructure internationale.

Nous voulons donc savoir quels sont les problèmes pour vous. Parlez-nous, faites-nous savoir.

Logiciel de liaison : citations, rôles, références et plus – Neil Chue Hong

Rachael vous a donné un aperçu, je vais entrer dans les détails pour les logiciels, mon domaine. Nous savons donc que le logiciel fait partie du cycle de vie de la recherche. Ce cycle de vie repose sur la capacité d'attribuer et de créditer les choses et cela peut mal tourner pour le logiciel. C'est parce que notre processus est un peu étrange & #8230 Nous commençons des recherches, nous écrivons des logiciels, nous utilisons des logiciels, nous produisons des résultats et nous publions des documents de recherche. Maintenant, si nous sommes bons, nous pouvons mentionner le logiciel. Nous pouvons publier des données ou des logiciels après la publication… plutôt qu'avant…

Un meilleur processus pourrait être de commencer la recherche, d'identifier les logiciels existants, nous pourrions adapter ou étendre les logiciels, publier des logiciels (peut-être même publier un article sur les logiciels), utiliser des logiciels, produire des résultats, publier des données et des documents de données publics, puis nous publier un document de recherche. C'est génial mais aussi plus complexe. À l'heure actuelle, nous utilisons des logiciels et des documents de données comme proxy pour partager notre processus.

Mais le logiciel n'est pas si simple, les limites peuvent être floues. Est-ce le flux de travail, le logiciel qui exécute le flux de travail, le logiciel qui référence le flux de travail, le logiciel qui prend en charge le logiciel qui référence le flux de travail, etc. ? Quelle est la partie utile ? Où devrait être le DOI par exemple ? C'est actuellement au niveau du programme mais est-ce la bonne granularité ? Cela devrait-il être au niveau de l'algorithme ? Au niveau de la bibliothèque ? Le logiciel a le concept de versioning – J'aimerai que nos recherches soient versionnées plutôt que “final” mais c'est un tout autre discours ! Mais le concept de gestion des versions indique un changement, il permet le changement, mais encore une fois, comment décidons-nous du moment où cette version se produit ?

Et le logiciel a aussi le problème de paternité – quels auteurs ont eu quel impact sur chaque version du logiciel ? Qui a la plus grande contribution aux résultats scientifiques dans un article ? Donc, pour un projet, je pourrais apporter le plus de modifications à un référentiel de code – tout ce qui concerne la mise à jour de la licence – donc la plus grande contribution, mais la communauté des chercheurs serait-elle d'accord ? Peut-être pas. Maintenant, j'avais l'habitude de donner cette conférence et de dire “c'est pourquoi le logiciel n'a rien à voir avec les données” mais maintenant je dis “c'est pourquoi le logiciel est exactement comme les données” !

Donc, les différentes choses qui se passent maintenant pour relier ces morceaux. GitHub, Zenodo, FigShare et Institutional Repo ont examiné le dépôt en un clic au niveau du package, avec un DOI citable. Il y a eu des travaux autour du dépôt d'épée que Stuart Lewis a également examiné. Vous pouvez donc désormais archiver facilement des logiciels, mais c'est facile, mais c'est le côté social qu'il faut gérer. Ainsi, il y a un tout nouveau groupe de travail dirigé par Force11 sur Software Citation – s'impliquer.

Et il existe des projets pour clarifier les rôles des auteurs/contributeurs : Project Credit se penche sur les niveaux Or/Argent/Bronze. Mais Contributor Badges envisage une reconnaissance plus granulaire. Et nous avons également un travail sur le code en tant qu'objet de recherche, et un codemeta de projet qui cherche à définir des métadonnées minimales.

Cela nous amène donc au rôle des référentiels et de la communauté Repository Fringe. L'Imperial College, par exemple, examine ces normes et la manière de les inclure dans les référentiels. Et cela m'amène à ma question : comment la communauté des référentiels prend-elle en charge ce type de lien ?

Q1 – William Nixon) En examinant les principes de citation…, comment élaborez-vous ces principes ?

A1 – Neil) Force11 a mis au point ces principes de citation et ceux-ci sont partagés avec la communauté… Mais toutes les communautés sont différentes. Il est donc facile d'obtenir un accord de haut niveau, mais il est difficile d'obtenir un accord sur les détails de la mise en œuvre. Ainsi, la paternité change au fil du temps et change de version en version. Ainsi, lorsque nous créons des principes de citation, créons-nous tous collectivement et également, ou prenons-nous la voie complexe de la reconnaissance des contributions individuelles spécifiques pour une version particulière. Cela provoque d'énormes débats et controverses dans la communauté open source pour savoir qui a le crédit approprié, etc. Pour moi, que devons-nous déposer ? Certaines informations peuvent être utiles plus tard dans le cycle de vie des récompenses…. Mais si je suis l'auteur principal, cela sera-t-il une priorité ici ?

Q2 – Paul Walk) Mon hippie interne dit que l'altruisme et le bien public entrent dans les logiciels open source et je me demande si nous risquons de jouer avec ce système de recherche sordide…

A2 – Neil) Je réfuterais que la plupart des contributions et développements open source ne sont pas altruistes. Ce sont les gens qui sont récompensés d'une manière ou d'une autre, car faire les choses ouvertement leur rapporte plus que de travailler seuls. Je ne dirais pas que l'altruisme est la force motrice ou du moins ne l'a pas été depuis un certain temps. Il fait déjà partie de ce système de type recherche.

Commentaire) Pour moi, c'est un niveau si élevé d'où nous en sommes, vous parlez de la façon dont nous reconnaissons la contribution, la citation, etc. cela, mais juste convaincre la direction de payer pour les ID ORCID pour tous est un problème même…

A2 – Rachael) Nous devons travailler à ce sujet, montrer comment les chercheurs ont fait cela et la valeur de ceux-ci nous aidera. Ce n'est peut-être pas seulement par le biais d'institutions, mais également par le biais de sociétés universitaires, etc.

A2 – Neil) Et cela revient à la dimension sociale et à la réflexion sur ce qui motivera les gens à déposer. Et ils peuvent remarquer les éditeurs…. Le partage de logiciels peut avoir un impact positif sur les citations et cela aidera. La sortie de logiciels dans la communauté du traitement d'images, par exemple, montre également que les citations augmentent – et cela peut être vraiment motivant. Et puis il y a l'impact économique pour les universités - y a-t-il un moyen de créer des études pour montrer une réputation positive et des impacts économiques sur l'établissement qui prouveront l'avantage pour eux.

Q3) Une question simple : « il existe de nombreuses solutions potentielles pour les données logicielles » mais en verrons-nous des avantages jusqu'à ce que nous voyions REF changer pour valoriser le logiciel et les données dans la même mesure que les autres sorties.

A3 – Neil) Je pense que nous voyons un changement venir. Il ne s'agira pas de valoriser les logiciels autant que les papiers. Il s'agira de crédit pour la bonne personne afin qu'ils aient de la valeur. Ce que j'ai vu lors des réunions du conseil de recherche, c'est qu'ils reconnaissent que d'autres extrants sont importants. Mais dans un projet de recherche, le crédit a tendance à aller à l'auteur original d'un nouvel algorithme peut-être, pas au développeur qui a apporté des changements substantiels. Alors, où va le crédit importe – l'utilisateur, l'implémenteur, le contributeur, l'initiateur, etc. Si je ne pense pas que j'obtiendrai un crédit approprié, alors quelle est la motivation pour moi de déposer mon logiciel ?

EC Open Data Pilot, EUDAT, OpenAIRE, FOSTER et PASTEUR4OA –Â Martin Donnelly, Digital Curation Center

J'ai été mis au défi hier par Rachael et par Daniela à Jisc de faire ma présentation sous la forme d'un poème…

Il était une fois un homme de Glasgow
Qui a étudié la politique des données
Dans un projet appelé FOSTER
De longues heures perdues ont été
Et maintenant, il va vous montrer quelques diapositives ?

Je parlerai donc de quatre projets financés par l'Europe sur la gestion des données de recherche et l'accès ouvert qui font tous partie d'Horizon 2020. Beaucoup d'entre vous feront partie de consortiums Horizon 2020, ou soutiendront des chercheurs qui le sont. Il est utile de se rappeler le contexte dans lequel celles-ci sont apparues…

La science ouverte s'inscrit dans un contexte de transparence, d'accessibilité et de responsabilité toujours plus grandes. C'est à la fois un problème ascendant : le concept OA a été inventé il y a environ 10 ans à Budapest et était dirigé par la communauté de la physique des hautes énergies qui voulait être plus ouverte dans le partage de leurs travaux, et le faire plus rapidement. Et il a également été conduit par le haut grâce au soutien du gouvernement/des bailleurs de fonds, augmentant l'engagement public et commercial dans la recherche. Pour assurer une meilleure adoption et utilisation de la recherche qui a été investie.

En termes de politique au Royaume-Uni, le RCUK a sept principes communs sur la politique des données, la taille des bailleurs de fonds du RCUK nécessite des plans de gestion des données. Cela s'intègre dans des mouvements politiques internationaux plus larges. En effet, si vous pensiez que le délai de quatre ans de l'embargo EPSRC était serré, l'Afrique du Sud vient d'introduire une exigence ne dépassant pas 12 mois.

L'Open Access était un pilote dans le 7e PC, il s'est déroulé d'août 2008 jusqu'à la fin du 7e PC en 2013. Il couvre des parties du 7e PC, mais il couvre l'ensemble du 7e PC/Horizon 2020 bien qu'il s'agisse d'un processus pilote destiné à être généralisé par le 9e PC ou autre. il est connu par. La CE voit un réel avantage économique pour l'IA en soutenant les PME et les ONG qui ne peuvent pas se permettre des abonnements aux dernières recherches. Alma Swan et ses collègues ont écrit sur les coûts d'opportunité qui fournissent un contexte utile à la différence que le libre accès peut faire.

Tout projet bénéficiant d'un financement H2020 doit rendre tout article de revue à comité de lecture qu'il publie dans un accès libre et gratuit, via un référentiel, quelle que soit la manière dont il publie et qu'il s'agisse d'une OA verte ou dorée.

H2020 comprend également un pilote de données de recherche ouvertes – susceptible d'être requis par le FP9. Elle s'applique aux données et métadonnées nécessaires à la validation des résultats scientifiques qui doivent être déposées dans un référentiel de données dédié. Fait intéressant, alors que les plans de gestion des données doivent être créés 6 mois après le début du projet, et vers la fin, ils n'exigent pas qu'ils soient déposés auprès de l'UE au départ.

Donc, enfin, je veux parler de quatre projets financés par l'UE.

Pasteur4OA vise à simplifier les mandats de libre accès à travers l'UE afin que les bailleurs de fonds n'aient pas de problèmes politiques contradictoires. Cela signifie qu'il s'agit d'un processus technique et diplomatique complexe.

OpenAIRE vise à promouvoir l'utilisation et la réutilisation des résultats de la recherche financée par l'UE

EUDAT propose des services de données communs via un réseau résilient réparti géographiquement de 35 organisations européennes. Jisc et DCC y travaillent tous les deux, en intégrant l'outil DMP Online de DCC à ces services.

Le projet FOSTER aide différentes parties prenantes, en particulier les jeunes chercheurs, à adopter le libre accès dans le contexte de l'Espace européen de la recherche et à les sensibiliser aux exigences H2020 d'eux - avec une grosse carotte et un petit bâton en quelque sorte. Nous voulons que les chercheurs intègrent les principes et la pratique du libre accès dans leur flux de travail de recherche actuel plutôt que de leur demander de changer complètement leur façon de travailler. Nous formons les activités de type formateur dans ce domaine et facilitons également l'adoption, le renforcement et les politiques de libre accès au sein et au-delà de la CE. Foster effectue ce travail par diverses méthodes, notamment en identifiant le contenu existant qui peut être réutilisé, reconditionné, etc.

Atelier Jisc sur la gestion des données de recherche et les activités de recherche à risque, et les services partagés – Rachel Bruce, Daniela Duca, Linda Naughton, Jisc

Rachel dirige cette session…

Il s'agit en réalité d'une session de discussion, mais je vais commencer par vous donner également un aperçu très rapide de certains travaux de recherche à ris. Mais il s'agit d'une session fluide - nous sommes heureux d'accueillir d'autres sujets dont vous pourriez avoir envie de parler. Pendant que nous vous donnons un aperçu rapide, réfléchissez à un sujet de défi RDM dont vous voudrez peut-être saisir l'occasion pour parler.

Donc, en termes de Recherche à Risque, il s'agit d'un défi de co-conception. Il s'agit d'un processus que nous appliquons au Jisc pour la recherche et le développement, ou simplement pour le développement, mais pour relever les défis du secteur. Les défis auxquels le secteur est confronté ici concernent l'approche fragmentée des données et des infrastructures de recherche. Pour cette raison, nous n'atteignons probablement pas tous les objectifs que nous voudrions. Cela est en partie lié de très près à ce que David Prosser disait hier au sujet du libre accès et des avantages de l'échelle et des services partagés. On nous a donc demandé d'aborder ces questions dans Research at Risk.

Au sein de Research at Risk, nous avons une gamme d'activités, l'une des plus importantes concerne les services partagés, y compris l'écart de conservation et de conservation. Vous avez déjà entendu parler de la découverte et de l'utilisation des données de recherche, ainsi que du Research Data Spring.

Ainsi, les défis dont nous voulons discuter avec vous sont :

  1. Les services partagés pour RDM – hier, il y a eu une discussion autour des services SHERPA par exemple. (Rachel dirigera cette discussion)
  2. Registre des politiques de données de recherche de revues (Linda dirigera cette session)
  3. Analyse de rentabilisation et financement de la GDR – articulant le rôle de la GDR (Daniela dirigera cette session)
  4. Mais aussi tout ce dont vous pourriez vouloir discuter… (Varsha dirigera cette discussion de groupe)

Donc, Shared Services… Il s'agit d'un diagramme d'architecture que nous avons mis en place pour décrire tous les services clés pour prendre en charge un service complet de gestion des données, mais également se relier aux services nationaux et internationaux. Et je dois remercier Stuart Lewis de l'UoE et John Lewis (Sheffield ?) qui avaient déjà fait une grande partie de cette cartographie. Nous avons également entrepris une enquête auprès des dépositaires concernant les besoins potentiels des établissements d'enseignement supérieur. Certaines réponses concernant un éventuel référentiel de données national appellent Jisc à travailler avec les bailleurs de fonds sur les exigences de stockage de données pour qu'ils fournissent un mandat de stockage de données spécifique à une discipline appropriée.

Linda : Je vais parler un peu du Journal Research Data Policies Registry – vous pouvez en savoir plus sur notre blog et notre site Web. Nous voulons créer un registre qui nous permette de remonter le temps pour voir ce que nous pouvons apprendre des pratiques OA. L'objectif est de développer les meilleures pratiques sur les politiques des revues entre les éditeurs et les autres parties prenantes. Nous voulons savoir ce qui pourrait vous faciliter la vie en termes de politiques et de navigation dans les politiques de données de recherche. Et cette contribution à ce travail préliminaire serait très précieuse.

Daniela : L'analyse de rentabilisation et les coûts de RDM en sont à un stade très précoce, mais nous examinons un ensemble d'orientations convenues pour l'analyse de rentabilisation de RDM et des informations sur les coûts afin de soutenir l'analyse de rentabilisation dans les EES pour la gestion des données de recherche.Cela reflète le fait que les approches actuelles du financement des services et des infrastructures de RDM varient énormément et que l'incertitude demeure. Et j'aimerais vous en parler.

Rachel : nous pensions avoir ces discussions en groupe et nous prendrons des notes sur les discussions au fur et à mesure qu'elles auront lieu, et nous partagerons cela sur notre blog. Nous voulons également que vous écriviez – sur ces grandes notes – le principal défi qui, selon vous, doit être relevé et que nous éliminerons également.

Ainsi, le blog redeviendra silencieux pendant un certain temps, mais nous essaierons de tweeter les faits saillants des groupes et de prendre quelques images de ces discussions. Comme Rachel l'a dit, il y aura également des notes sur le blog Jisc Research at Risk après avoir capturé les discussions d'aujourd'hui.

Faites une courte pause pour le déjeuner, où il y avait aussi une démo qui se déroulait à partir de : DMPoline –Â Mary Donaldson et Mick Eadie, Université de Glasgow.

Notre premier exposé de cet après-midi, introduit par William Nixon, est :

Déverrouillage des données de thèse –Â Stephen Grace, University of East London

Ce projet s'adresse à plusieurs publics différents. Pour les étudiants, il s'agit de se rapprocher des normes de recherche de carrière, de visibilité et de citations. Les aider à comprendre la norme de communication savante qui devient la réalité du monde. Mais cela profite aussi aux bailleurs de fonds, aux chercheurs, etc.

Nous avons mené une enquête (voir : http://dx.doi.org/10.15123/PUB.4274) et nous en avons trouvé plusieurs attribuant déjà des DOI à des thèses, mais d'autres cherchent à en faire plus dans ce domaine. Nous avons également entrepris des études de cas dans six institutions, pour nous aider à mieux comprendre quels sont réellement les processus. Nos études de cas concernaient donc l'Université d'East London, l'Université de Southampton LSE UAL, l'Université de Bristol et l'Université de Leicester. Vraiment intéressant de voir les systèmes en place.

Nous avons entrepris la création de tests de DOI de thèse avec l'Université d'East London et l'Université de Glasgow, et l'Université de Southampton a entrepris cela via un téléchargement XML, donc un processus légèrement plus complexe. En théorie, tout cela était assez simple. Nous étions reconnaissants du financement Jisc pour ce projet de trois mois, il n'a pas obtenu de financement de continuation, mais nous sommes impatients de comprendre comment cela peut se produire dans plus d'institutions et d'explorer d'autres questions : par exemple, comment les données de recherche sont-elles liées aux thèses, quel est son rôle, fait-il partie de la thèse, un objet connexe, etc. ?

Les questions que nous nous posons donc sont les suivantes : quels systèmes utiliseriez-vous et peuvent-ils créer/utiliser des identifiants persistants ? Des conseils sur ce qui pourrait/devrait/doit être déposé ? Un enregistrement ou plus ? Opportunités d'efficacité ?

Sur la question d'un disque ou plus, une thèse que nous avons déposée à l'UEL était une thèse multimédia, sur la réalisation de films et relative à la réalisation de deux films documentaires - ils ont été déposés sous leurs propres DOI. Est-ce une bonne ou une mauvaise chose ? Cette flexibilité est-elle bonne ?

Des gains d'efficacité pourraient être possibles autour du catalogage des thèses, ce qui peut être un processus répété pour la copie du référentiel et pour la copie de la bibliothèque et ceux-ci semblent devoir être des processus joints.

Nous aimerions recevoir vos questions et commentaires et vous pouvez trouver tous les résultats du projet.

Q1) Quelle est l'exigence du bailleur de fonds sur les données déposées avec les thèses ?

A1) Si les étudiants sont financés par des conseils de recherche, ils auront des attentes, que la thèse soit terminée ou non.

Q2) Avez-vous eu des retours des étudiants (terminés) dont le travail a été déposé sur la façon dont ils ont trouvé cela ?

A2) J'ai eu des retours de l'étudiant qui avait déposé ce travail sur des films documentaires. Elle a déclaré qu'en tant que réalisatrice de films documentaires, il y avait de moins en moins de façons de présenter ces films documentaires. En tant que cinéaste non commerciale, voir son travail là-bas et disponible est important et cela agit comme une archive et comme une mesure de rétroaction qu'elle apprécie

Q3) À propos de l'attribution d'ID ORCID aux étudiants – J'ai du mal à comprendre pourquoi cela poserait problème ?

A3) Théoriquement, il n'y a pas de problème, nous devrions l'encourager.

Commentaire : Quand il est nécessaire d'appliquer un embargo sur une thèse parce qu'elle contient un contenu sur lequel un éditeur a le droit d'auteur, il peut être utile d'avoir un DOI pour la thèse et des DOI distincts pour les données, afin que le les données peuvent être publiées avant que la thèse ne soit libérée de l'embargo. [Un grand merci à Philippa Stirlini pour avoir fourni cette modification via les commentaires (ci-dessous)].

IRUS ROYAUME-UNI –Â Jo Alcock, IRUS ROYAUME-UNI

Nous sommes un service d'agrégation national pour tous les référentiels institutionnels britanniques qui collectent des statistiques d'utilisation. Cela inclut les données de téléchargement brutes des IR britanniques pour tous les types d'éléments dans les référentiels. Et il traite les données brutes en statistiques conformes à COUNTER. Et cette agrégation – de 87 IR – vous permet d'obtenir une image différente de celle de simplement regarder votre propre référentiel.

IRUS-UK est financé par Jisc. Le projet et le service Jisc gèrent IRUS-UK et l'hébergent. L'Université de Cranfield entreprend le développement et la base de preuves à l'Université de Birmingham City entreprend l'engagement et l'évaluation des utilisateurs.

Dans les coulisses, IRUS-UK est un petit morceau de code qui peut être ajouté au logiciel de référentiel et qui utilise le “Tracker Protocol”. Nous avons des correctifs pour DSpace, des plug-ins pour Fedora et des directives d'implémentation pour Fedora. Il rassemble les données de base pour chaque téléchargement et les envoie au serveur IRUS-UK. Les rapports sont conformes aux rapports 1 et 4 COUNTER. Nous avons également une API et un service de type SUSHI.

À l'heure actuelle, nous avons environ 400 000 articles couverts par IRUS-UK. Il existe un certain nombre de rapports différents – et de nombreuses façons de filtrer les données. Une chose que nous avons changé cette année est que nous avons combiné certains de ces rapports connexes, mais nous avons ajouté un écran qui vous permet de filtrer les informations. Le rapport de référentiel 1 vous permet de parcourir tous les référentiels par mois – vous pouvez afficher ou exporter au format Excel ou CSV

En tant que référentiels, vous êtes probablement plus concerné par le rapport d'article 1 qui vous permet de voir le nombre de demandes de téléchargement d'articles réussies par mois et par identifiant de référentiel. Vous pouvez consulter les statistiques d'articles sous forme de tableau et de graphique. Vous pouvez voir, par exemple, des pics de trafic qui peuvent justifier une enquête plus approfondie – une citation, un article de presse, etc. Encore une fois, vous pouvez exporter ces données.

Vous pouvez également accéder aux statistiques d'articles IRUS-UK qui vous permettent d'avoir une vue (très colorée) de la façon dont ce travail est référencé – blogué, tweeté, cité, etc.

Nous avons également un Journal Report 1 – qui vous permet de voir tout ce qui est téléchargé à partir de ces journaux au sein de la communauté IRUS-UK. Vous pouvez afficher les articles et voir tous les référentiels dans lesquels cet article se trouve. Vous pouvez ainsi comparer les performances entre les référentiels, par exemple.

Nous avons également passé beaucoup de temps à examiner comment les gens utilisent IRUS-UK. Nous avons entrepris un certain nombre de cas d'utilisation autour de la fourniture de statistiques de référentiel fiables et basées sur des normes aux gestionnaires institutionnels, aux rapports de référence des chercheurs et également pour soutenir le plaidoyer. Nous avons un certain nombre de personnes qui utilisent IRUS-UK comme moyen de promouvoir le référentiel, mais aussi une concurrence encourageante via des newsletters, etc. Et vous pouvez en savoir plus sur tous ces cas d'utilisation à partir d'un récent webinaire disponible sur notre site Web.

Alors, quelles sont les futures priorités de l'IRUS. Nous voulons augmenter le nombre de référentiels participants dans IRUS-UK. Nous souhaitons implémenter le tracker IRUS pour d'autres référentiels et logiciels CRIS. Nous souhaitons élargir les vues de daya et de rapports en réponse aux besoins des utilisateurs, par exemple des métriques potentiellement alternatives, etc. Nous souhaitons également inclure des données supplémentaires et nous engager dans un engagement plus international.

Si vous souhaitez nous contacter, notre site Web est http://irus.mimas.ac.uk email [email protected] tweet @IRUSNEWS.

Q1) Les statistiques IRUS-UK sont-elles ouvertes ?

A1) Ils sont tous disponibles via une connexion à la Fédération britannique. Il n'y a aucune raison pour qu'ils ne puissent pas être partagés techniquement. Nous avons un groupe consultatif communautaire qui a récemment soulevé cette question, elle est donc en cours de discussion.

Q2) Comment les référentiels de données s'intègrent-ils, en particulier pour l'exploration de texte et les vidages de données ?

A2) Nous avons déjà un référentiel de données dans IRUS-UK mais nous aurons probablement besoin de rapports différents pour refléter les manières très différentes de celles-ci sont utilisées.

Q3) Si un ensemble de données contient plusieurs fichiers, s'agit-il de plusieurs téléchargements ?

A3) Oui, nous envisageons des rapports distincts pour les référentiels de données pour ce genre de raison.

Malheureusement, Yvonne Howard, Université de Southampton, n'est pas en mesure de se joindre à nous aujourd'hui en raison de circonstances imprévues, de sorte que sa session, Ressources éducatives, n'aura pas lieu. De plus, le Developer Challenge n'a pas été actif, nous n'aurons donc pas la session de feedback du Developer Challenge que Paul Walk devait diriger. Sur quelle note nous continuons notre horaire reconfiguré…

Enregistrer l'impact de la recherche sur votre référentiel (pas les facteurs d'impact mais l'impact au sens REF !) –Â Mick Eadie & Rose-Marie Barbeau, University of GlasgowÂ

Rose-Marie : Impact est mon bébé. J'ai rejoint Glasgow spécifiquement pour aborder l'impact et les études de cas. La principale chose que vous devez savoir sur le programme d'impact est que tous nos chercheurs sont vraiment stressés à ce sujet. Notre paysage opérationnel a changé, et tout ce que nous avons entendu, c'est qu'il vaudra encore plus dans les futures REF. Donc, nous ne “faire” impact, mais nous veillons à ce que nos chercheurs interagissent avec les utilisateurs et mesurent et enregistrent l'impact. Nous effectuons donc beaucoup de travail de transition, autour de ce fil d'Ariane qui explique comment votre recherche a abouti, par ex. un document de politique…

Nous avons donc une image sur notre mur qui décrit ce type de chemin d'impact et montre la complexité et les chemins autour de l'impact. Et pourtant, même cette image [complexe] semble très simple, la réalité est bien plus compliquée… Quand je parle aux universitaires, ils trouvent ce chemin difficile : ils savent ce qu'ils font, ils savent ce qu'ils ont à montrer… donc je dois aider ils comprennent comment ils ont des impacts multiples qui peuvent être des impacts multiples, cela peut être par une voie assez détournée. Ainsi, par exemple, dans un travail archéologique qui a eu un impact sur la politique, a créé Time Team, a eu un impact sur la communauté locale… Impact énorme, extension de la couverture de l'actualité internationale… Mais c'est la forme des processus REF…

Mais mon grand message aux chercheurs est que tout a changé : nous avons besoin qu'ils s'engagent pour avoir un impact et nous prenons ce travail au sérieux. C'est facile de dire que vous avez parlé aux écoles, pour faire partie du festival des sciences. Nous voulons capturer ce que ces universitaires font ici professionnellement, des choses qu'ils ne pensent peut-être pas montrer. Et nous voulons que cela soit visible sur leur profil public par exemple. Et nous voulons savoir où cibler le soutien, où l'impact pourrait émerger pour la prochaine REF.

J'ai donc examiné d'autres exemples de la façon de saisir des preuves. Après REF, une multitude d'entreprises proposaient des solutions aux universités qui luttaient pour s'adapter à l'agenda de l'impact. Et le projet dirigé par Jisc/Coventry établissant quelques principes clés pour l'adhésion académique « qui devait être simple et très flexible » a été très utile.

Et donc… à la bibliothèque…

Mick : Alors Rose-Marie cherchait notre aide pour capturer certaines de ces choses. Nous avons pensé que les EPrints pourraient être utiles pour capturer ce genre de choses. Il était déjà utilisé et notre personnel d'administration de la recherche connaissait également très bien le système, tout comme certains de nos universitaires. Nous avons également eu l'expérience de la personnalisation des EPrints. Et nous avons donc ajouté un workflow pour l'échange de connaissances et l'impact. Nous voulions que ce soit assez simple – vous pouvez partager “activité” ou “preuve”. Il y a quelques autres champs obligatoires, dont l'un est de savoir si cela doit être un dossier public ou non.

Ainsi, lorsqu'une activité/une preuve est ajoutée, les universitaires principaux peuvent être inclus, tout comme le personnel collaborateur. Les détails de l'activité suivent le vocabulaire REF. Par exemple, nous incluons des zones d'impact potentiel et nous aimerions que cet enregistrement soit lié à d'autres systèmes universitaires. Mais nous testons toujours cela avec le personnel administratif de la recherche.

Nous avons encore quelques choses à faire & #8230 Une page de résumé, certaines fonctionnalités de recherche et de navigation dans les rapports & #8211 qui devraient être assez facilement liées à d'autres systèmes universitaires (profils du personnel, etc.) et nous aimerions partager cela avec la communauté EPrints.

A1 – Rose-Marie) Certaines personnes téléchargent déjà des articles, etc. au fur et à mesure qu'ils apparaissent. Le référentiel de preuves est caché – pour faciliter la préparation de la prochaine REF –, mais l'activité est partagée plus publiquement. La preuve est

Q2 – Les) C'est formidable d'entendre quelqu'un parler de l'impact d'une manière passionnée et enthousiaste ! Il y a quelque chose de vraiment intéressant dans ce que vous faites et l'intersection avec la préservation… Dans le dernier REF, il y avait des preuves perdues qui avaient été sur le Web. Si vous n'avez que des noms et des URL, cela ne vous aidera pas à la fin de la journée.

A2 – Rose-Marie) Oui, le manque de mémoire institutionnelle était le plus gros problème dans la dernière REF. Je parle beaucoup aux particuliers et ils sont très préoccupés par ce genre de perte de données. Donc, si nous pouvions les persuader de noter des choses, cela rafraîchirait leurs souvenirs et les ferait prendre cette habitude. S'ils notent la disparition d'URL, cela pourrait être un problème, mais je vais également scanner tout ce qui est téléchargé car je veux savoir ce qui se passe là-haut, pour comprendre les pièges. Et cela me permet de capitaliser sur l'expérience de la dernière REF. C'est un processus d'apprentissage. Nous devons également comprendre la taille de stockage dont nous avons besoin – si tout le monde télécharge chaque document de politique, vidéo, etc. Cela deviendra rapidement volumineux. Mais nous avons un service d'information et notre équipe médiatique est consciente de ce que nous faisons et essaie de travailler avec eux. Les listes de presse chronologiques de cette équipe médiatique ne correspondent pas à la structure de données que nous espérions, nous y travaillons donc.

William) Je pense que c'est excitant ! De plus, nous ne pensons pas que ce soit parfait, nous avons juste besoin de commencer, puis d'affiner et de développer cela ! Impact a fait beaucoup mieux que prévu lors de la dernière REF, et si vous pouvez le faire avec enthousiasme et engagement, c'est vraiment utile.

A2 – Rose Marie) Et si je pouvais mettre tout cela sur un seul écran, ce serait génial. Si quelqu'un a des questions, nous aimerions les entendre !

Impact et Kolola – Will Fyson, Université de Southampton

Je travaille pour EPrints Services mais je travaille également pour Kolola, une entreprise que j'ai créée avec des co-doctorants – et une entreprise issue de cette dernière REF.

La pensée initiale était pour un projet ascendant en pensant à 50 ou 60 docteurs qui avaient besoin de capturer le travail qu'ils faisaient. Nous voulions combler le fossé entre la pratique de recherche quotidienne et le référentiel. L'idée était de permettre aux administrateurs d'avoir un moyen de surveiller et de planifier, mais aussi de s'assurer que les équipes de marketing et de communication étaient également au courant des développements.

Ainsi, notre page d'accueil présente une sorte de mur d'activités, et des icônes personnelles qui montrent les personnes impliquées dans l'activité. Ceux-ci peuvent inclure une image et en cliquant sur un enregistrement, vous accédez à plus d'informations. Et ces enregistrements sont générés par un formulaire avec des déclarations “yes” ou “no” pour rendre moins confuse la capture de ce que vous avez fait. Ceux-ci ne sont pas trop complexes pour répondre et vous permettent de capturer la plupart des choses.

Nous autorisons également la collecte de preuves, par exemple la sensibilisation d'une école. Vous pouvez également saisir le nombre de personnes que vous avez atteintes dans cette activité. Nous permettons à notre communauté de définir quel type de données doit être collecté pour quel type d'activité. Et les analyses vous permettent de voir à travers un individu ou un groupe. Cela peut être particulièrement utile pour un grand groupe de recherche. Vous pouvez également créer une étude de cas à partir de ce travail – utile pour la REF car il vous permet de construire cette étude de cas au fur et à mesure.

En termes de dépôt de documents, nous pouvons spécifier dans le formulaire qu'un dépôt EPrints est requis lorsque certains types d'activités d'impact sont enregistrés – et mettre en évidence si ce dépôt a été manqué. Nous pouvons également exporter une activité Kolola vers EPrints en fournissant un lien vers l'activité Kolola et toutes les collections associées – afin que vous puissiez explorer les œuvres liées à un papier particulier – qui peut être très utile.

Nous avons essayé de distribuer une infrastructure de recherche assez flexible et vous permettant d'avoir différentes instances dans une organisation qui peuvent être adaptées aux différents besoins de différents départements ou disciplines. Mais le tout adossé au référentiel institutionnel.

Q1) Avez-vous des preuves que des chercheurs collectent des preuves au fur et à mesure ?

A1) Nous en avons quelques-uns en cours d'exécution… Et nous voyons des gens ajouter des trucs, mais parfois les chercheurs ont besoin d'être encouragés (ou théâtraux !), par exemple pour les voyages à l'étranger, vous devez être à jour sur l'activité de journalisation pour pouvoir partir ! Mais nous avons également vu un exemple de chercheurs obtenir une participation à un tirage au sort pour chaque activité enregistrée, ce qui signifiait que beaucoup d'informations étaient capturées très rapidement !

(Graham Steel @McDawg succède à Nicola Osborne pour le reste de la journée)

Démo : RSpace –Â Richard Adams, Research Space

Présentation et démo de RSpace ELN. Mettre les données en ligne le plus tôt possible est une excellente idée. RSpace au centre de la gestion des données utilisateurs. Il est maintenant temps pour une démo en direct (dans un peu).

Les cahiers de laboratoire peuvent se perdre pour un certain nombre de raisons. Beaucoup mieux est un livre de laboratoire électronique. Toutes les données sont horodatées. Qui a fait quelles modifications, etc. sont enregistrées. Facilitons leur utilisation. Voici l'écran de saisie lorsque vous vous connectez pour la première fois. Vous pouvez rechercher n'importe quoi et c'est très facile à utiliser. Il est facile de créer une nouvelle entrée. Nous avons un document de base dans lequel vous pouvez écrire du contenu avec n'importe quel éditeur de texte. Vous pouvez faire glisser et déposer du contenu très simplement. Une fois les documents ajoutés, ils apparaissent dans la galerie. Le travail est enregistré en continu et horodaté.

Nous avons également des magasins de fichiers pour les images volumineuses et les fichiers de séquençage.

C'est très simple à configurer. Chaque laboratoire possède son propre serveur de fichiers. Pour en revenir à l'espace de travail, nous tenons à ce qu'il soit vraiment facile de trouver des choses. Rien n'est jamais perdu ou oublié dans l'espace de travail. Vous pouvez consulter l'historique des révisions. Vous pouvez consulter les modifications apportées. Â En regardant maintenant une page de groupe de labo. Vous pouvez consulter mais pas modifier d'autres contenus générés par les utilisateurs. Vous pouvez inviter des personnes à rejoindre votre groupe et à collaborer avec d'autres groupes. Vous pouvez définir des autorisations pour des utilisateurs individuels. Une question qui revient souvent est de savoir comment extraire les données du système. Les éléments sont étiquetés et contiennent des métadonnées, ce qui les rend plus faciles à trouver. Pour partager des trucs, il existe 3 formats d'exportation de contenu (ZIP, XML et PDF).

L'édition communautaire est gratuite et utilise les services Web d'Amazon. Nous essayons de simplifier RSpace autant que possible pour le rendre vraiment facile à utiliser.Nous venons juste de lancer le lancement officiel du produit, mais nous avons déjà un certain nombre de clients. Il est facile de lier du contenu à partir de DropBox. Vous pouvez partager du contenu avec des personnes qui ne sont pas enregistrées avec un compte RSpace. Merci de votre attention.

Q1) Je travaille beaucoup à partir de plusieurs ordinateurs.

A1) Nous développons une API pour intégrer un tel contenu. Pas encore disponible.
Remarques de clôture et présentation au gagnant du concours d'affiches –Â Kevin Ashley, Digital Curation Center

Je suis Kevin Ashley du Digital Curation Centre ici à Édimbourg. Paul Walk a mentionné que nous organisions des événements RFringe depuis 7 ans. En fin de compte, nous avons abandonné le défi des développeurs en raison d'un manque d'adoption cette année. Les gens s'en soucient-ils encore ? Kevin a dit qu'il y avait un sentiment de déception. Allons-nous de l'avant ou changeons-nous notre façon de faire ? Les dit que j'ai passé un bon moment, c'est l'un des meilleurs événements auxquels j'ai assisté depuis un certain temps. “Cela a été fantastique”. Merci Paul pour votre contribution, dit Kevin.

La keynote d'ouverture de David Prosser a été une excellente ouverture pour l'événement. Il y avait des pensées négatives et inquiétantes dans son discours. Nous sommes bons pour identifier les problèmes mais pas les solutions. Nous avons l'attention du département gouvernemental en termes d'accès ouvert et de données ouvertes. Nous devons maximiser cette opportunité avant qu'elle ne disparaisse.

Des choses dont nous parlions comme des expériences il y a quelques années sont maintenant devenues une réalité. Nous faisons beaucoup de progrès en général. L'apprentissage automatique sera la clé, le potentiel est énorme.

Je vois des progrès et des changements lorsque je viens à ces événements. La plupart des spectateurs n'avaient jamais été à RFringe auparavant.

Prix ​​du concours d'affiches. Le vote a été assez serré. En troisième place LSHTM, Rory. La deuxième place. Lancastre. Première place, Robin Burgess et ses collègues.

Merci à tous pour l'organisation de l'événement. Merci d'être venu. Merci à Valerie McCutcheon pour sa contribution (cadeau remis). Merci aussi à Lorna Brown pour son aide. Sortez et profitez d'Edimbourg ! (“et Glasgow” plaisanté Guillaume Nixon).


La vie volcanique – les premiers microbes à coloniser la lave de Fímmvörðuháls

Ceci est un article invité du Dr Laura Kelly, maître de conférences en microbiologie à l'Université métropolitaine de Manchester, au Royaume-Uni. Il décrit son étude sur la première vie microbienne à coloniser la coulée de lave Fímmvörðuháls, Eyjafjallajökull, Islande. Le professeur Charles Cockell du UK Centre for Astrobiology à Edimbourg était également impliqué, et j'ai aidé avec une carte et un certain contexte volcanologique.

Quand la personne moyenne pense aux volcans, la microbiologie peut être la dernière chose qui lui vient à l'esprit. Cependant, pour la communauté relativement restreinte de scientifiques intéressés par les microbes dans les environnements extrêmes, le lien est évident.

Les microbes tels que les bactéries et les archées (appelés ensemble procaryotes parce que leur ADN flotte librement dans la cellule plutôt que dans un noyau lié à la membrane), et les champignons peuvent non seulement survivre mais prospérer dans des environnements qui semblent assez inhospitaliers. En fait, les premières formes de vie sur Terre étaient des procaryotes adaptés à des environnements extrêmes il y a environ 3,5 milliards d'années.

Les conditions sur les matériaux volcaniques nouvellement déposés sont, en comparaison, moins dures que les premiers environnements terrestres. Alors que certains micro-organismes actuels sont capables de prospérer dans des environnements à haute température tels que des cheminées hydrothermales en eaux profondes, les températures de la lave en fusion sont supérieures aux limites supérieures permettant la survie microbienne. Néanmoins, lors du refroidissement, la lave est rapidement colonisée par des bactéries et des champignons, comme l'ont montré les récentes recherches de notre équipe de microbiologistes.

La lave de Fímmvörðuháls est une petite coulée basaltique qui a éclaté sur le flanc est du volcan Eyjafjallajökull du 20 mars au 12 avril 2014. Deux jours après la fin de cette éruption, l'activité est passée au cratère recouvert de glace au sommet du volcan et a commencé à produire le fameux nuage de cendres.

À la suite de l'éruption du volcan Eyjafjallajökull en avril 2010, nous avons analysé des échantillons des coulées de lave basaltique Fimmvörðuháls fraîchement formées, collectées en juillet et août 2010, afin de déterminer quels microbes ont colonisé la lave en premier. En prenant soin d'éviter toute contamination, les échantillons ont été amenés au Royaume-Uni et réduits en poudre pour permettre l'extraction de l'ADN. Le profilage de l'ADN, à l'aide d'une méthode connue pour sa capacité à discriminer les espèces étroitement apparentées (séquençage du gène de l'ARN ribosomique 16S), a généré des profils de communauté pour chaque échantillon de lave. Chaque profil impliquait de prélever tous les gènes de l'ARN ribosomique 16S de l'ADN extrait de l'échantillon de lave et de déterminer la séquence des éléments constitutifs de l'ADN (appelés nucléotides) d'un sous-ensemble aléatoire de ces gènes. La comparaison de ces séquences entre elles, et avec des séquences dans des bases de données en ligne telles que le projet de base de données ribosomale, nous a permis non seulement de générer des « arbres généalogiques » pour les communautés microbiennes, mais aussi de déterminer à quel point les communautés Fimmvörðuháls étaient étroitement liées aux bactéries. trouvé ailleurs.

La nôtre était la première étude du genre, fournissant des analyses détaillées des communautés microbiennes volcaniques pionnières. Des études antérieures sur les premières communautés volcaniques se sont concentrées uniquement sur les microbes qui pouvaient être cultivés en laboratoire, ce qui est problématique étant donné que la plupart des microbes ne peuvent pas être cultivés. Par conséquent, la majorité des habitants n'a pas été détectée dans ces études précédentes.

L'étude de Fimmvörðuháls a révélé des résultats très intéressants. Comme la matière volcanique fraîche est pauvre en nutriments, contenant peu de carbone organique et d'azote, on s'attendait à ce que les habitants dépendent largement des membres de la communauté qui pourraient utiliser la lumière du soleil pour l'énergie et le carbone inorganique tel que le CO2 ou CO, à peu près de la même manière que les plantes. Ce qui a en fait été découvert, c'est que ces communautés ne dépendaient pas d'organismes qui utilisaient la lumière du soleil et que de nombreux habitants étaient des organismes qui avaient besoin de carbone organique pour leur croissance, bien que certains habitants soient apparentés à ceux qui pourraient utiliser des sources inorganiques. Les communautés étaient dominées par Bêtaprotéobactéries, qui est une classe diversifiée qui comprend des organismes trouvés dans les glaciers, les sols, les sédiments, l'eau et de nombreux autres environnements naturels. Les profils d'ADN ont indiqué que certains des colons de Fimmvörðuháls sont capables d'utiliser le soufre et/ou le fer présents dans les coulées de lave comme sources d'énergie pour la croissance (chimolithotrophes) et d'autres sont capables de capturer l'azote de l'atmosphère (diazotrophes).

Moins surprenant, cependant, était que les communautés de Fimmvörðuháls n'étaient pas aussi diverses que d'autres communautés que nous avons étudiées dans des roches basaltiques islandaises plus anciennes, et qu'elles contenaient des bactéries très différentes. Au fur et à mesure que la lave s'altère / s'érode au fil du temps, l'environnement physique et chimique change radicalement d'un point de vue microbien. Par exemple, une surface et des espaces poreux accrus offrent des refuges et favorisent la rétention d'eau, tandis que les intempéries peuvent également libérer des éléments utiles du substrat. Cela a donc un impact sur la communauté microbienne. Espérons que les études futures continueront à surveiller la progression de la colonisation microbienne des substrats volcaniques tels que Fimmvörðuháls sur de longues périodes de temps pour révéler la nature dynamique des communautés microbiennes volcaniques.

Si vous êtes intéressé par les microbes dans les roches volcaniques ou autres
environnements, veuillez visiter le blog de Laura, Geomicrobiology and Microbial Ecology, qui contient plus de détails sur le projet Fimmvörðuháls, avec des photos et des vidéos supplémentaires.

* Référence:
Kelly LC, Cockell CS, Thorsteinsson T, Marteinsson V, Stevenson J (2014) Communautés microbiennes pionnières de la coulée de lave de Fimmvörðuháls, Eyjafjallajökull, Islande. Écologie microbienne 1-15. est ce que je:
10.1007/s00248-014-0432-3