Suite

Dépliant : Comment activer le panoramique et le zoom pendant que GeoJSON est toujours rendu ?


J'ai superposé une énorme géométrie GeoJSON sur ma carte Leaflet, couvrant les frontières d'environ 20 pays (environ 1,5 million de sommets) en utilisant "L.geoJson".

Chaque fois que je fais un zoom avant/arrière, l'ordinateur doit calculer le nouveau nombre de sommets avant que l'interaction avec la carte ne revienne. Ainsi, l'utilisateur doit attendre 3 à 4 secondes après le zoom jusqu'à ce que la carte atteigne la résolution, avant de pouvoir zoomer davantage ou effectuer un panoramique sur la carte.

En regardant une question précédemment posée, j'ai simplifié les géométries pour réduire le nombre de sommets de 30% (maintenant 1 million de sommets), mais cela m'a valu à peu près -1 seconde de temps de calcul.

Au lieu d'abandonner la qualité de la géométrie GeoJSON, existe-t-il un moyen de pouvoir effectuer un panoramique/un zoom sur la carte alors que le calcul des sommets n'est pas encore terminé ?

En d'autres termes, je veux pouvoir effectuer un panoramique et un zoom sur la carte alors que la géométrie est encore floue.

PS : L'utilisation de TileMill est hors de question car je veux de l'interactivité pour mes données GeoJSON (par exemple, changer les couleurs des pays plus tard par le code js), mais TileMill me donnera un png non modifiable.


L'interruption d'un processus de rendu n'est pas possible dans Leaflet car elle est effectuée dans un seul travail JS atomique (AFAIK). La seule façon de rendre votre application plus réactive aux interactions des utilisateurs pourrait être d'accélérer le processus de rendu afin qu'il se termine plus rapidement. Simplifier les géométries (ou utiliser topojson) est une excellente première solution pour cela. Une autre solution pourrait consister à "carreler" votre couche geojson afin que seules les entités de l'étendue de la carte soient rendues. Il existe un plugin pour rendre de telles tuiles geojson. Une étape supplémentaire consisterait à créer des versions simplifiées de votre ensemble de données pour chaque niveau de zoom, comme décrit dans ce document.


Je pense que vous abordez le problème dans le mauvais sens.

Vous ne pouvez pas charger un jeu de données gigantesque et vous attendre à une interactivité rapide. Si vous avez déjà simplifié autant que vous le souhaitez et que ce n'est pas assez rapide. Essayez une autre technologie.

Si vous n'êtes pas satisfait de TileJSON, utilisez CartoDB ou MapBox pour le faire pour vous, ou utilisez WMS pour la visualisation et WFS pour l'interactivité. Ou chargez vos données sur ArcGIS en ligne pour pointer et cliquer facilement.


En tant que plugin pour @wq/app, @wq/map utilise des concepts et des conventions similaires, avec des contraintes correspondantes sur la façon dont il peut être utilisé. En particulier, chaque carte générée par @wq/map correspond toujours à une page définie dans l'objet de configuration wq avec une propriété "map" définie. Pour les pages basées sur un modèle ( "list": true ), les cartes @wq/map' peuvent faire la distinction entre les vues "liste", les vues "détail" et les vues "modifier".

@wq/map exploite trois objets de configuration :

  • Global valeurs par défaut, tels que les fonds de carte et les limites géographiques initiales. Voir la configuration globale ci-dessous pour les options.
  • Configurations de carte, qui correspondent chacun à une configuration de page. Voir Configuration de la carte ci-dessous pour les options.
  • Configurations de couche, qui décrivent des couches de superposition individuelles dans une configuration de carte. Voir Configuration de la couche ci-dessous pour les options.

Une configuration de carte par défaut peut être attribuée en définissant map: true dans la configuration de la page. Chaque carte obtiendra automatiquement une seule superposition configurée avec l'équivalent GeoJSON de la page :

  • Le calque par défaut pour une page simple (par exemple /simple ) sera /simple.geojson
  • Le calque par défaut pour la vue de liste d'une page de liste (par exemple /list/ ) sera /list.geojson
  • Le calque par défaut pour la vue détaillée d'une page de liste (par exemple /list/itemid ) sera /list/itemid.geojson
  • Le calque par défaut pour la vue d'édition d'une page de liste (par exemple /list/itemid/edit ) sera /list/itemid/edit.geojson

Par exemple, le contenu que vous lisez est une instance Doc avec un identifiant de map-js , rendu dans une vue "détail" pour la page de liste de documents. docs est enregistré dans la configuration wq de ce site Web en tant que "map": true . Étant donné que @wq/map est chargé pour ce site Web, la carte en haut de ce document devrait avoir automatiquement chargé /docs/map-js.geojson à l'ouverture de la page.

Les couches GeoJSON par défaut devraient fonctionner tant que votre serveur Web exécute wq.db ou un service avec une structure d'URL compatible.


Abstrait

Dans cette étude, nous proposons un système d'information interactif pour l'implantation d'éoliennes, considérant ses externalités visuelles et sonores. Ce système est une intégration d'un moteur de jeu, d'un SIG et d'un modèle analytique de propagation du son dans un environnement Web 3D unifié. L'intégration moteur de jeu-SIG fournit un environnement virtuel 3D où les utilisateurs peuvent naviguer à travers les données géospatiales existantes de l'ensemble du pays et placer différents types d'éoliennes pour explorer leur impact visuel sur le paysage. L'intégration d'un modèle de propagation du son dans le moteur de jeu-SIG prend en charge le calcul et la rétroaction en temps réel concernant le son des éoliennes dans les bâtiments environnants. Le composant SIG de la plate-forme permet une utilisation massive (à la volée) des données géoréférencées via des techniques de tuilage ainsi que l'accessibilité et l'interopérabilité des données via une architecture basée sur le cloud et des protocoles standard géospatiaux ouverts. Le moteur de jeu, quant à lui, prend en charge l'optimisation des performances pour l'affichage des données et les calculs de modèles sonores.


Abstrait

Pour évaluer la faisabilité et la durabilité des solutions de gestion des déchets, il est nécessaire d'évaluer la quantité et les flux de déchets générés. Cette recherche a développé une application Web qui sert de système d'aide à la décision pour les personnes impliquées dans la planification et la gestion des déchets solides municipaux. Contrairement aux solutions Web actuelles, cet outil fournit les informations nécessaires concernant la chaîne d'approvisionnement qui sont nécessaires pour évaluer la pertinence de la valorisation des déchets dans un endroit particulier, tels que les types de déchets, les quantités de déchets et les sous-traitants liés aux déchets. À l'aide de données accessibles au public, un système d'information géographique Web a été conçu où les facteurs qui affectent la chaîne d'approvisionnement des déchets solides municipaux peuvent être étudiés. Il s'agit notamment de la variation spatiale et temporelle des déchets générés. Le concept a été démontré dans l'application Web développée à l'aide de données accessibles au public sur l'Angleterre. Des opportunités de marché des déchets ont été identifiées, par exemple le Kent County Council et le Essex County Council ont été identifiés comme ayant la plus grande quantité de déchets incinérés avec et sans récupération d'énergie (344 et 65 kilotonnes) respectivement. Ensuite, les conseils de comté du Staffordshire et du Lancashire ont été identifiés comme ayant la plus grande quantité de déchets dangereux et non dangereux mis en décharge (5 et 296 kilotonnes) respectivement. La variation saisonnière était incohérente d'un comté à l'autre, l'East Northamptonshire ayant peu de variation saisonnière des déchets ménagers (<500 tonnes de variation) par opposition à East Riding of Yorkshire qui avait des volumes de déchets plus élevés en été avec une variation allant jusqu'à 15 000 tonnes). Des partenaires de l'économie circulaire ont également été identifiés via l'application Web et ces résultats sont présentés dans le contexte des décisions de chaîne d'approvisionnement dérivées des déchets. L'application Web est donc en mesure de fournir un outil complet pour améliorer le processus de prise de décision stratégique et logistique pour la gestion des déchets solides municipaux.


3. Travaux connexes

La fourniture de visualisations progressives d'objets lourds en données sur des systèmes à bande passante limitée est déjà utilisée dans de nombreux domaines. L'un des exemples les plus connus de gestion des systèmes à bande passante limitée se trouve dans des formats d'image plus complexes sur le Web. Les formats GIF (CompuServe Incorporated, 1990), JPEG (CCITT Study Group VIII & The Joint Photographic Experts Group JPEG, 1992) et PNG (Boutell & Costello, 2003) offrent des progressive ou alors entrelacé modes d'enregistrement (Wikipédia, 2014a), ce qui signifie que le processus d'enregistrement produit plusieurs niveaux de détail (LOD), permettant à l'utilisateur de voir une version basse résolution de l'image pendant que l'image haute résolution est toujours en cours de chargement. Des approches similaires sont utilisées dans les plateformes de vidéo en ligne modernes. Ici le streaming à débit adaptatif La méthode propose une vidéo dans plusieurs résolutions, en fonction de la bande passante et du tampon disponibles (Wikipedia, 2014b).

Cette approche progressive de l'affichage d'objets gourmands en bande passante a récemment été appliquée à la visualisation interactive de données sur le Web par Glueck et al (Glueck, Khan, & Wigdor, 2014). Dans leur récent projet « Dive In », ils présentent une chargement progressif approche pour les visualisations de graphes. Cette méthode déployée par Glueck et al. permet à l'utilisateur de parcourir rapidement un vaste ensemble de données et de recevoir une visualisation d'ensemble instantanée qui devient plus détaillée à mesure que le client reçoit des données plus détaillées du serveur.

En ce qui concerne les cartes mobiles, Sester et Brenner ont utilisé la même approche pour appliquer un outil de chargement progressif sous forme de « généralisation continue » sur les cartes (Sester & Brenner, 2005). Même si leur motivation principale n'était pas d'améliorer le chargement des cartes mais la gestion des niveaux de zoom et par là la création de visualisations plus généralisées pour les niveaux de zoom inférieurs et des visualisations plus détaillées pour les niveaux de zoom supérieurs.

La principale différence entre les méthodes d'aperçu grossier de Glueck et Sester par rapport à la approche de flux discuté dans cet article est que ce dernier ne se concentre pas uniquement sur le niveau de détail (LOD). Au lieu de cela, il se concentre sur la vertu de la dimension temporelle, qui est progressivement chargée, similaire aux vidéos fournies via les services de streaming en ligne (voir ci-dessus), qui permet de charger progressivement des visualisations de séries temporelles.


Installation

Wq.app pour PyPI

@wq/app pour npm

Si vous souhaitez modifier le fond de carte (par exemple, pour incorporer des images aériennes), vous devrez personnaliser cette configuration pour incorporer des tuiles de carte d'une autre source. Il existe un certain nombre de services disponibles (certains gratuits pour les petits projets), mais presque tous nécessitent désormais une clé API. Par exemple, après avoir obtenu une clé API de MapBox, vous pouvez faire quelque chose comme ceci :

Si vous souhaitez garder votre jeton API hors de votre contrôle de version, vous pouvez le mettre dans un module JavaScript non versionné séparé et/ou l'inclure dans votre local_settings.py et l'enregistrer auprès de votre routeur (comme dans le code de ce site Web).

Si vous disposez d'une licence ArcGIS, vous pouvez intégrer les fonds de carte ESRI en chargeant @wq/map:mapserv plutôt que @wq/map . @wq/map:mapserv est une variante de @wq/map avec des types de fond de carte supplémentaires correspondant aux fonctions de création de couche Esri Leaflet. Par exemple, pour enregistrer les couches ESRI Topograpic, Streets et Imagery, vous pouvez procéder comme suit :

Des types de fond de carte supplémentaires (par exemple d'autres plugins Leaflet) peuvent être incorporés avec map.addBasemapType() (voir ci-dessous).

Exemple complet

Wq.app pour PyPI

@wq/app pour npm

Configuration de la couche

Chaque configuration de carte doit avoir une ou plusieurs configurations de couche ajoutées. Les configurations de couche sont définies en tant que couches , une propriété de tableau sur la configuration de la carte. Les couches peuvent également être ajoutées par programme via map.addLayerConf() , qui prend le nom d'une carte existante et une configuration de couche à ajouter. Cependant, il est recommandé de définir toutes les couches dans le cadre de la configuration de couche initiale. Avec wq.db.rest, cela peut être fait en spécifiant une propriété de carte lors de l'enregistrement du modèle :

Une configuration de couche comprend les options suivantes :

Nom objectif
Nom Le nom du calque à afficher dans la liste des calques
taper Le type de superposition à utiliser. La valeur par défaut est "geojson" , qui est le seul type intégré. D'autres types de superposition peuvent être enregistrés via map.addOverlayType() (voir ci-dessous).

Le type de couche "geojson" intégré reconnaît les options suivantes :

Nom objectif
URL Le chemin d'accès à un fichier geojson à télécharger (y compris l'extension .geojson). Cela peut être défini via une syntaxe de modèle (comme on le voit dans l'exemple ci-dessous).
icône Le nom d'une icône à utiliser, ou un modèle qui sera compilé en un nom d'icône, ou une fonction renvoyant un nom d'icône. S'il s'agit d'un modèle ou d'une fonction, il sera appelé avec feature.properties pour chaque entité du jeu de données. Les noms d'icônes doivent d'abord être enregistrés via map.createIcon() (voir ci-dessous).
surgir Le nom d'un modèle de popup à utiliser lors du rendu des popups de marqueur. Voir map.renderPopup() ci-dessous
groupe Booléen indiquant s'il faut ou non regrouper les marqueurs. La valeur par défaut pour les couches générées automatiquement est vraie tant que le plug-in Leaflet.markercluster est présent. Une copie du plugin est incluse avec wq.app mais n'est pas importée par défaut.
dessiner Options à utiliser pour l'édition des calques via Leaflet.draw . Voir Édition de carte ci-dessous.
geometrieChamp Le nom d'un champ masqué dans lequel enregistrer la géométrie modifiée. Voir Édition de carte ci-dessous.
style Une fonction pour définir des styles en fonction des propriétés de chaque fonctionnalité dans GeoJSON. La fonction doit prendre une fonctionnalité et renvoyer un objet de style. Les options de style disponibles sont répertoriées dans la documentation de L.Path. Équivalent à l'option de style de L.GeoJSON.
sur chaque Une fonction à appeler pour chaque fonctionnalité du GeoJSON. La fonction doit prendre un objet de couche Leaflet et une fonctionnalité GeoJSON. map.renderPopup() peut créer automatiquement une fonction compatible qui attachera une fenêtre contextuelle modèle à chaque couche en utilisant les propriétés de la fonctionnalité GeoJSON. Équivalent à l'option onEachFeature de L.GeoJSON.
clusterIcône Classe CSS à utiliser lors de la création de l'icône de cluster <div> . Il peut s'agir d'une chaîne simple, d'une définition de modèle ou d'une fonction. S'il s'agit d'un modèle ou d'une fonction, un contexte de la forme <'count': count, [size]: true> sera fourni, où [size] est l'un des grands (> 100), moyen (> 10) ou petit .

Exemple


Mettez votre carte Tangram sur le web

Maintenant que vous avez apporté des modifications à la scène localement, vous souhaiterez peut-être partager votre carte sur un site Web. La partie suivante de la procédure pas à pas décrit comment mettre votre carte sur le Web.

Il existe de nombreuses options pour obtenir une carte sur le Web. Par exemple, si vous avez votre propre service d'hébergement Web, vous pouvez l'utiliser. Une alternative consiste à utiliser le service d'hébergement gratuit de GitHub appelé GitHub Pages, ce que cette procédure pas à pas utilisera. Ces instructions vous montrent comment obtenir votre carte Tangram sur le Web via les pages GitHub.

Pour effectuer ces exercices, vous devez disposer d'un compte utilisateur GitHub. Consultez la documentation GitHub pour plus d'informations sur l'inscription au service.

Cette section suppose une certaine connaissance de la terminologie et des workflows GitHub. Vous pouvez vous référer à la documentation GitHub si vous avez besoin d'étapes plus détaillées. Notez qu'il existe de nombreuses façons d'effectuer les tâches décrites, notamment via le site Web, les applications de bureau et la ligne de commande. Cet exercice suit généralement le site Web et l'application de bureau, mais vous pouvez utiliser la méthode qui vous convient le mieux.

Créer un référentiel pour votre site Web cartographique

Pour ajouter un projet à GitHub, vous devez disposer d'un référentiel dans lequel stocker vos fichiers. Pour cette procédure pas à pas, vous allez créer un nouveau référentiel dans votre compte utilisateur.

  1. Connectez-vous à votre compte sur le site GitHub.
  2. Créez un nouveau référentiel pour le projet. Dans le coin supérieur droit de n'importe quelle page, cliquez sur Créer un nouveau et cliquez sur Nouveau référentiel.
  3. Pour le nom du référentiel, tapez my-tangram-map .
  4. Pour la description, tapez Exemple de carte dessinée avec Tangram .
  5. Rendre le référentiel public.
  6. Cochez la case pour inclure un fichier README. Vous n'avez pas besoin d'initialiser avec un fichier .gitignore ou de licence car vous utiliserez à la place les versions de cette procédure pas à pas.
  7. Cliquez sur Créer un référentiel.

Utiliser les pages GitHub pour héberger le site Web

Vous avez maintenant un nouveau référentiel pour contenir les fichiers et une branche en son sein, le maître. Vous pouvez télécharger vos fichiers pour créer le site Web, puis devez activer les pages GitHub.

  1. Cliquez sur Télécharger des fichiers dans l'onglet Code du référentiel.
  2. Sur l'explorateur de fichiers de votre machine, ouvrez le dossier pour simple-demo.
  3. Dans le dossier simple-demo, sélectionnez les fichiers autres que le fichier README et faites-les glisser sur le site Web GitHub pour les ajouter au référentiel.
  4. Validez vos fichiers dans la branche master (notez que la meilleure pratique lorsque vous travaillez avec d'autres personnes est de créer une pull request, puis de la fusionner dans la branche master).
  5. Cliquez sur Paramètres et faites défiler jusqu'à la section Pages GitHub.
  6. Sous Source, cliquez sur la branche principale pour utiliser les fichiers sur le maître comme contenu source du site Web
  7. Cliquez sur Enregistrer.
  8. Actualisez la page des paramètres et accédez à nouveau à la section Pages GitHub pour voir que votre site a été publié.

Astuce : Si vous avez besoin de plus d'aide, suivez le didacticiel GitHub Pages dans la documentation Mapzen.

Voir la carte sur le web

  1. Cliquez sur le lien dans la page des paramètres des pages GitHub ou ouvrez un onglet de navigateur vers http://<yourusername>.github.io/my-tangram-map/ , en remplaçant votre compte GitHub par le texte <yourusername>. Notez que my-tangram-map est le nom du référentiel, alors remplacez cette partie de l'URL si le vôtre a un nom différent.
  2. Panoramique et zoom sur la carte. Vous devriez voir les couleurs et les nuances que vous avez modifiées dans les exercices.

Facultativement, revenez au fichier README et mettez-le à jour sur la branche gh-pages pour décrire le projet et l'URL de votre carte. Ensuite, supprimez la branche master pour que vous ne travailliez toujours qu'avec des pages gh.

Mettre une carte Tangram en production

Cette carte utilise le service de tuiles vectorielles de Mapzen pour les données. Si vous souhaitez mettre cette carte en production au-delà des objectifs de ce didacticiel, vous devrez créer un compte Mapzen et substituer votre propre clé API à celle fournie dans la démo. Suivez ces étapes pour savoir comment modifier la clé API.

  1. Connectez-vous sur https://mapzen.com/developers/ en utilisant votre compte GitHub.
  2. Sous Clé API, cliquez sur + Nouvelle clé.
  3. Facultativement, définissez un nom pour le projet, tel que « Ma carte Tangram ».
  4. Copiez le texte de la clé dans votre presse-papiers. Il devrait prendre la forme de mapzen-xxxxxx .
  5. Ouvrez le fichier scene.yaml.
  6. Dans le bloc sources:, collez votre clé API pour le paramètre api_key:.
  7. Validez la modification dans la branche master.

Résumé et prochaines étapes

Vous avez exploré les bases de la cartographie avec Tangram et la structure du fichier de scène, et peut-être même publié votre carte sur le Web.

Tangram permet de nombreuses options pour le rendu des fonctionnalités sur les cartes. Pour voir d'autres cartes créées avec Tangram, visitez le site Web de Tangram et obtenez des liens vers des exemples de code. Construisez sur ce que vous avez appris ici pour créer la carte exacte que vous voulez.


Course vs Remplissage

Leaflet-Mapbox-GL HOWTO : Filtrer les entités sur la carte

Ma série sur l'API Mapbox GL combinée avec Leaflet en utilisant brochure-mapbox-gl.js continue.

Auparavant, nous avons créé une fonction selectRegionByName() qui basculerait entre une vue choroplèthe et une vue à contour simple, et zoomerait la carte sur une région donnée. Développons là-dessus :

  • Lorsque nous zoomons sur une région, nous basculons entre choroplèthe et contour simple, et zoomons également sur la zone donnée.
  • Maintenant nous également veulent montrer les voies navigables et les jauges dans cette région, mais pas dans d'autres régions afin de minimiser le bruit visuel.

ESTIMe : vers un environnement de géovisualisation tout-en-un pour l'analyse quotidienne de la mobilité

Résumé—Les données de mobilité quotidiennes décrivent les déplacements individuels sur des périodes de 24 heures et sont une source importante d'informations pour comprendre le rythme réel d'une ville, pour fournir des politiques de transport appropriées et pour soutenir les décisions d'investissement. Les chercheurs en géovisualisation ont conçu plusieurs environnements de vues coordonnées, combinant des dimensions spatiales et temporelles, et fournissant une comparaison d'indicateurs. L'analyse quotidienne de la mobilité est complexe et nécessite l'exploration et la combinaison simultanées de différents indicateurs à différents niveaux de granularité spatiale et temporelle. La conception d'environnements de géovisualisation efficaces supportant cette analyse évoque plusieurs défis en raison de la diversité et de la multiplicité des indicateurs, de la granularité de l'espace et du temps, et de l'intégration temporelle. Dans cet article, nous proposons une approche de géovisualisation permettant la visualisation dynamique de divers indicateurs, ainsi que l'exploration de l'espace, du temps et d'autres attributs. Nous utilisons plusieurs écrans intégrant des tableaux de bord personnalisables et permettant aux utilisateurs d'organiser les vues et de comparer les indicateurs en fonction de leur analyse. Il intègre également un appareil mobile servant d'outil d'affichage et d'interaction pour contrôler physiquement l'évolution de la visualisation dans le temps.

L’étude des formes d’habitat et de l’organisation des programmes d’activités des individus dans l’espace et le temps est importante pour comprendre et guider le développement de meilleurs environnements urbains. Au cours des dernières années, l'essor des technologies de traçage a permis de collecter différentes sortes de données décrivant les déplacements de la population sur un territoire. Le schéma de la Triade spatio-temporelle [1] est couramment utilisé pour analyser ces données de mouvement car il permet l'exploration d'entités d'intérêt dans le temps et dans l'espace à différents niveaux d'agrégation. Les données de mobilité urbaine peuvent être étudiées à partir de trois entités : les flux et déplacements, les dynamiques d'occupation du territoire et les trajectoires individuelles. Alors que les flux décrivent le nombre de déplacements entre deux localisations spatiales, la dynamique d'occupation du territoire considère la présence et la mobilité de la population. Les trajectoires individuelles décrivent la séquence d'activités réalisées par une personne dans l'espace et le temps. L'analyse de ces entités repose sur la dérivation d'indicateurs qui peuvent être utilisés pour fournir des informations

Fig. 1. Notre approche comprend des tableaux de bord personnalisables (en haut) intégrés dans un environnement multi-écrans. Une tablette contient l'interface principale (au milieu), qui interagit avec les tableaux de bord et prend en charge notre technique basée sur le mouvement (en bas) pour l'animation temporelle.

pour soutenir la prise de décision concernant les politiques de transport et les investissements en tant que base de comparaison entre les régions métropolitaines et pour déterminer si la performance du système s'améliore ou se détériore [2].

Parallèlement à l'émergence des techniques de géovisualisation, les géographes ont commencé à travailler avec des informaticiens pour développer des cadres conceptuels et des méthodologies basées sur une analyse visuelle et exploratoire de données spatio-temporelles [3]. Ces solutions comprennent souvent des tableaux de bord avec de nombreuses vues interactives et coordonnées avec des représentations graphiques et cartographiques des données. Il permet l'interaction avec de multiples dimensions du phénomène représenté pour

effectuer des analyses spatiales, temporelles et spatio-temporelles. La conception des environnements de géovisualisation existants est fréquemment motivée par des problèmes spécifiques, tels que la détection des embouteillages [4], les modes d'utilisation des systèmes de vélos partagés [5], la ségrégation sociale dans les régions métropolitaines [6] et l'analyse des trajectoires de vie ou individuelles [ 7]–[9]. Il utiliserait des sources de données appropriées pour répondre aux questions liées au problème, qui pourraient ne pas nécessiter d'informations sur les programmes d'activités, par exemple. Elle risque de ne privilégier qu'une seule forme de représentation, centrée soit sur la dynamique d'implantation du territoire (eg, à travers des cartes animées [10]), soit sur les déplacements de l'individu (eg, visualiser des trajectoires en 3D à travers le cube spatio-temporel – STC [ 11]). A notre connaissance, il n'existe pas d'environnement unifié (gratuit et accessible) permettant à l'usager d'explorer simultanément les indicateurs synthétisant les aspects des déplacements et des flux, d'analyser et de visualiser les dynamiques de mobilité chez l'individu et niveaux de population.

La conception et le développement d'un tel environnement unifié soulèvent de multiples défis, tels que concevoir des techniques de visualisation adaptées pour représenter les indicateurs de mobilité urbaine et définir des méthodes d'interaction pour gérer le dialogue entre l'espace et le temps, tout en explorant les données à différents niveaux d'agrégation. Ce processus devrait également considérer les mécanismes de raisonnement soutenant l'analyse visuelle, qui sont associés à un processus cognitif, résultant en différentes façons dont les utilisateurs perçoivent les représentations visuelles. Par conséquent, l'environnement proposé doit être évalué pour garantir son efficacité, son efficience et la satisfaction des utilisateurs [12].

Notre approche aspire à la conception et au développement d'un outil de géovisualisation pour l'analyse de la mobilité urbaine, tel que celui décrit ci-dessus. Nous proposons un environnement multi-écrans composé de tableaux de bord personnalisables et d'une technique d'interaction basée sur le mouvement pour contrôler l'évolution temporelle des données. Une interface tangible supportée par un appareil mobile a été conçue pour contrôler l'espace et le temps, et une nouvelle technique de visualisation (la roue de mobilité) basée sur un diagramme circulaire en anneau à double anneau a été proposée pour représenter les pratiques de mobilité d'une population (voir Fig. 1 ). Nous présentons également le développement et l'évaluation d'un prototype qui supporte l'analyse spatio-temporelle des flux et des déplacements et la dynamique de peuplement du territoire.

Le reste de cet article est organisé comme suit. La section II présente des travaux antérieurs sur les soluSec-tions visuelles pour les tableaux de bord analytiques de données de mobilité urbaine, et l'utilisation d'appareils mobiles sur la visualisation d'informations. La section III présente les spécifications qui ont guidé notre proposition tandis que la section IV détaille le prototype eSTIMe. Les sections V et VI présentent l'étude pilote et les premières impressions des utilisateurs, ainsi que le processus d'évaluation que nous avons utilisé. Enfin, les sections VII et VIII discutent de nos résultats, limites, conclusions et travaux futurs.

Les études sur la mobilité urbaine se sont multipliées ces dernières années, notamment en raison de la diversité des sources de données disponibles, fournissant des informations sur les déplacements des individus. en outre

aux outils de visualisation mentionnés précédemment, Shi et al. [10] explorent visuellement les métriques de mobilité pour identifier les modèles de dynamisme, de fluidité, de commutation et de diversité. Lu et al. proposent une méthode d'analyse visuelle basée sur le classement pour explorer le comportement de déplacement des véhicules [13], et utilisent les trajectoires des taxis pour explorer visuellement les modèles origine-destination (OD) [14] .

Étant donné que l'analyse du comportement des passagers du système de transport public (STP) est précieuse pour les chercheurs en transport et les urbanistes, des solutions visuelles ont été conçues pour explorer ces données [15], [16]. Zeng et al. [17] analysent l'impact des facteurs liés à la mobilité (circulation, correspondance et temps d'attente), et leurs variations temporelles sur la forme de la mobilité des passagers.

Il y a vingt-cinq ans, les systèmes de vélos en libre-service ont été conçus et la technologie d'aujourd'hui fournit des données d'utilisation servant d'informations complémentaires pour comprendre la mobilité urbaine. Shi et al. [5] proposent un système d'analyse visuelle : pour conseiller pour une répartition optimale des vélos via la catégorisation des stations en fonction de leurs fonctions principales pour explorer la direction spatiale du déplacement à vélo via des corrélations de flux et des différences entre plusieurs stations et pour visualiser l'influence de plusieurs facteurs sur la location de vélos Nombres. Les modèles d'activité latente des utilisateurs de vélos en libre-service et leur comparaison dans/entre les villes sont également possibles [4].

Ma et al. [18] explorent visuellement les volumes de foule de flux, la dynamique directionnelle et les modèles spatio-temporels pour inspecter les relations sociales humaines et leurs mouvements physiques, tandis que Zeng et al. [19] proposent une signature interactive de la mobilité des points d'intérêt (POI) pour illustrer comment la mobilité humaine varie selon les POI dans différentes catégories et dans différentes zones. Des techniques telles que les tesselations de Voronoi et les glyphes d'activité elliptiques empilés sont utilisées pour visualiser les régions d'activité et pour détecter les régions urbaines partageant des modèles d'activité similaires [20].

Ces études partagent l'objectif d'explorer les modèles de mobilité urbaine. Leur conception est souvent fondée sur des hypothèses, et ils utilisent des bases de données décrivant la mobilité principalement à travers des données spatio-temporelles, sans prendre en compte les attributs qui pourraient expliquer pourquoi et comment les gens se déplacent. Comprendre les raisons des déplacements des personnes et leurs modes de transport est aussi pertinent pour comprendre les dynamiques de mobilité urbaine que pour décrire leurs trajectoires dans l'espace et dans le temps. Par conséquent, la pertinence d'un environnement qui permet l'exploration de toutes les dimensions des données et de leurs relations internes est évidente.

Les tableaux de bord analytiques à facettes sont « un ensemble de graphiques interactifs (principalement des graphiques et des tableaux) qui résident simultanément sur un seul écran, chacun présentant une vue différente d'un ensemble de données commun, et est utilisé pour analyser ces informations » [21]. Il a été prouvé que ces puissants outils d'aide à la décision appliqués à la visualisation d'informations géographiques augmentent les performances de la pensée spatiale et peuvent également améliorer les performances de l'utilisateur [22].

Chitarro [23] discute des défis et des avantages de la visualisation d'informations sur les écrans des appareils mobiles, tels que l'utilité des applications de cartographie mobile pour la navigation et l'interaction. Le transfert de visualisations à vues coordonnées multiples (MCV) de moniteurs de taille normale vers de grands écrans est une pratique de plus en plus répandue. Néanmoins, cela nécessite une nouvelle interaction

techniques, car l'utilisation de la souris traditionnelle n'est peut-être ni possible ni efficace. Langner et al. [24] et Kister et al. [25] proposent des ensembles de techniques d'interaction pour les grands écrans utilisant des appareils mobiles. Pahud et al. [26] utilisent l'appareil mobile comme une sorte de portail à travers lequel l'utilisateur peut explorer, interagir et annoter des visualisations de données n-dimensionnelles. Pietroszek et al. [27] tirent parti du mouvement d'inclinaison d'un appareil mobile pour interagir dans un espace 3D en « projetant » le plan 2D de l'appareil. Besanon et al. [28] utilisent des entrées tangibles et tactiles complémentaires pour réaliser des tâches de visualisation 3D courantes.

Comme indiqué par LeRoux et al. [6], le rythme d'une ville peut changer du jour à la nuit. Ils ont étudié la composition sociale de différents quartiers sur 24 heures et ont vérifié qu'elle est similaire pendant la nuit, mais qu'elle évolue pendant la journée, car les personnes les plus favorisées se déplaceraient vers des zones fournissant plus de ressources locales, tandis que les personnes défavorisées seraient retenues. dans leur quartier résidentiel. Par conséquent, l'étude de la mobilité urbaine à travers les déplacements quotidiens des individus en fonction des activités peut aider les agents publics, par exemple les urbanistes, à cibler les zones pour mettre en œuvre des interventions plus liées au rythme réel de la ville.

Les données de mobilité quotidiennes décrivent les déplacements des individus sur un territoire étudié au fil des 24 heures. Il contient des informations sur les déplacements effectués pour atteindre un ensemble d'objectifs, comme aller au travail, à l'école ou visiter quelqu'un. Ces objectifs décrivent les motivations des personnes à se déplacer d'un endroit à un autre, ainsi que leurs activités lorsqu'elles restent à leur emplacement spatial final. Dans ce contexte, une trajectoire individuelle consiste en une séquence d'arrêts et de mouvements. Le premier décrivait un intervalle de temps où l'individu était présent dans un lieu spatial réalisant une activité spécifique, tandis que le second représente une ligne spatio-temporelle définie par deux lieux représentant soit deux arrêts consécutifs soit un début ou une fin de trajectoire [29].

Les indicateurs de mobilité doivent être faciles à interpréter, présenter la situation réelle à travers une image représentative et permettre des comparaisons avec d'autres indicateurs [30]. L'exploration des données des entités d'intérêt mentionnées ci-dessus repose sur la dérivation d'indicateurs complémentaires. Par exemple, des indicateurs résumant les flux et les déplacements peuvent aider à comprendre l'influence des migrations de population sur une implantation territoriale. L'analyse des trajectoires individuelles par l'approche par activité [31] permet d'identifier et de caractériser des comportements de déplacement complexes, ainsi que des profils extrêmes tels que les individus hyperactifs et stationnaires.

De nombreux domaines au sein des politiques urbaines bénéficient d'analyses de mobilité quotidiennes, soutenant les décisions sur les offres de transport, l'accessibilité, le contrôle de la qualité de l'air, la santé publique et le bien-être. Ainsi, de nombreux experts (e.g. chercheurs, gestionnaires de diagnostic, collectivités locales) doivent manipuler les données de mobilité pour en extraire des connaissances, sans être des spécialistes des transports. Ils composent le profil des utilisateurs finaux de

notre environnement de géovisualisation. Ainsi, notre proposition devrait permettre à ces utilisateurs de :

• décrire la mobilité quotidienne selon trois entités d'intérêt : les flux et déplacements, les dynamiques de peuplement du territoire et les trajectoires individuelles • analyser et comparer des indicateurs complémentaires dans le

niveaux agrégés et individuels

• explorer la dynamique temporelle des indicateurs pour identifier les rythmes quotidiens de la ville et de sa population

• composer le tableau de bord analytique en fonction de leurs besoins, en choisissant les indicateurs, les zones spatiales et les périodes

L'intégration des dimensions temporelles et spatiales est en elle-même un défi pour les représentations cartographiques et géovisuelles. Les petits multiples et l'animation sont les techniques les plus utilisées pour explorer le temps de manière dynamique. La première technique affiche les changements d'informations côte à côte via des tranches de temps, ce qui souffre d'une limitation spatiale et d'une résolution puisque chaque tranche diminue à mesure que leur nombre augmente. La deuxième option peut être considérée comme un film présentant les informations sous forme de tranches de temps les unes après les autres dans un ordre prédéfini. Bien que l'animation ne souffre pas d'une faible résolution spatiale, les animations rapides peuvent être difficiles à comprendre, car l'utilisateur doit se fier à sa mémoire pour comprendre les données [32].

La méthode d'interaction que nous proposons pour explorer le temps repose sur le concept d'animation. Alors que nous présentons toujours les changements d'informations sous forme de tranches de temps consécutives, nous permettons à l'utilisateur de les contrôler physiquement en inclinant une tablette. Notre inspiration vient de l'utilisation d'appareils mobiles pour interagir avec des visualisations et des applications 3D [33], et les avantages de l'utiliser comme deuxième écran [34]. L'interaction corporelle intensive est connue pour être plus engageante [35], et la proprioception (c'est-à-dire le sens de l'auto-mouvement et de la position du corps) pourrait aider l'utilisateur à retenir des informations en utilisant la position et l'orientation de ses mains et de ses poignets comme référence de rappel. Plus qu'une interaction avec la dimension temporelle, l'appareil mobile sert également de deuxième écran contenant des vues cartographiques et d'espace d'interaction tactile pour manipuler les indicateurs et les vues. Les tableaux de bord analytiques sont largement utilisés dans la visualisation, étant conçus à travers un ensemble de vues définies et efficaces pour atteindre les objectifs de l'utilisateur. Dans ce travail, nous souhaitons donner aux utilisateurs une certaine liberté afin qu'ils puissent personnaliser le tableau de bord comme ils le jugent adapté à leur analyse. Estimant que des espaces de travail plus grands pourraient améliorer l'analyse, nous adoptons des tableaux de bord personnalisables intégrés dans un environnement d'écrans multi-synchronisés. De plus, cette approche offre suffisamment d'espace pour comparer des indicateurs à différentes granularités spatio-temporelles.

Comme preuve de concept, nous avons développé eSTIMe (Fig. 1), un prototype pour explorer les données de mobilité quotidiennes au niveau agrégé.

eSTIMe vise à supporter différents jeux de données décrivant la mobilité quotidienne, quelles que soient leurs sources. À l'heure actuelle, nous utilisons les données d'une enquête sur les déplacements des ménages (EVM), car elle fournit

informations sur les déplacements individuels dans l'espace et dans le temps, y compris leurs motivations et leurs modes de transport. Cela nous permet de dériver les déplacements individuels basés sur les activités et d'agréger la présence et la mobilité de la population à différents emplacements spatiaux et intervalles de temps, ainsi que de dériver le volume des flux entre différents emplacements. Nous avons récupéré l'édition 2010 [36] d'une enquête réalisée régulièrement dans la région de Grenoble, France, depuis 1976.

Les données comprennent les déplacements effectués par tous les membres du ménage âgés de cinq ans et plus pendant 24 heures, de 4h (la veille) à 4h (le jour de l'enquête). Il détaille le lieu et l'heure de départ et d'arrivée, le mode de transport et la motivation pour chaque déplacement. Les localisations sont décrites par lieux (secteurs de tirage définis dans le relevé), et la dimension temporelle est discrétisée en intervalles d'une heure. L'enquête fournit des données sur environ 63 000 déplacements effectués en semaine par 7 600 ménages. Nous proposons une granularité spatiale diversifiée à travers trois partitions territoriales (97, 39 et 12 secteurs) elles contiennent toutes des surfaces plus petites à l'intérieur de Grenoble et de plus grandes dans la zone de montagne.

Les indicateurs résumant la présence de la population à différents endroits sont visualisés à travers une carte choroplèthe, une technique bien connue utilisée pour la représentation des données géographiques. Nous avons dérivé des indicateurs de densité de présence par emplacement, c'est-à-dire que la fluctuation des personnes présentes par kilomètre carré mesure la hausse et la baisse de la population au cours de la journée à travers la différence entre les personnes présentes et la population du secteur, et l'attractivité, qui identifient si la densité réelle d'un secteur est équivalent à la densité de population [37]. La densité de présence et la fluctuation pouvant être explorées sur 24 heures et par intervalle de temps, leurs cartes comportent deux légendes : l'une explique les valeurs de l'intervalle de temps en cours, et l'autre les valeurs de la journée entière. Les valeurs de fluctuation représentent les gains et les pertes de population.L'attractivité indique l'équilibre entre la densité réelle et la densité de population comme 1 (les valeurs supérieures à 1 indiquent une densité réelle plus élevée et moins autrement). La fluctuation et l'attractivité sont représentées par des échelles de couleurs divergentes, tandis que la densité utilise une échelle de couleurs linéaire.

Des indicateurs synthétisant les pratiques de mobilité d'une population complètent la dynamique de présence. Ils révèlent les routines des personnes actives tout au long de la journée à travers le nombre de personnes se déplaçant d'un endroit à un autre à chaque intervalle de temps et la répartition de ces déplacements selon les différents modes de transport. Pour chaque secteur, l'indicateur représente le nombre de personnes se déplaçant vers cet endroit, et les modes de transport utilisés pour atteindre cette destination.

Les roues temporelles sont souvent utilisées pour représenter des données de séries temporelles [38], ce qui a inspiré la conception de notre roue de mobilité (Fig. 2). Nous avons adapté la vue d'un graphique en anneau à double anneau, formant chaque anneau avec 24 rectangles symbolisant 24 heures. Chaque intervalle de temps sur les anneaux affiche : au plus à l'extérieur, les personnes en mouvement par population du secteur au plus à l'intérieur, la partition de

Fig. 2. La roue de mobilité affiche les schémas de déplacement des personnes actives, tandis que les graphiques en arc comparent l'utilisation des modes de transport à travers des intervalles de temps.

déplacements par mode de transport. Les graphiques en arc affichés côte à côte à côté de la roue permettent de zoomer sur la répartition des modes de transport et de les comparer sur 6 intervalles de temps. Cette vision permet d'identifier d'un seul coup d'œil les schémas de mobilité de la population au cours de la journée et de comprendre comment elle se déplace sur le territoire en faisant correspondre l'intensité des déplacements et les modes de transport qu'elle mobilise.

Représenter les flux sans perdre la composante spatiale et éviter l'occlusion est une tâche difficile [39]. Les cartes de flux sont largement utilisées pour représenter le volume des flux au sein d'un territoire, mais elles ont des contraintes sur la conception de cartes lisibles. Par conséquent, nous avons adopté le point de vue de la relation de paire origine-destination (OD) introduit par Shi et al. [5] pour explorer les flux OD entre les emplacements spatiaux. Il utilise un diagramme d'accords, où les arcs représentent des emplacements spatiaux. Les arcs sont reliés par des rubans dont l'épaisseur décrit le volume des flux échangés entre les emplacements. La couleur du ruban détermine l'origine du flux. Nous fournissons des informations spatiales liant virtuellement le diagramme d'accords à la vue cartographique sur l'écran de la tablette. Le filtrage des flux est disponible en sélectionnant un emplacement sur la carte. L'indicateur peut être exploré sur 24 heures ou par période. La vue peut afficher les flux d'échanges sur l'ensemble du territoire, ou l'utilisateur peut choisir un ensemble de 10 emplacements maximum (dans un souci de lisibilité).

eSTIMe prend en charge les interactions régulières telles que le panoramique et le zoom, ainsi que le filtrage spatio-temporel. Les angles produits via l'inclinaison de la tablette sont mappés sur des emplacements dans le sélecteur de temps. Étant donné que les événements de mobilité quotidiens génèrent des modèles quotidiens, un arrangement cyclique (timewheel) semble approprié. Les environnements existants organisent souvent le temps de manière linéaire dans une chronologie. Notre interface, quant à elle, propose les deux formats au choix. L'utilisateur inclinerait la tablette soit dans le sens inverse des aiguilles d'une montre pour sélectionner les intervalles de temps dans la roue du temps, soit de gauche à droite et dans le sens inverse dans la chronologie.

L'interface principale, appelée Controller, propose un menu pour choisir les indicateurs et les personnaliser sous différentes granularités spatio-temporelles avant de les afficher sur

un tableau de bord. Il peut contenir plusieurs tableaux de bord personnalisables. Par défaut, chaque tableau de bord comprend quatre fenêtres vierges, remplies progressivement en fonction des besoins de l'utilisateur. Le temps et l'espace sont explorés via un sélecteur de temps et une carte disponible sur le Controller. Le premier est utilisé pour changer l'heure et pour ouvrir des graphiques en arc à côté de Mobility Wheels. La vue cartographique prend en charge la sélection panoramique et zoom des emplacements pour générer la vue des flux ou la roue de mobilité et le filtrage spatial sur la vue des flux. Dans le cas où nos utilisateurs potentiels souhaitent créer des rapports de leur exploration, nous leur offrons également la possibilité de télécharger les vues sous forme d'image.

La configuration de base d'eSTIMe consiste à l'instancier deux fois : une instance contient l'interface principale et doit être affichée sur la tablette, tandis que la seconde comprend un tableau de bord, où les vues sont affichées et organisées. Il devrait être affiché sur un grand écran pour une meilleure expérience. Le prototype est une application Web. Un serveur a été développé en Java et utilise la technologie WebSocket pour gérer la communication entre le Controller et les tableaux de bord. Le client a été développé en JavaScript et utilise les bibliothèques D3 (Data-Driven Documents) et Leaflet pour générer respectivement des graphiques et des représentations cartographiques. Les données brutes ont été prétraitées via des scripts R et stockées localement en tant que geojson

pour les informations géographiques, json pour les données de flux, et csv

Un premier prototype a été testé par 13 volontaires âgés en moyenne de 36 ans (SD = 10). Cet essai a vérifié si le prototype était utilisable et pouvait aider les utilisateurs à répondre aux questions sur l'analyse de la mobilité quotidienne. Étant donné que l'interface comprend deux sélecteurs de temps, nous avons également évalué la réaction des utilisateurs à notre interaction temporelle basée sur le mouvement. Nous avons suivi une conception d'étude intra-sujets pour tester deux conditions : la chronologie et la roue du temps. Les participants devaient répondre à deux séries de 6 questions, une pour chaque variable. Le questionnaire contenait des questions simples (ex. quelle est la densité de présence dans le secteur 5 entre 7h et 8h ?) et complexes (ex. d'où viennent les gens dans les 3 secteurs les plus attractifs ?). Nous avons mesuré la charge de travail autodéclarée des utilisateurs pour chaque condition via le NASA Task Load Index (TLX) [40], une procédure d'évaluation multidimensionnelle qui fournit un score global de charge de travail basé sur une moyenne pondérée des évaluations sur six sous-échelles : Demande mentale (MD), demande physique (PD), demande temporelle (TD), propre performance (OP), effort (EF) et frustration (FR). Un questionnaire post-test a collecté l'évaluation subjective des utilisateurs sur la convivialité via le questionnaire SUS [41], et leurs préférences sur les arrangements temporels.

Dans un souci de reproductibilité, les données de sortie des études d'utilisateurs et les scripts qui les traitent sont disponibles en tant que matériel supplémentaire. Les données ont été soumises à une conception mixte avec les conditions expérimentales comme intra-sujets et le profil de l'utilisateur comme test inter-sujets. Nous avons effectué un test de normalité Shapiro-Wilk pour vérifier si les données proviennent d'un

distribution et un test de Fligner-Killeen pour vérifier si les variances dans chaque groupe sont les mêmes. Lorsque les données réussissent les deux tests, nous avons effectué une ANOVA à un facteur. Sinon, nous avons soumis les données à des tests non paramétriques, Friedman pour les groupes appariés et Kruskal-Wallis pour les groupes non appariés. Lors de la recherche de la signification statistique dans les comparaisons de plusieurs variables, nous avons effectué le test de plage de Tukeys pour l'ANOVA à un facteur et le test de Nemenyi pour les autres. Nous avons analysé si les variables étaient liées par la corrélation de Pearson.

Le temps de réponse et la précision étaient similaires dans les deux conditions : environ 26 minutes et 86 % de réponses correctes. Ces variables sont corrélées à 56 % dans la condition de la roue temporelle (p = 0,058). La chronologie et la roue du temps induisaient une charge de travail moyenne autodéclarée de 63 et étaient très exigeantes sur le plan mental. Dans la roue temporelle, le MD était significativement plus fort que PD, TD et FR (p < 0,001). Pour les deux conditions, PD était inférieur à EF et OP (p < 0,001). La chronologie s'est avérée moins frustrante que laborieuse (p < 0,001). Plus la tâche est exigeante mentalement, moins elle demande d'effort physique (R= 0,6,p <0,05). Bien que la PD ait reçu les scores les plus bas, elle semble empirer la précision de la réponse à mesure qu'elle augmente (R = 0,69, p < 0,001). La demande mentale semble réduire les performances perçues par les utilisateurs (R = -0,83, p < 0,001 pour la roue temporelle et R = -0,51, p = 0,078 pour la chronologie), mais elle ne semble pas affecter la précision de la réponse.

Les participants plus âgés ont mis plus de temps à terminer l'expérience dans la condition de roue temporelle (R = 0,72, p & lt 0,01). De la même manière, la demande mentale est plus élevée pour les participants plus âgés dans la chronologie (R = 0,65, p < 0,05), et elle semble se produire également dans la roue du temps (R = 0,5, p = 0,085). Une grande connaissance préalable de la mobilité du territoire a également augmenté la demande mentale (R = 0,58, p < 0,05) dans la chronologie. Plus le temps de réponse est long, moins les utilisateurs se sentent frustrés (R = 0,58, p < 0,05). Nous supposons que les utilisateurs se sont familiarisés avec le prototype, diminuant les sentiments de frustration. L'utilisabilité de notre prototype a été évaluée sur 48/100 (SD= 8,66). La chronologie a été privilégiée par rapport à la roue du temps (M = 3,53, SD = 1,19 sur une échelle de Likert à 5 points). Les utilisateurs y sont plus familiers et les degrés de liberté inférieurs rendent la chronologie plus facile à manipuler.

Les utilisateurs ont fourni des réponses satisfaisantes aux questions proposées dans l'étude pilote, mais leur temps de réponse était plus long que souhaitable pour une utilisation quotidienne et ils ont signalé des scores de charge de travail élevés. L'interface manquait d'intuitivité, notamment en ce qui concerne l'interaction avec les tableaux de bord. Pour afficher une vue, l'utilisateur doit sélectionner la partition territoriale, l'indicateur, le tableau de bord et soumettre ses choix. La vue serait affichée dans la fenêtre vide suivante, réassortissant les vues chaque fois que l'utilisateur supprimait ou ajoutait quelque chose. Nous l'avons ensuite transformé en une interface de menu à curseur, où chaque diapositive correspond à un tableau de bord, contenant quatre « fenêtres » comme dans l'interface du tableau de bord, et l'utilisateur peut contrôler directement où et comment les indicateurs sont affichés (Fig. 3A). Les graphiques soutenant l'analyse et la comparaison des modes de transport utilisés par les personnes actives ont été conçus comme des graphiques à barres, ce qui était difficile à comprendre d'un seul coup d'œil. Nous l'avons modifié en arcs (Fig. 3B), en suivant le code couleur du

Fig. 3. Principales modifications sur le prototype après les résultats de l'étude pilote. Le menu (A) a été refait dans une interface plus intuitive. Les graphiques affichant la répartition des modes de transport (B) sont passés de barres à arc, qui relient également les modes à leurs couleurs respectives. La vue de flux (C) a été mise à niveau vers un diagramme plus intuitif et informatif.

bague intérieure de la roue, assimilation des informations de fixation. Nous avons représenté les échanges de flux à l'aide d'un simple diagramme d'accords, ce qui était difficile à comprendre car la direction des flux n'était indiquée que par la couleur des rubans et il ne fournissait pas d'informations sur le volume des flux. Nous l'avons fait évoluer vers un schéma plus lisible et intuitif [5] (Fig. 3C).

La nouvelle version d'eSTIMe a fait l'objet d'une évaluation en deux parties (ci-dessous) : évaluer la technique d'interaction par le mouvement et évaluer l'efficacité auprès des utilisateurs potentiels.

A. Expérience I : Animation temporelle

Dix-sept personnes non rémunérées, chercheurs et doctorants, âgés en moyenne de 33 ans (SD = 11,18), ont participé à une expérience intra-sujets pour comparer 4 conditions : roue temporelle (A) ou chronologie (B) contrôlée par inclinaison, et animation traditionnelle contrôlée par la souris (C) ou le toucher (D), en supposant que les performances de l'animation (H1) sont similaires avec les interactions souris et tactile (H2) le mouvement d'inclinaison fournit de meilleures réponses que l'interaction traditionnelle et (H3) l'interaction basée sur le mouvement est préférée sur la souris.

Nous avons donné aux participants quatre séries de 3 questions (une par condition) concernant différentes conditions (soit la densité de présence, soit le taux de fluctuation) et les emplacements spatiaux (x, y, z) : comment la variable varie-t-elle au cours de la journée dans le secteur x ? quelles sont les périodes dans le secteur y où la valeur de la variable diminue ? quelles sont les périodes dans le secteur z où la valeur de la variable augmente ? L'utilisabilité subjective de chaque technique a été évaluée via un questionnaire UMUX-Lite [42]. Le questionnaire post-test a rassemblé les préférences des utilisateurs sur les techniques proposées par le biais d'une comparaison par paires et d'une note en 4 éléments évaluant l'agrément de chaque technique sur une échelle de Likert en 5 points. Le temps de réponse était d'environ 6 minutes pour chaque condition expérimentale, diminuant progressivement de la première à la dernière question (p <0,01). La condition A (timewheel) a fourni une précision de réponse de 50 %, nettement inférieure aux autres conditions (environ 85 %, p < 0,05). Dans l'ensemble, les utilisateurs ont préféré contrôler l'animation via des touches. A partir de la comparaison par paires, les conditions B (mouvement linéaire) et C (animation traditionnelle) ont été

de même apprécié, et la condition D est préférée à C. L'utilisabilité évaluée n'était pas significativement différente entre les techniques (42/100 en moyenne). Les utilisateurs ont trouvé que la roue du temps était la plus frustrante et la plus difficile à utiliser. Comme prévu, l'animation traditionnelle était considérée comme facile à utiliser, car elle est bien connue pour l'exploration du temps et les utilisateurs sont plus familiarisés avec l'interaction avec la souris.

Les expériences antérieures des participants sur l'interaction non conventionnelle semblent augmenter la précision de la réponse (R = 0,35, p = 0,013) dans la condition D, et réduire le temps de réponse dans la condition B (R = 0,28, p < 0,05) et D (R = 0,24, p = 0,087). Comme pour l'étude pilote, les personnes âgées ont fourni des réponses moins précises (R = -0,29, p < 0,05, condition D) et ont mis plus de temps à la terminer (R = 0,35, p <0,05, condition A).

Le mouvement d'inclinaison cyclique s'est avéré non naturel et les rectangles de la roue du temps trop petits, ce qui a remis en cause le placement du pointeur. La roue du temps prend environ 25% de la hauteur de l'écran pour des raisons de lisibilité de la carte, ce qui est devenu une limitation dans notre approche, puisque nous utilisons une tablette à écran de 9,7 pouces. Les participants ont eu du mal à interpréter la carte de fluctuation en raison de son échelle de couleurs divergente et des valeurs proportionnelles (à la population). Les légendes changeant à chaque intervalle de temps ont perturbé certains participants.

En résumé, puisque nous avons trouvé des temps de réponse et une précision similaires entre l'animation interactive via la souris et les touches, nous acceptons H1. La précision de la réponse était plus faible lors de l'utilisation du mouvement cyclique, mais le mouvement linéaire a fourni une précision de réponse et un temps similaires à ceux de l'animation traditionnelle. Wereject H2, car les performances avec la technique basée sur le mouvement n'étaient pas meilleures, mais plutôt similaires à l'animation traditionnelle. Cependant, les utilisateurs ont apprécié le mouvement linéaire, ainsi que l'animation tangible, le trouvant facile à utiliser. Nous acceptons H3 et envisageons de fusionner les deux techniques pour permettre à l'utilisateur de lire l'animation via l'inclinaison de l'appareil et de sélectionner des intervalles de temps via le toucher.

B. Expérience II : L'environnement

Vingt-quatre volontaires (21 valides), âgés de 22 ans en moyenne (SD=1,82), étudiants ayant des connaissances satisfaisantes sur

le domaine cible a participé à cette expérience. Nous avons suivi une conception post-test à un seul groupe pour évaluer l'efficacité de notre environnement pour aider à l'analyse des données de mobilité quotidiennes. Les participants à l'étude pilote ont mentionné qu'il fallait un temps de formation plus long pour maîtriser l'interface. Par conséquent, nous l'avons conçu comme une expérience en deux parties. La première partie comprenait deux sessions de 3 heures au cours desquelles les utilisateurs ont travaillé en binôme pour répondre à un ensemble de 16 questions. Dans ces sessions, un moniteur de PC affichait le contrôleur et une souris prenait en charge l'interaction.

Les sessions expérimentales (collectives) ont eu lieu deux semaines plus tard, où 12 participants ont travaillé en parallèle pour répondre à 14 questions analytiques. Une phase de formation automatique a été réalisée à travers 16 questions liées à l'interaction. Un questionnaire post-test comprenait le SUS et une version réduite du NASA TLX, ne contenant que la partie notation sur une échelle de 10 points. Les scores pour chaque sous-échelle ont été déterminés comme la note moyenne multipliée par 10, et le score général était le score moyen des sous-échelles. Il a également mesuré la préférence des utilisateurs quant à l'utilisation d'un moniteur de PC ou d'une tablette comme deuxième écran.

L'utilisabilité évaluée est toujours modérée (40/100), tandis que la charge de travail autodéclarée a diminué (M = 33,3, SD = 6,8). Les utilisateurs ont fortement marqué MD (M = 41,4, SD = 9,10) et OP (M = 54,3, SD = 9,78). Cependant, aucune corrélation n'a été observée entre l'OP et ni le temps de réponse ni la précision. Les réponses étaient exactes à 81 %, variant selon les emplacements spatiaux et les indicateurs. Les réponses concernant le 4 l'emplacement étaient

moins précis que les autres (p <0,001 contre le 2e, et p < 0,05 contre le 1e et le 3e). La précision sur les questions d'attractivité était plus élevée que la densité de présence (p < 0,05), qui a également obtenu des réponses moins correctes que les flux (p <0,001). Le dernier en date était également plus précis que le taux de fluctuation (p <0,01) et la mobilité de la population (p <0,001).

Le temps de réponse était d'environ 35 minutes (SD = 12,9), avec une moyenne de 2,49 minutes (SD = 2,26) par question. De petites corrélations suggèrent que le temps de réponse semble augmenter FR (R = 0,12, p < 0,05), EF (R = 0,16, p < 0,01) et PD (R = 0,2, p <0,001), et réduire la précision (R = -0,12, p <0,05). Les connaissances préalables des participants sur la mobilité semblent augmenter l'OP (R = 0,49, p < 0,001) et la charge de travail totale (R = 0,26, p < 0,001). Les utilisateurs plus expérimentés sur les interactions non conventionnelles ont signalé des PD plus élevés (R = 0,3, p < 0,001), MD (R = 0,34, p <0,001) et une charge de travail totale (R = 0,2, p < 0,001). Cependant, cela ne semble pas affecter le temps de réponse et la précision. Les utilisateurs ont apprécié la tablette comme deuxième écran (M = 3,95, SD = 1,43) et ont préféré l'utiliser plutôt qu'un moniteur de PC (M = 4, SD = 1,22), car ils pouvaient afficher les vues sur un grand écran tout en interagissant sur le tablette, ce qui facilite l'exploration des données.

Nous avons conçu et développé un environnement de géovisualisation multi-écrans intégrant des tableaux de bord personnalisables pour faciliter l'analyse quotidienne de la mobilité. L'interface principale consiste en une tablette intégrant une technique d'interaction basée sur le mouvement pour explorer dynamiquement des données variant dans le temps. Même si la roue du temps a été surpassée par toutes les autres techniques d'animation, le

la chronologie contrôlée par notre méthode s'est avérée aussi efficace que l'animation traditionnelle (c'est-à-dire via l'interaction de la souris), tout en étant plus engageante. L'utilisation du toucher pour contrôler l'animation a également été appréciée par les utilisateurs, nous avons donc combiné le physique et le toucher pour offrir plus de contrôle et d'engagement pour explorer les indicateurs au fil du temps. L'exploration du temps pourrait bénéficier de l'approche des tableaux de bord personnalisables. À titre d'exemple, l'utilisateur pourrait afficher le même indicateur à différents intervalles de temps côte à côte sur le tableau de bord, comme via des petits-multiples. Notre prototype fournit des indicateurs de flux et de déplacements, ainsi que des dynamiques de peuplement du territoire. Bien qu'il n'analyse pas les activités ni les trajectoires individuelles, il permet de comprendre comment les gens se déplacent en zone urbaine. Nos études d'utilisateurs visaient à évaluer si nos choix de conception sont utiles pour explorer la mobilité quotidienne, avant de remplir les indicateurs.

Cinquante et un volontaires, dont 21 connaissaient la géographie et la mobilité, ont utilisé notre prototype et l'ont trouvé prometteur. Notre approche est efficace pour aider à l'analyse visuelle des données de mobilité quotidiennes (au moins au niveau agrégé). Les participants ont pu apporter des réponses satisfaisantes aux questions analytiques proposées, même ceux qui n'avaient aucune expérience dans le domaine. Les modifications que nous avons apportées à notre prototype de l'étude pilote à la phase d'évaluation ont amélioré l'efficacité, puisque les utilisateurs ont répondu à 14 questions analytiques en environ 1/3 du temps que les participants à l'étude pilote ont pris pour répondre à 12 questions avec à peu près la même précision (80 %).

Nous avons également interrogé quelques agents publics qui explorent les données HTS pour soutenir la prise de décision en matière de développement urbain. Nous démontrons notre prototype et les laissons le tester. Bien qu'ils étaient enthousiasmés par l'idée de personnaliser le tableau de bord et d'utiliser leur propre mouvement pour explorer le temps, ils ont souligné que l'utilisation d'un deuxième écran (c'est-à-dire la tablette) pourrait être une contrainte dans leur travail quotidien, car cela nécessite du matériel supplémentaire, pas nécessaire pour d'autres tâches.

VIII. CONCLUSION ET FUTUR TRAVAIL

Cet article propose une approche de géovisualisation pour soutenir (1) la description de la mobilité quotidienne à travers les flux et les déplacements, les dynamiques d'occupation du territoire et les trajectoires individuelles (2) l'analyse et la comparaison d'indicateurs complémentaires aux niveaux agrégé et individuel (3) l'exploration de la dynamique temporelle des indicateurs, et (4) composition personnalisée du tableau de bord selon les besoins de l'utilisateur, tout en choisissant la granularité spatiale et temporelle pour composer les indicateurs. eSTIMe utilise un environnement multi-écrans intégrant des tableaux de bord personnalisables et une interaction basée sur le mouvement pour prendre en charge l'animation temporelle via les appareils mobiles.

A un niveau prototype, il est limité en n'incluant pas encore d'indicateurs sur les activités et les trajectoires individuelles. L'exploration de ces dernières, bien que réalisée via des données d'enquête, ne violerait pas les lois sur la protection des données, puisque les localisations spatiales sont définies par de grandes zones, n'impliquant pas de coordonnées géographiques spécifiques révélant les résidences et les lieux de travail des individus, par exemple. Les problèmes d'utilisabilité sont résolus vers un environnement convivial. Le processus d'évaluation pourrait démontrer l'efficacité de notre approche, mais il n'évalue pas la

l'efficacité de l'utilisation de tableaux de bord personnalisables par rapport aux tableaux de bord traditionnels. Par conséquent, les travaux futurs comprendront également des études d'utilisateurs pour évaluer cet aspect et une validation d'eSTIMe par des experts du domaine.

[1] D. J. Peuquet, « It's About Time : A Conceptual Framework for the Rep-resentation of Temporal Dynamics in Geographic Information Systems »,

Annales de l'Association des géographes américains, vol. 84, non. 3, p. 441-461, 1994.

[2] Conseil N. R., Indicateurs clés du transport : Résumé d'un atelier. Division des sciences comportementales et sociales et de l'éducation. Washington, DC : National Academy Press., 2002.

[3] N. Andrienko, G. Andrienko et H. Voss, Analyse exploratoire des données spatiales et temporelles : une approche systématique. Springer Publishing Company, Incorporée, 2016.

[4] Y. Yan, Y. Tao, J. Xu, S. Ren et H. Lin, « Analyse visuelle des données de partage de vélos basées sur la factorisation du tenseur », Journal of Visualization, vol. 21, non. 3, p. 495-509, 2018.

[5] X. Shi, Z. Yu, J. Chen, H. Xu et F. Lin, « The visual analysis of flow pattern for public bicycle system », Journal of Visual Language and Computing, pp. 1-9, 2017.

[6] G. Le Roux, J. Vallée et H. Commenges, « La ségrégation sociale 24 heures sur 24 en région parisienne (France) », Journal of Transport Geography, vol. 59, p. 134-145, 2017.

[7] E. Cochey et K. Tabaka, « Modes de représentation des trajectoires quotidiennes des habitants », in Huiti`emes Rencontres de Théo Quant, Besançon, France, 2007, aCTN.

[8] A. Thudt, D. Baur et S. Carpendale, « Visites : une visualisation spatio-temporelle des histoires de localisation », EuroVis, p. 2312, 2013.

[9] H. Otten, D. Marian et M. Boris, « Y a-t-il des réseaux dans les cartes ? Une visualisation expérimentale des données de mouvement personnel », In Personal Visualization: Exploring Data in Everyday Life, pp. 5-7, 2015. [10] L. Shi, T. Jiang, Y. Zhao, X. Zhang et Y. Lu , « UrbanFACET : Visuellement

Profiling Cities from Mobile Device Recorded Movement Data of Millions of City Residents », arXiv preprint arXiv : 1707.04210, 2017. [11] C. Tominski, H. Schumann, G. Andrienko et N. Andrienko,

« Visualisation basée sur l'empilement des données d'attributs de trajectoire », IEEE Trans. sur la visualisation et l'infographie, vol. 18, non. 12, pp. 2565-2574, 2012. [12] J. S. Yi, Y.-a. Kang, J. T. Stasko et J. A. Jacko, « Comprendre et caractériser les idées : comment les gens acquièrent-ils des idées en utilisant la visualisation de l'information ? » inProceedings of the 2008 Workshop on Beyond Time and Errors: Novel evaLuation Methods for Information Visualization, ser. BELIV '08. New York, NY, États-Unis : ACM, 2008, pp. 4:1-4:6. [13] M. Lu, Z. Wang et X. Yuan, « TrajRank : Exploring travel behavior

sur un itinéraire par classement de trajectoire », IEEE Pacific Visualization Symp., vol. 2015-juillet, non. Juillet, p. 311-318, 2015.

[14] M. Lu, J. Liang, Z. Wang et X. Yuan, « Exploration des modèles OD de la région intéressée en fonction des trajectoires de taxi », Journal of Visualization, vol. 19, non. 4, p. 811-821, 2016.

[15] Y. Wang, « A Visual Analysis System for Exploring Passenger Flow Information at Multiple Levels », en 2016, 20e conférence internationale de l'IEEE sur le travail coopératif en conception assistée par ordinateur (CSCWD), 2016, pp. 363-368.

[16] X. Zhang et Q. Wang, « Peoplevis : un système d'analyse visuelle pour le comportement de déplacement minier », en 2017, 21e conférence internationale IEEE sur le travail coopératif assisté par ordinateur (CSCWD), 2017, pp. 463-468.

[17] W. Zeng, C. W. Fu, S. M. Arisona, S. Schubiger, R. Burkhard et K. L. Ma, « Visualisation de la relation entre la mobilité humaine et les points d'intérêt », IEEE Trans. sur les systèmes de transport intelligents, vol. 18, non. 8, p. 2271–2284, 2017.

[18] Y. Ma, T. Lin, Z. Cao, C. Li, F. Wang et W. Chen, « Mobility Viewer : Une approche eulérienne pour l'étude des flux de foule urbains », IEEE Trans. sur les systèmes de transport intelligents, vol. 17, non. 9, pp. 2627-2636, 2016. [19] W. Zeng, CW Fu, S. M¨uller Arisona, A. Erath et H. Qu, « Visualizing waypoints-constrained origin-destination patterns for massive transporta-tion données », Computer Graphics Forum, vol. 35, non. 8, pp. 95-107, 2016. [20] W. Wu, Y. Zheng, N. Cao, H. Zeng, B. Ni, H. Qu et LM Ni, « MobiSeg : Interactive region segmentation using heterogeneous mobility données », en 2017 IEEE Pacific Visualization Symp. (PacificVis), 2017, p. 91-100.

[21] S. Few et P. Edge, « Confusion du tableau de bord revisitée », Perceptual Edge, pp. 1–6, 2007.

[22] A. J. Fischer, « Développer et évaluer un tableau de bord d'informations géographiques pour améliorer les performances des tâches spatiales », Ph.D. thèse, Kansas State University, Département de géographie, 2018.

[23] L. Chittaro, « Visualisation d'informations sur des appareils mobiles », Ordinateur, vol. 39, non. 3, p. 40-45, 2006.

[24] R. Langner, U. Kister et R. Dachselt, « Vues coordonnées multiples sur de grands écrans pour plusieurs utilisateurs : résultats empiriques sur le comportement, les mouvements et les distances des utilisateurs », IEEE Trans. sur la visualisation et l'infographie, vol. 25, non. 1, p. 608-618, 2019.

[25] U. Kister, K. Klamka, C. Tominski et R. Dachselt, "GraSp: Combining Spatially-aware Mobile Devices and a Display Wall for Graph Visual-ization and Interaction", Computer Graphics Forum, vol. 36, non. 3, p. 503-514, 2017.

[26] M. Pahud, E. Ofek, N. H. Riche, C. Hurter et J. Grubert, « Mobiles as Portals for Interacting with Virtual Data Visualizations », arXiv preprint arXiv : 1804.03211, 2018.

[27] K. Pietroszek, J. R. Wallace et E. Lank, « Tiltcasting : 3D Interaction on Large Display Using a Mobile Device », dans Actes du 28e congrès annuel de l'ACM. sur le logiciel d'interface utilisateur &#38 Technology, ser. UIST '15. New York, NY, États-Unis : ACM, 2015, p. 57-62.

[28] L. Besançon, P. Issartel, M. Ammi et T. Isenberg, « Interaction hybride tactile/tangible pour l'exploration de données 3D », IEEE Trans. sur la visualisation et l'infographie, vol. 23, non. 1, pp. 881-890, 2017. [29] M. Baglioni, J. Macedo, C. Renso et M. Wachowicz, « Une approche basée sur l'ontologie pour la modélisation sémantique et le raisonnement sur les trajectoires », dans Advances in Modélisation conceptuelle – Défis et opportunités, 2008, pp. 344-353.

[30] P. Costa, G. M. Neto et A. Bertolde, « Indices de mobilité urbaine : une brève revue de la littérature », Transport Research Procedia, vol. 25, pp. 3645 – 3655, 2017, World Conference on Transport Research -WCTR 2016 Shanghai. 10-15 juillet 2016.

[31] M. G. McNally et C. Rindt, « The activity-based approach », dans Handbook of Transport Modelling, vol. 1, 2008, p. 55-73.

[32] B. Bach, P. Dragicevic, D. Archambault, C. Hurter et S. Carpendale, « A Descriptive Framework for Temporal Data Visualizations Based on Generalized Space-Time Cubes », Computer Graphics Forum, 2016. [33] JG Grandi, HG Debarba, I. Bemdt, L. Nedel et A. Maciel, « Design

et évaluation d'une technique d'interaction 3D collaborative pour la réalité augmentée portable », en 2018 IEEE Conference on Virtual Reality and 3D User Interfaces (VR), 2018, pp. 49-56.

[34] B. Pagno, D. Costa, L. Guedes, C. D. S. Freitas et L. Nedel, « Guidelines for designing dynamic applications with second screen », dans

2015 XVII Symp. sur la réalité virtuelle et augmentée, 2015, pp. 42-51. [35] M. Arvola et A. Holm, « Device-orientation is more

drag (au moins dans l'informatique mobile) », dans Actes de la 8e conférence nordique sur l'interaction homme-machine : amusant, rapide, fondamental. ACM, 2014, p. 939-942.

[36] A.-C. ré. CEREMA [producteur], « Enquete M´enages D´eplacements (EMD), Grenoble, Grande Région Grenobloise », 2010.

[37] II André-Poyaud, S. Chardonnel, LL Charleux et K. Tabaka, « La mobilité au cœur des emplois du temps des citadins », in La mobilité qui fait la ville, 2008, pp. 67-95.

[38] J. Zhao, P. Forer et A. S. Harvey, "Activities, ringmaps and geovisu-alization of large human movement fields," Information Visualization, vol. 7, non. 3-4, p. 198-209, 2008.

[39] F. Bahoken, « Mapping flow matrices, une contribution », Thèses, Université Paris Diderot (Paris 7), 2016.

[40] S. G. Hart et L. E. Staveland, « Development of NASA-TLX (Task Load Index) : Résultats de la recherche empirique et théorique », dans Human Mental Workload, 1988, vol. 52, p. 139 – 183.

[41] J. Brookeet al., « SUS – Une échelle d'utilisabilité rapide et sale », Évaluation de l'utilisabilité dans l'industrie, vol. 189, non. 194, p. 4-7, 1996.

[42] J. R. Lewis, B. S. Utesch et D. E. Maher, « UMUX-LITE : When there's no time for the sus », dans Actes de la conférence SIGCHI sur les facteurs humains dans les systèmes informatiques, ser. CHI '13. New York, NY, États-Unis : ACM, 2013, pp. 2099-2102.


MISE À JOUR RADAR, EO/IR, C-UAS, VISION NOCTURNE ET SURVEILLANCE

12 21 mai. Crowsnest sera retiré d'ici la fin des décennies. Un communiqué récent de l'accélérateur de défense et de sécurité du Royaume-Uni (DASA) a déclaré que le Royaume-Uni retirerait son système d'alerte précoce aéroporté Crowsnest (AEW) en difficulté, qui vient tout juste d'entrer en service initial, avant la fin de la décennie.

DASA s'est associé à la Royal Navy dans le cadre d'un concours de 1,25 million de livres sterling pour des «innovations qui améliorent la connaissance de la situation pour les porte-avions de la Royal Navy et les groupes d'attaque du littoral» dans le but de remplacer Crowsnest.

Le communiqué de DASA indique que "l'hypothèse" actuelle pour le remplacement de Crowsnest est un grand radar singulier monté sur un système aérien sans équipage (UAS), cependant, DASA a ajouté qu'il était intéressé par des solutions alternatives potentielles.

Le communiqué ajoute : « DASA accueille les alternatives qui ne sont pas basées sur cette approche et correspondent ou dépassent les capacités aéroportées actuelles.

"Nous recherchons un successeur potentiel à Crowsnest, dont la date de mise hors service est prévue en 2029."

Auparavant, Naval Technology avait révélé des détails sur le projet Vixen de la Royal Navy, qui étudie l'utilité des UAS navals qui pourraient être utilisés pour des missions de frappe, d'AEW et de ravitaillement en vol.

Les travaux sur le projet Vixen ont été révélés peu de temps après que la Royal Navy a publié une demande de propositions (RFP) pour d'éventuels systèmes de catapulte électromagnétique et de fil d'arrêt qui pourraient être utilisés pour lancer et récupérer des « véhicules aériens » d'un « navire approprié » d'ici 2023.

Au moment de la DP, Naval Technology a signalé que les chats et les pièges soutiendraient probablement l'exploitation future des UAS des deux porte-avions pour les rôles AEW et potentiels de ravitaillement en vol en vol (AAR).

Le système Crowsnest existant devrait faire ses débuts opérationnels lors du premier déploiement cette année du nouveau groupe aéronaval du Royaume-Uni centré autour du HMS Queen Elizabeth.

Le système se compose d'un radar AEW monté sur un hélicoptère Merlin Mk2.

DASA est à la recherche d'idées susceptibles d'améliorer « la capacité de surveillance horizontale et/ou de détection de cibles », « l'efficacité opérationnelle grâce au traitement et à la diffusion rapides des informations » et « l'efficacité opérationnelle grâce à l'optimisation de la fonctionnalité du système ».

Dans le passé, le développement de Crowsnest a été critiqué par la commission des comptes publics du Parlement, qui a déploré une "surveillance départementale inadéquate" du ministère de la Défense sur le programme.

À la fin de l'année dernière, les députés ont déclaré que le programme avait 18 mois de retard. Le radar aéroporté devrait désormais atteindre sa pleine capacité opérationnelle en 2023. (Source : naval-technology.com)

19 21 mai. Al-Udeid exploite un nouveau système de contre-drone au milieu de la menace croissante des UAS. La principale base d'opérations de l'armée de l'air au Moyen-Orient a adopté un nouveau système de contre-drone, d'abord déployé dans les bases nucléaires du pays pour les protéger de la menace croissante des systèmes aériens sans pilote.

La base aérienne d'Al-Udeid, au Qatar, a récemment déployé l'outil de contre-petits systèmes aériens sans pilote pour protéger la base tentaculaire, qui abrite le centre névralgique des opérations aériennes, de la mobilité et du ravitaillement au Moyen-Orient, ainsi que des avions d'attaque, y compris des B-52. Le nouveau système permet à ses opérateurs d'identifier les menaces entrantes et de rompre la connexion entre le drone et l'opérateur, selon un communiqué du commandement central des forces aériennes.

"L'objectif du programme est de mettre en place des contre-mesures pour Al-Udeid AB qui constitueraient une dernière ligne de défense contre toutes les petites menaces UAS", a déclaré le sergent-chef. Ryan Walters, sous-officier du 379e Escadron des forces de sécurité expéditionnaire en charge du programme C-UAS.

L'Air Force Global Strike Command et le U.S. Strategic Command ont déployé le système pour la première fois sur un nombre non divulgué de sites en 2019. Le service a déclaré à l'époque que les systèmes utilisaient le commandement et le contrôle, la détection et le brouillage pour contrer les drones.

À Al-Udeid, les opérateurs suivent un cours de 40 heures, qui comprend des travaux pratiques, avant de pouvoir utiliser les systèmes. Le système est « adapté » aux menaces spécifiques à la région, qui a vu des attaques d'UAS contre des sites militaires américains en Irak et des installations pétrolières en Arabie saoudite.

"Nous sommes en mesure de présenter nos capacités défensives et d'adapter les briefings C-UAS avec un contexte historique aux menaces dans la région", a déclaré le major Shawna Rogers, officier supérieur du renseignement de la 379th Air Expeditionary Wing, dans un communiqué.

Le patron du Commandement central des États-Unis, l'USMC, le général Kenneth F. McKenzie Jr. a déclaré aux législateurs le mois dernier que les drones représentaient la menace la plus «persistante et dangereuse» pour les troupes et que les contrer était une priorité absolue.

"Ces UAS de petite et moyenne taille qui prolifèrent dans la [zone d'opérations] présentent une menace nouvelle et complexe pour nos forces et celles de nos partenaires et alliés", a déclaré McKenzie. « Pour la première fois depuis la guerre de Corée, nous opérons sans supériorité aérienne complète. »

(Source : Defence News Early Bird/https://www.airforcemag.com/)

20 21 mai. Cambridge Pixel dévoile une application évolutive de « vidéo radar dans un navigateur Web standard » basée sur le cloud.

Le nouveau logiciel de Cambridge Pixel permet l'affichage d'images radar sophistiquées avec des cartes et une symbologie de cible sur n'importe quel ordinateur, tablette ou smartphone exécutant un navigateur Web standard tel que Edge, Firefox, Safari ou Chrome.

Cambridge Pixel, un développeur de sous-systèmes d'affichage radar, de suivi et d'enregistrement (www.cambridgepixel.com), a introduit de nouveaux composants logiciels pour permettre l'affichage de la vidéo radar sur n'importe quel ordinateur, tablette ou téléphone intelligent exécutant un navigateur Internet standard tel que comme Edge, Firefox, Safari ou Chrome.

Cette application Radar Video in a Browser simplifie la construction d'applications d'affichage Web pour les intégrateurs de systèmes maritimes, navals, de trafic aérien et de sécurité. Les nouveaux composants logiciels permettent d'afficher la vidéo radar avec des cartes, des pistes (pistes radar primaires, pistes fusionnées, AIS, ADS-B) et des alarmes dans le cadre d'une image de surveillance intégrée. Le traitement radar peut être géré par un serveur distant ou fourni via une architecture basée sur le cloud pour une évolutivité rapide, avec des licences pour prendre en charge jusqu'à 100 clients.

Andrew Haylett, chef de produit chez Cambridge Pixel, a déclaré : « Beaucoup de nos clients, en particulier ceux qui développent des systèmes de trafic maritime et de sécurité portuaire, commencent à adopter des applications d'affichage Web. L'approche basée sur un navigateur sépare le traitement de l'affichage et, par conséquent, tout appareil capable d'exécuter un navigateur peut servir d'affichage. Cela peut simplifier le déploiement d'une nouvelle installation et réduire les coûts, car le seul logiciel nécessaire à l'affichage est le navigateur lui-même.

Dans le cadre du nouveau produit, une application serveur de conversion de balayage, SPx Radar Web Server, reçoit la vidéo radar et crée des images radar. Le navigateur se connecte au serveur et demande une vidéo radar pour la zone géographique qu'il affiche. L'image radar pour cette zone est créée et livrée au navigateur où elle est mélangée avec des graphiques sous-jacents et superposés, y compris des cartes et une symbologie cible.

Le Radar Web Server aide également à l'affichage des traces. Le serveur reçoit les pistes d'un tracker cible et fournit sélectivement ces pistes au format GeoJSON aux clients connectés. Les zones géographiques d'intérêt du client servent de filtre pour contrôler la livraison des rapports de suivi. Les messages de suivi JSON sont ensuite rendus dans le navigateur à l'aide de JavaScript.

« Notre application d'affichage radar basée sur le Web offre aux intégrateurs une grande flexibilité et notre solution basée sur le cloud permet une évolutivité instantanée pour ajouter plus de clients selon les besoins », a déclaré Andrew Haylett. « De plus, chaque navigateur a sa propre vue unique de l'image radar, ayant effectivement son propre convertisseur de balayage dédié fonctionnant dans SPx Radar Web Server, permettant à un opérateur de modifier l'échelle et la position indépendamment des autres utilisateurs et de voir la vidéo radar en entier résolution."

La suite de bibliothèques logicielles et d'applications SPx de Cambridge Pixel fournit des produits logiciels prêts à l'emploi hautement flexibles ou des « modules d'expertise » pour la conversion de balayage radar, la visualisation, la distribution vidéo radar, le suivi de cibles, la fusion de capteurs, l'extraction de tracés et le traitement du fouillis. .

La technologie radar de Cambridge Pixel est utilisée dans la marine, le contrôle du trafic aérien, le trafic maritime, les systèmes sans pilote, les systèmes d'affichage et d'information de cartes électroniques (ECDIS), la navigation commerciale, la sécurité, la surveillance et les applications de radar aéroporté. Ses systèmes et logiciels ont été mis en œuvre dans des applications critiques avec des sociétés telles que BAE Systems, Frontier Electronic Systems, Blighter Surveillance Systems, Exelis, Hanwha Systems, Kelvin Hughes, Lockheed Martin, Navtech Radar, Raytheon, Royal Thai Air Force, Saab Sensis , Sofresud et Tellumat.

Pour plus d'informations sur la technologie radar de Cambridge Pixel, rendez-vous sur www.cambridgepixel.com ou appelez le : +44 (0) 1763 852749 ou envoyez un e-mail : [email protected]

19 21 mai. Thales livre le premier radar entièrement numérique Sea Fire avec antenne active pour les futures frégates françaises FDI.

  • Le 27 avril 2021, Thales a livré le premier radar numérique Sea Fire à intégrer sur la première frégate de défense et d'intervention de la Marine nationale à Lorient.
  • Une étape clé dans le programme des IDE, après sept ans de développement et en ligne avec le calendrier initial de la Direction Générale des Marchés de la Défense.
  • Le Sea Fire est le radar multifonction modulaire à semi-conducteurs de dernière génération, doté d'une antenne AESA1 à quatre panneaux, assurant simultanément la surveillance aérienne et de surface à longue portée, ainsi que la conduite de tir pour protéger les frégates françaises de tous types de menaces dans des complexes environnements.

1 matrice active à balayage électronique

Lancé en 2014, le premier des cinq radars numériques Sea Fire AESA de la future Frégate de Défense et d'Intervention (FDI) de la Marine Nationale est arrivé au chantier naval de Lorient le 27 avril 2021 pour intégration sur le premier navire.

Les forces navales d'aujourd'hui sont confrontées à des menaces plus rapides, plus manœuvrables et de plus en plus complexes. Les navires ont besoin de protection contre les menaces balistiques ou aériennes conventionnelles, les menaces de surface et asymétriques, mais aussi contre les attaques à grande vitesse et à saturation. Dans le même temps, ils doivent prendre en compte la réduction des besoins en équipage, la nécessité d'une meilleure maintenance et les impératifs de la cybersécurité.

Sea Fire est la solution de choix pour les commandants chargés d'assurer la survie des navires face à un éventail de menaces en expansion rapide. Avec son antenne AESA à quatre panneaux entièrement à semi-conducteurs, Sea Fire peut rechercher simultanément des cibles aériennes et de surface, en balayant une zone de plusieurs centaines de kilomètres carrés avec une couverture à 360 ° en azimut, 90 ° en élévation et un taux de rafraîchissement inégalé.

Ce radar numérique est à la pointe de l'innovation technologique et bénéficie de toute l'expertise Big Data et cybersécurité de Thales. Les développements logiciels ultérieurs amélioreront encore les performances et la disponibilité opérationnelle du produit tout au long de son cycle de vie. Les énormes volumes de données générés par chaque panneau - de l'ordre d'un térabit par seconde - peuvent être traités à l'aide d'algorithmes avancés pour optimiser les performances du radar dans son environnement d'exploitation spécifique. Ce nouveau radar à réseau fixe AESA offre une disponibilité opérationnelle deux fois plus élevée que les systèmes radar de génération précédente avec des antennes à balayage mécanique.

Fabriqué à Limours, au sud de Paris, avec l'implication d'un réseau français de petites et moyennes entreprises, le Sea Fire a démarré sa production en mai 2018 et a passé avec succès les premiers tests de qualification fin 2020. Malgré les difficultés liées à la crise du Covid-19, Thales aligné sur le planning initial prévu, en livrant à temps le premier des cinq radars Sea Fire au chantier naval de Lorient pour intégration.

« S'appuyant sur plus de 70 ans d'expérience de Thales dans le domaine des radars de surface, le Sea Fire est conçu pour aider les marines à contrer tous types de menaces, des cibles lentes aux missiles supersoniques. Thales est fier d'être à bord du futur Des frégates FDI avec un radar numérique qui apporte aux frégates modernes la même puissance et les mêmes performances qu'un destroyer et garantit que les commandants peuvent remplir leur mission avec une sécurité optimale. Rémi Mongabure, directeur des offres radars multifonctions chez Thales.

18 21 mai. Gigajot dévoile les premiers capteurs d'image Quanta au monde disponibles dans le commerce. Gigajot Technology, inventeur du Quanta Image Sensor (QIS), a annoncé aujourd'hui les premiers produits QIS, marquant l'aube d'une nouvelle ère dans l'imagerie à l'état solide. Les dispositifs QIS basés sur CMOS utilisent l'architecture de capteur brevetée de Gigajot et la conception de pixels pour obtenir un faible bruit record qui permet une détection précise des photons individuels de la lumière. Les nouveaux produits QIS sont capables de compter les photons à température ambiante tout en fonctionnant à pleine vitesse et en atteignant une plage dynamique élevée, le tout dans des formats de petits pixels et haute résolution. Avec une amélioration du bruit de lecture de 5 à 10 fois par rapport aux capteurs d'image conventionnels à petits pixels, le QIS permet une imagerie à des niveaux de lumière ultra-faibles qui n'étaient pas possibles auparavant.

Les produits QIS pionniers de Gigajot ciblent les applications d'imagerie hautes performances telles que la science, la médecine, la défense, l'industrie et l'espace. Le GJ01611 de 16 mégapixels utilise un pixel de 1,1 micron pour atteindre un bruit de lecture de 0,19 électron à température ambiante et moins de 0,09 électron/seconde/pixel de courant d'obscurité, tandis que le GJ00422 de 4 mégapixels utilise un pixel de 2,2 microns et fournit un bruit de lecture de 0,27 électron avec plage dynamique élevée à exposition unique de 100 dB. Ces innovations seront présentées lors du Symposium sur la technologie VLSI, le 19 juin 2021. Tirant parti de la technologie avancée de processus de capteur CMOS rétro-éclairé (BSI), les capteurs sont capables de compter les photons à température ambiante sans systèmes de refroidissement élaborés - rendus possibles par l'industrie courant d'obscurité et bruit de lecture. L'architecture de lecture propriétaire de Gigajot permet aux caméras de comptage de photons de fonctionner à grande vitesse et à faible consommation. De plus, la plage dynamique élevée à exposition unique atténue les artefacts de mouvement résultant des techniques HDR multi-exposition conventionnelles.

Le comptage de photons et la résolution fiable du nombre de photons, jusqu'à présent, n'étaient que partiellement disponibles en utilisant la technologie EMCCD ésotérique dans des environnements de laboratoire hautement contrôlés, sont désormais possibles avec une caméra compacte, fonctionnant à température ambiante – avec les avantages supplémentaires d'une résolution plus élevée et la vitesse. « La possibilité de compter les photons à température ambiante change la donne pour nos efforts de recherche en astrophysique et en sciences de l'information quantique », a déclaré le Dr Don Figer, directeur du Center for Detectors et de la Future Photon Initiative du College of Science. , Institut de technologie de Rochester.

L'évaluation et le développement de caméras GJ00422 et GJ01611 sont pris en charge par le kit de développement de caméra Gigajot® (QIS CDK). Disponible dès maintenant, le QIS CDK dispose d'une interface SuperSpeed ​​USB 3.0 et d'un logiciel convivial, dans un format compact. Capable de compter les photons dès la sortie de la boîte, le QIS CDK peut être configuré en quelques minutes pour évaluation ou intégré directement dans les systèmes du client.

À propos de Gigajot Technology, Inc. : Basée à Pasadena, en Californie, Gigajot développe la prochaine génération de capteurs d'image. La mission de Gigajot est de développer des dispositifs innovants de capteur d'image Quanta (QIS) et de faire progresser cette technologie pour la prochaine génération de capteurs d'image, offrant une détection de photon unique à haute vitesse et haute résolution pour réaliser de nouvelles capacités de capture d'images sans précédent pour les professionnels, et les caméras grand public. Chez Gigajot, chaque photon compte. Pour plus d'informations, visitez www.gigajot.tech. (Source : PR Newswire)

14 21 mai. SkyDome de Fortem "en cours d'évaluation par le département américain de la Sécurité intérieure. Le service de presse ExecutiveGov rapporte que le département américain de la Sécurité intérieure s'est associé à Fortem Technologies pour évaluer l'application potentielle d'un système de surveillance de l'espace aérien construit par l'entreprise aux missions de sécurité frontalière dans le cadre d'un accord de recherche et développement coopératif.

"Fortem a annoncé mardi qu'il présenterait le système SkyDome avec une technologie de détection d'objets aériens au programme de sensibilisation et de protection du domaine aérien du DHS pour un test de démonstration dans plusieurs scénarios opérationnels dans trois États américains frontaliers du Canada", indique le reportage. « Skydome comprend le radar TrueView basé sur l'intelligence artificielle et un logiciel conçu pour suivre les drones néfastes en temps réel. Timothy Bean, PDG de Fortem, a déclaré que la société a conçu sa technologie radar pour se défendre contre les drones qui n'émettent pas de signaux de radiofréquence et posent des risques pour la sécurité nationale.

« L'effort ADA du DHS recherche des plates-formes et des approches de surveillance pour protéger la frontière nord des États-Unis contre les systèmes d'aéronefs sans pilote et d'autres menaces aériennes. Le département utilisera les données du test pour définir les exigences des futurs programmes de sécurité aérienne. »

19 21 mai. Le spécialiste britannique de la détection des menaces Silent Sentinel (www.silentsentinel.com) a signé un contrat avec le fournisseur de solutions Counter-UAS SKYLOCK (www.skylock1.com) pour fournir une livraison rapide de ses plates-formes de caméras thermiques Jaegar Ranger 225 LWIR non refroidi et Jaegar Searcher 700 refroidi MWIR pour une utilisation par un gouvernement d'Afrique de l'Est, avec un délai de livraison de six semaines. SKYLOCK fait partie du groupe israélien Avnon. Afin de répondre à un besoin opérationnel immédiat sans précédent, Silent Sentinel fournira une caméra thermique non refroidie Jaegar Ranger 225 LWIR ainsi qu'une caméra thermique MWIR refroidie Jaegar Searcher 700. L'unité Jaegar Pan and Tilt (PTU) fera partie des deux systèmes.

Les caméras seront montées sur des véhicules et sont bien adaptées aux missions de détection de drones. L'arbre traversant unique du Jaegar permet à un radar de s'asseoir au-dessus du PTU, permettant une rotation continue à 360 ° ininterrompue, idéale pour les applications de détection et de suivi de drones. Le radar sera fourni par Observation Without Limits et le logiciel C-UAS fourni par MyDefence, une filiale de SKYLOCK.

Le Jaegar est doté d'un mécanisme de libération rapide qui permet de monter une gamme de charges utiles interchangeables sur le PTU, ce qui rend la plate-forme extrêmement modulaire. Le Jaegar est classé IP67, ce qui signifie que son boîtier robuste garantira des performances élevées même dans les conditions difficiles de l'Afrique de l'Est. Adapté aux applications mobiles et montées sur véhicule, l'arbre traversant du Jaegar permet à la caméra de tourner en continu sur 360 °, offrant une détection efficace à longue portée de petites cibles aériennes pendant que le véhicule se déplace sur un terrain accidenté.

Silent Sentinel a pu effectuer à distance des tests d'acceptation en usine rigoureux et livrera le système moins de six semaines après sa commande, répondant aux besoins immédiats du client rapidement et efficacement et démontrant sa capacité à répondre aux commandes exceptionnelles.

James Longcroft, directeur des ventes chez Silent Sentinel, a déclaré : « Ce contrat représente une opportunité de montrer la durabilité et la précision de la caméra Jaegar dans les opérations de Counter-UAS, ainsi que l'agilité et l'efficacité de Silent Sentinel dans la livraison du système malgré un tel redressement rapide. Cette solution C-UAS montée sur véhicule est révélatrice de la position de Silent Sentinel en tant que fournisseur de détection de menaces polyvalente dans un large éventail de climats et de conditions. »

Ofer Kashan, CTO de SKYLOCK a déclaré : « Cette première phase de livraison nécessitait un fournisseur agile capable de fournir des équipements polyvalents et durables dans un délai court, et nous sommes heureux d'annoncer ce partenariat avec Silent Sentinel, dont les systèmes hautes performances fonctionner de manière transparente aux côtés de notre expertise Counter-UAS pour répondre aux besoins uniques de nos clients dans cet environnement difficile. »

12 21 mai. Le gouvernement australien promet 35,7 millions de dollars australiens pour soutenir la technologie UTM émergente. Le vice-Premier ministre australien Michael McCormack a annoncé de nouvelles mesures politiques visant à créer un système de gestion du trafic sans pilote (UTM) en collaboration avec la Défense, les services aériens et la Civil Aviation Safety Authority (CASA), selon un rapport d'Australian Aviation. Le ministre McCormack a promis d'investir 35,7 millions de dollars australiens dans la technologie aéronautique émergente, sur la base des plans énoncés dans la déclaration de politique nationale du gouvernement sur les technologies de l'aviation émergentes (NEAT) publiée la semaine dernière. Le NEAT a déclaré que le ministère de l'Infrastructure prépare un «plan d'action» pour créer un système de style de contrôle du trafic aérien conçu pour fonctionner conjointement avec les processus existants pour les avions traditionnels. Il comprendra également un nouveau réseau national de détection de drones qui utilisera des capteurs pour surveiller les appareils et protéger la confidentialité, le bruit et leur utilisation sur les sites culturels. Il vise à commencer les opérations initiales en 2023, a déclaré Australian Aviation.

"La croissance de l'utilisation des drones et de l'eVTOL en Australie devrait soutenir plus de 5 000 emplois et une augmentation de 14,5 milliards de dollars australiens du PIB au cours des 20 prochaines années, dont 4,4 milliards de dollars australiens dans les régions de la Nouvelle-Galles du Sud, du Queensland et Victoria », a déclaré le vice-Premier ministre McCormack.

Pour plus d'informations, visitez : www.australianaviation.com (Source : www.unmannedairspace.info)

18 21 mai. AVT Australia fait une démonstration de Micro Gimbal aux parties prenantes de la défense. AVT Australia a présenté avec succès son micro cardan innovant CM62 au personnel clé du Defense Science & Technology Group (DST), du Defense Innovation Hub (DIH) et de l'Australian Defence Force (ADF).

AVT Australia a mené une série de démonstrations en vol, en laboratoire et environnementales pour présenter les capacités du CM62 Micro Gimbal. Cela comprenait des démonstrations d'imagerie ultra-zoom électro-optique (EO), infrarouge à ondes longues (LWIR) et une gamme de fonctionnalités intelligentes embarquées.

Le CM62 Micro Gimbal est un système d'imagerie multi-capteurs miniature qui a été développé pour fournir des capacités améliorées de renseignement, de surveillance et de reconnaissance (ISR) et d'acquisition de cibles lors d'opérations de petits systèmes aériens sans pilote (sUAS).

Le système combine des images EO HD à longue portée et un noyau LWIR personnalisé dans un système compact de 260 g. Avec une stabilisation améliorée, le Micro Gimbal facilite la détection et l'identification précises des cibles de jour comme de nuit, dans un système petit, léger et à faible consommation d'énergie pour améliorer la conscience de la situation de l'opérateur sur le terrain.

« AVT Australia a établi la norme de l'industrie pour les systèmes d'imagerie miniatures gyrostabilisés pour les opérations ISR et d'acquisition de cibles », a déclaré Philipp Senn, directeur de la technologie. « Les capacités du CM62 Micro Gimbal n'ont jamais été atteintes auparavant dans un système de sa taille, de son poids et de sa puissance. Nous sommes fiers de développer des capacités de pointe ici en Australie. » (Source : UAS VISION)

18 21 mai. Trident Aerospace atteint les 4 000 heures de vol ISR avec le drone Hydra Technologies S-45 BAALAM. Trident Aerospace, la société de services ISR du groupe basée à Phoenix et fortement présente en Amérique latine, a annoncé qu'un de ses clients a atteint 4 000 heures de vol dans le cadre d'un contrat de services ISR continu sur une période de 24 mois. Fournir un soutien constant aux opérations critiques d'application de la loi et dépasser les exigences contractuelles de 1 500 heures de vol par an.

« Nous sommes fiers d'annoncer cette étape importante, réalisée avec un système S45 BAALAM d'Hydra Technologies. Les S-45 ont volé avec succès en soutenant les opérations d'application de la loi du client et ont parfaitement fonctionné malgré des missions difficiles et des conditions météorologiques parfois extrêmes », a déclaré Robert Morris de Trident Aerospace. « Ce n'est qu'un exemple de la fiabilité du S45 qui a réussi à répondre avec succès aux besoins du client à tout moment. »

Spécialement conçu pour les conditions météorologiques difficiles, l'UAV S-45 BAALAM est un système aérien tactique sans pilote bimoteur avec une autonomie de 12 heures, une portée de commandement et de contrôle de 75 miles et un plafond opérationnel de 17 000 pieds. Les charges utiles incluent les capacités EO/IR ainsi que SIGINT et ELINT. Trident Aerospace propose des solutions ISR complètes détenues ou exploitées par des entrepreneurs, ainsi que la vente de leurs systèmes aériens sans pilote complets, pour les institutions gouvernementales dans les domaines de la protection des frontières, de l'application de la loi et du renseignement. La société fournit également des solutions aux clients du secteur privé tels que les entreprises de services publics, de pétrole et de gaz grâce à des solutions de systèmes aériens sans pilote sophistiqués, en plus des systèmes sans pilote.

Trident Aerospace et Hydra Technologies ont récemment annoncé une alliance de grande envergure qui s'avère certainement fructueuse et particulièrement bénéfique pour les clients à travers le continent américain, l'Afrique et le Moyen-Orient. (Source : UAS VISION)

17 21 mai. J'espionne avec mon petit œil… La caméra MI5 qui est si petite qu'elle est presque invisible. Les détails sur l'appareil sont top secrets, mais les services de sécurité britanniques ont investi des millions dans le développement de la technologie « ultra miniature » L'appareil photo miniature proposé sera beaucoup plus petit que l'un des appareils miniaturisés récents des développeurs (photo monté sur des ailes de papillon ), qui a été utilisé pour suivre les insectes lors de leur migration CRÉDIT : Université du Michigan

L'armée et les services de renseignement britanniques paient l'inventeur du plus petit ordinateur au monde pour développer une caméra espion "ultra miniature".

Les détails sur l'appareil - y compris sa taille et son fonctionnement - sont top secrets, mais il est susceptible d'être si petit qu'il est à peine visible à l'œil nu.

L'appareil photo est développé par le professeur David Blaauw et son équipe de l'Université du Michigan, qui ont inventé le plus petit ordinateur du monde. Leur ordinateur Michigan Micro Mote - M3 - s'adapte facilement sur le bord d'une pièce et ne mesure pas plus de 0,3 mm de chaque côté. Une version antérieure ne mesurait que 1 mm sur 1 mm sur 1 mm.

L'université se vante de sa dernière version, dévoilée en 2018, est « éclipsée par un grain de riz ». Le professeur Blaauw, professeur d'ingénierie électrique et informatique, a utilisé son système de « faible consommation » pour même installer des dispositifs de suivi sur les papillons.

Il a développé une expertise dans la construction de micropuces puissantes mais minuscules qui utilisent de très faibles niveaux d'énergie. Les micropuces ont des centaines d'utilisations, des implants médicaux à la surveillance des sols, mais c'est leur déploiement potentiel dans des dispositifs de surveillance qui a attiré l'attention des services militaires et de sécurité britanniques.

Q de James Bond – le personnage fictif qui invente la panoplie de gadgets déroutants de l'espion – serait fier.

Les détails du financement, découverts par The Telegraph, montrent que près de 1,5 million de livres sterling d'argent des services militaires et de renseignement du Royaume-Uni ont été versés au professeur Blaauw pour le développement de la caméra miniature

Le projet est financé par le Laboratoire des sciences et technologies de la défense (DSTL), l'unité de recherche scientifique mondialement connue du ministère de la Défense basée à Porton Down dans le Wiltshire, et par la Direction de la planification des communications du gouvernement (GCPD) peu connue. Le GCPD est la branche d'approvisionnement du MI5, l'agence de renseignement nationale, et du MI6, son homologue du renseignement étranger.

L'existence de GCPD est bien connue dans le monde de l'espionnage, mais reste largement dans l'ombre et la plupart des gens, y compris de nombreux membres du gouvernement, ne sont pas conscients de son rôle important dans la sécurité du Royaume-Uni.

Le professeur Blaauw, s'exprimant depuis l'Université du Michigan à Ann Arbor aux États-Unis, a déclaré au Telegraph qu'il n'était pas en mesure de discuter des projets militaires et de renseignement sur lesquels il travaillait pour le gouvernement britannique. « Je ne peux pas vraiment parler de ce projet », a-t-il déclaré.

Mais le projet obtient une brève mention sur son très long CV académique, mis en ligne. Le document révèle que la «Direction de la planification des communications du gouvernement (GCPD)/Laboratoire des sciences et technologies de la défense (DSTL)» a fourni un financement pour le développement d'un «démonstrateur technique d'imageur ultra-miniature».

Le Telegraph comprend qu'il s'agit essentiellement d'une caméra utilisée dans la surveillance, mais qu'elle serait si petite qu'elle serait pratiquement indétectable. Le financement total du projet est de 1 715 524 $ –, soit un peu plus de 1,2 million de livres sterling.

Le financement du projet a commencé en juillet 2019 et a duré trois ans jusqu'en avril de cette année. On ne sait pas si le projet est terminé.

Bien que le professeur Blaauw ne puisse pas parler du travail spécifique, il a déclaré au Telegraph : « Nos systèmes généraux ont une taille de l'ordre de quelques millimètres. Les plus petits que nous avons sont encore plus petits que cela – environ un quart de millimètre.

« Ils sont très petits mais ont des capacités très limitées. Ils peuvent détecter la température et la pression. Ils sont si petits qu'ils font ressembler un grain de riz à un ballon géant.

Le professeur Blaauw a déclaré qu'il avait commencé à travailler sur des micro-ordinateurs il y a un peu plus de 20 ans et qu'il avait produit les premiers « petits systèmes à faible consommation d'énergie » en 2011. L'un de ses projets les plus récents consiste à installer des capteurs sur les papillons monarques pour « les suivre comme ils migrent chaque année du nord des États-Unis vers le Mexique ».

Bien que les concurrents d'IBM et d'ailleurs aient tenté de rivaliser avec ses ordinateurs miniatures, le professeur Blaauw a déclaré: "En termes de systèmes complets de cette taille, personne ne s'est approché de nous."

Le fait que les agences britanniques aient approché le professeur Blaauw et son équipe démontre la compréhension à Whitehall pour le renseignement et l'armée britanniques pour pouvoir déjouer les États hostiles, parmi lesquels la Russie et la Chine, qui disposent de ressources presque illimitées - certainement en termes de main-d'œuvre. – à jeter à ses capacités d'espionnage. Le Royaume-Uni reconnaît la nécessité de développer et de déployer une technologie révolutionnaire pour garder une longueur d'avance sur ses concurrents. (Source : Daily Telegraph)

14 21 mai. Le nouvel avion de renseignement de Raytheon pourrait changer le jeu de la guerre. Malgré l'arrivée rapide de plus petits types de drones de surveillance et de nouveaux types de systèmes sans pilote, il existe toujours un besoin pressant d'une nouvelle génération d'innovations prenant en charge les missions avancées de renseignement, de surveillance et de reconnaissance à voilure fixe.

Trouver des convois blindés ennemis à l'arrière d'une montagne au-delà de la ligne de mire, soutenir les opérations de défense antimissile balistique, suivre les cibles ennemies depuis le ciel avec des capteurs optiques, multispectraux et radiofréquence, et mettre en réseau des données de combat sensibles au temps dans plusieurs domaines en temps quasi réel en pleine guerre. . . sont toutes des missions que les moyens de surveillance à voilure fixe des États-Unis, du Royaume-Uni et de l'OTAN seront de plus en plus appelés à effectuer.

Malgré l'arrivée rapide de plus petits types de drones de surveillance et de nouveaux types de systèmes sans pilote, il existe toujours un besoin pressant d'une nouvelle génération d'innovations prenant en charge le renseignement, la surveillance et la reconnaissance avancés à voilure fixe avec un traitement, une transmission et un commandement avancés des données aériennes. contrôler.

Avec cette orientation stratégique à l'esprit, divers innovateurs de l'industrie tels que Raytheon et Bombardier présentent un nouvel avion de surveillance à voilure fixe de haute technologie, appelé ISTAR, pour le renseignement, la surveillance, l'acquisition d'objectifs et la reconnaissance.

Le nouvel avion, construit par Bombardier, conçu et modifié par Raytheon pour la mission ISTAR, avec le soutien et la modification dans le pays par Korean Airlines Defence, est proposé pour soutenir l'armée coréenne ainsi que d'autres alliés clés des États-Unis dans le monde.

Raytheon l'offre en tant qu'avion de mission spéciale de nouvelle génération après le retrait de l'avion britannique Sentinel le 31 mars, un avion de surveillance britannique inspiré de la guerre froide qui a bien fonctionné dans un grand nombre de circonstances opérationnelles pendant de nombreuses années, pour comprennent les Balkans, l'Irak, l'Afghanistan, la Libye et diverses opérations de l'OTAN.

« La Sentinelle a été une capacité de base qui a été déployée à peu près dans chaque opération britannique ou opération de coalition, que le Royaume-Uni y ait été impliqué et c'est simple, volant depuis le Royaume-Uni, mais le plus souvent, la plate-forme est profondément déployée à l'étranger, que ce soit dans la région du Moyen-Orient, en Afrique, ou en soutien aux opérations en Afghanistan », a déclaré Paul Francis, directeur de Raytheon Royaume-Uni. « Il a un solide profil d'heures de vol. Je pense que c'est comme 32 000 heures d'opérations réelles en soutien aux opérations de combat. »

Conçu pour le commandement et le contrôle aéroportés, ISTAR est la dernière solution proposée qui intègre une suite de capteurs intégrés de nouvelle génération activés par l'informatique de pointe. L'avion exploite bien sûr une imagerie multispectrale, des capteurs d'intelligence électromagnétique et intègre également un radar à synthèse d'ouverture (SAR), une technologie qui fait rebondir les « pings » électromagnétiques sur le terrain ci-dessous se déplaçant à la vitesse de la lumière, puis analyse le signal de retour pour produire un rendu ou une image d'une zone donnée pour les commandants.

« Le cœur du système est le radar AESA de Raytheon, qui est un radar à ouverture synthétique, avec une capacité indiquée par une cible mobile. Et c'était le capteur principal du Sentinel », a déclaré Jason Colosky, responsable du développement commercial chez Raytheon Intelligence & Space.

L'avion ISTAR est également pris en charge et le radar à ouverture synthétique inverse (ISAR) et l'indication de cible mobile (MTI) fonctionnent de manière similaire, ce qui le rend utile dans un environnement maritime pour suivre les navires en mouvement ou détecter les manœuvres de véhicules terrestres ennemis sur terre. Le suivi des mouvements terrestres est également effectué par la technologie de capteur d'indicateur de cible mobile au sol (GMTI) d'ISTAR, quelque chose qui, selon les données de Raytheon, s'intègre aux applications SAR. La connexion entre les modes GMTI et SAR est rendue possible par un système de radar à balayage électronique actif avancé qui peut même, dans certains cas, prendre en charge la défense antimissile balistique.

Cet effet combiné ou intégré entre la détection SAR terrestre et maritime est expliqué en partie dans un essai de 2019 dans le Journal of Ocean Engineering and Science, qui traite de l'impact des innovations de variation sur la fonctionnalité SAR dans les environnements maritimes. L'essai,

appelé « Étude du radar à synthèse d'ouverture et du système d'identification automatique pour la détection de cibles de navires », explique comment les technologies SAR haute résolution produisent de nouveaux niveaux de rendus d'images très détaillés.

« Le SAR haute résolution est capable de fournir des images des objets d'information bidimensionnels. Une bonne image radar dépend d'une variation régulière de l'historique de phase sur l'intervalle de collecte de données. La haute résolution et la large couverture spatiale des systèmes d'imagerie SAR offrent une occasion unique de dériver les diverses caractéristiques océaniques. Les systèmes SAR tirent parti des caractéristiques de propagation à longue distance des signaux radar et de la capacité de traitement de l'information complexe de l'électronique numérique moderne pour fournir des images haute résolution », indique le communiqué de presse. ISTAR, qui peut opérer à des altitudes comprises entre 42 000 et 45 000 pieds pour des missions prolongées de douze heures, exploite également une imagerie multispectrale à longue portée pour fournir des renseignements et un ciblage à la fois visibles et infrarouges.

Il est intéressant de noter que les développeurs d'ISTAR font valoir que les plates-formes de surveillance à voilure fixe plus grandes, bien que moins furtives, peuvent toujours avoir un impact considérable sur la vitesse et l'efficacité opérationnelle dans les grandes manœuvres de guerre, en raison de leur capacité à fournir un ciblage à de longues distances.

Bien qu'ils soient bien sûr toujours utiles pour les opérations de contre-insurrection et de contre-terrorisme, des défis qui ne disparaissent pas entièrement, les gros avions ISR tels que l'ISTAR peuvent s'avérer encore plus percutants dans un conflit majeur contre un adversaire sophistiqué. . . à condition que les opérateurs fassent quelques ajustements tactiques clés.

« Au cours des 15 dernières années, si vous disposiez d'un bon système radar, vous pouviez tenir le commandant au sol au courant de ce qui se passait. Ce n'était pas que l'ennemi était faible, mais l'ennemi n'était certainement pas complexe. Ce n'est pas la même chose que ce à quoi nous allions être confrontés dans un conflit de type pair, adversaire », a déclaré Colosky.

Le concept est, entre autres, un commandement et un contrôle aéroportés pilotés par une suite intégrée de capteurs et de technologies informatiques architecturées pour mettre en commun plusieurs types de renseignement ou multi-INT. ISTAR traite et analyse ces renseignements pour offrir une image opérationnelle en temps quasi réel aux commandants de guerre. Même s'il peut être nécessaire de disposer d'un réseau dispersé à longue portée, d'une équipe sans pilote, d'un calcul avancé et d'un réseau de liaison de données électro-optique et RF à grande vitesse, un avion de surveillance de taille moyenne avec une petite équipe à bord effectuant des analyses et des commandes et contrôle est destiné à apporter certains types d'avantages inégalés à la guerre haut de gamme.

"C'est définitivement une progression par étapes dans la technologie et la complexité, car les adversaires auxquels nous sommes confrontés maintenant vont être beaucoup plus complexes dans ce qu'ils peuvent faire, c'est donc ainsi que nous luttons contre la menace", a déclaré Colosky.

ISTAR est plus grand que le système amélioré de reconnaissance et de surveillance à moyenne altitude de l'armée américaine (EMARSS) mais plus petit que le JSTARS qui prend désormais sa retraite, ce qui, selon les développeurs, peut offrir un mélange optimal de commandement et de contrôle aéroportés avec vitesse, maniabilité et une large sphère de capteurs interconnectés. . La stratégie peut consister à combiner les avantages uniques d'un outil de commandement et de contrôle aéroporté habité avec des concepts stratégiques de pointe ou plus récents, tels qu'un réseau en « maille » multinœud dispersé en temps réel afin de maximiser la portée opérationnelle tout en accélérant massivement le haut débit. connectivité capteur-tireur. (Source : News Now/https://nationalinterest.org)

14 21 mai. La Corée du Sud attribue un contrat pour la production en série d'un radar indigène de surveillance côtière. L'administration sud-coréenne du programme d'acquisition de la défense (DAPA) a attribué un contrat de 164 milliards de KRW (145,4 millions de dollars) à la société de systèmes de défense LIG Nex1 pour la production en série du radar de surveillance maritime II développé localement.

L'agence a annoncé dans un communiqué du 14 mai que le radar de surveillance côtière sera déployé par la marine de la République de Corée (RoKN) le long de la côte sud-coréenne ainsi que sur les îles pour couvrir "toutes les zones maritimes". Le système présente des "capacités de détection améliorées" et une résolution accrue permettant une détermination plus précise de la direction et de la distance des navires et des aéronefs que les radars côtiers vieillissants actuellement en service, a déclaré la DAPA.

Le développement du nouveau radar, qui est également plus petit que ceux en service, a commencé en 2015 avec la collaboration de LIG Nex1 dans le cadre d'un projet évalué à environ 31,6 milliards de KRW.

La société sud-coréenne STX Engine et une centaine de partenaires de petite et moyenne taille participeront à la production en série du nouveau système radar, qui devrait commencer en 2022, selon la DAPA. L'agence de presse Yonhap a indiqué que la production devrait durer jusqu'en 2026, pour remplacer les unités radar vieillissantes « par phases ».

Une image publiée par DAPA montre que le système comprend un réflecteur d'antenne parabolique rotatif avec une configuration de perche de support de cornet d'alimentation. Le système est logé dans un radôme et monté sur un socle accessible au personnel.

Le radôme, conçu comme un capot de protection, permettra au radar de fonctionner sans interruption même en cas de vents forts et de typhons. De plus, étant résistant à la chaleur et aux chocs, la résilience du système sera améliorée et la consommation d'énergie réduite par rapport aux équipements existants, a déclaré la DAPA. (Source : Jane’s)

13 21 mai. Le gouvernement du Canada attribue un contrat de soutien en service pour une nouvelle capacité aéroportée de renseignement, de surveillance et de reconnaissance aéroportée pour les Forces armées canadiennes.

Grâce à Solides, sécurisés, engagés, le gouvernement du Canada fournit aux Forces armées canadiennes la capacité de cerner les menaces potentielles à la sécurité et à la souveraineté du Canada, y compris dans l'Arctique.

À la suite d'un processus ouvert et concurrentiel, Services publics et Approvisionnement Canada, au nom du ministère de la Défense nationale, a attribué un contrat pour le soutien en service et la maintenance de l'avion 3 King Air 350ER à l'équipe CERTAS, composée de General Dynamics Mission Systems–Canada, d'Ottawa, Ontario, et Voyageur Aviation Corporation, de North Bay, Ontario.

Ce contrat initial de soutien et de maintenance en service est évalué à environ 72 millions de dollars (taxes incluses) sur 8 ans et créera ou maintiendra jusqu'à 40 emplois bien rémunérés dans le secteur de l'aérospatiale au Canada. Ce travail appuiera l'Aviation royale canadienne dans le cadre de la maintenance générale des aéronefs et de la logistique de déploiement, et fournira des services de formation et d'ingénierie.

Dans le cadre de son projet de renseignement aéroporté, de surveillance et de reconnaissance, le gouvernement du Canada a acheté l'avion à Textron Aviation (anciennement Beech Aircraft Corporation) dans le cadre du programme Foreign Military Sales du gouvernement des États-Unis.

Ces aéronefs seront configurés avec des capteurs avancés de qualité militaire et du matériel de communication sécurisé, ce qui améliorera la connaissance de la situation au sol pour soutenir les opérations des Forces armées canadiennes au pays et à l'étranger. Les 3 avions seront entièrement intégrés aux systèmes de mission associés et livrés au gouvernement du Canada en 2022.

La politique canadienne sur les retombées industrielles et technologiques (RIT) s'applique à cet approvisionnement, générant des emplois de grande valeur, l'innovation et la croissance économique au Canada.

  • Le 26 avril 2019, le gouvernement du Canada a signé un accord pour l'achat de 3 avions King Air 350ER et des systèmes de mission associés dans le cadre du programme de ventes militaires à l'étranger des États-Unis.
  • Le contrat initial de soutien en service est évalué à environ 72 millions de dollars (taxes incluses) pour environ 8 ans. Le coût initial de ce contrat sera partagé entre les budgets du projet et de fonctionnement. Le contrat pourrait être prolongé de plus de 20 ans.
  • Le contrat est attribué avant la date d'arrivée en 2022 de l'avion missionné afin d'obtenir toutes les accréditations de navigabilité militaire et la formation spécialisée nécessaires, et de préparer le chantier à la base des Forces canadiennes Trenton, en Ontario, pour recevoir l'avion.
  • La politique des RIT, y compris la proposition de valeur, s'applique à cet approvisionnement. Cette politique exige que les entreprises qui obtiennent des contrats d'approvisionnement en matière de défense entreprennent des activités commerciales au Canada égales à la valeur des contrats. L'un des principaux objectifs du projet de soutien en service du renseignement, de la surveillance et de la reconnaissance aéroportés est d'obtenir des engagements économiques à l'appui du secteur du soutien en service du Canada et de l'économie canadienne en général. Le soutien en service est l'une des capacités industrielles clés du Canada et constitue un axe industriel important de ce projet. (Source : PR Newswire)

Blighter Surveillance Systems est un leader mondial dans la conception et la fabrication de radars au sol à balayage électronique, de solutions de surveillance et de systèmes de contre-UAS. Les produits micro-Doppler à semi-conducteurs de Blighter sont déployés dans plus de 35 pays à travers le monde, offrant une protection de sécurité cohérente par tous les temps et une surveillance étendue le long des frontières, des côtes, des bases militaires et des infrastructures critiques telles que les aéroports, les installations pétrolières et gazières et palais. Les radars Blighter sont également utilisés pour protéger les missions des forces de manœuvre lorsqu'ils sont déployés sur des véhicules terrestres et des remorques militaires, et son radar multimode de classe mondiale représente un grand pas en avant dans la technologie de détection des menaces et l'accessibilité pour une utilisation dans une variété de scénarios.

La gamme de produits radar Blighter est utilisée pour détecter une variété de menaces, des individus à pied aux véhicules terrestres, bateaux, drones et avions volant à basse altitude à des distances allant jusqu'à 32 km. Blighter Surveillance Systems emploie 40 personnes et est situé près de Cambridge, au Royaume-Uni, où il conçoit, produit et commercialise sa gamme de radars à semi-conducteurs brevetés uniques. Blighter est fière d'être une entreprise dirigée par des ingénieurs qui s'engage à fournir des solutions rentables et flexibles sur les marchés de la défense, des infrastructures critiques et de la sécurité nationale.