Suite

Utiliser le référencement linéaire pour le trafic en temps réel dans ArcGIS Network Analyst ?


J'utilise un trafic personnalisé en temps réel pour l'analyse de réseau dans ArcGIS 10.2.2.

L'affichage du trafic en tant que segment basé. En d'autres termes, lorsque je veux afficher le flux libre pour une route, je dois attribuer un ou plusieurs segments en tant que flux libre. Mais je veux attribuer une partie d'un segment en tant que flux libre et non un segment entier.

Est-il possible d'affecter le trafic dans le cadre d'un segment ?


ArcGIS, analyste 3D, question sur le profil d'altitude

Salut à tous. Je travaille sur un projet où j'utilise un analyste 3D pour créer des profils d'altitude (interpoler la ligne puis le graphique de profil) et je pose une question que je ne peux pas résoudre. Je veux que le graphique indique quand/où il croise d'autres caractéristiques. Par exemple, identifiez l'endroit où le transect a traversé une ligne de faille (en supposant que cette fonction de ligne soit activée). Est-ce quelque chose qui peut être fait dans Arc, ou dois-je le faire dans Adobe ou un autre programme ?

J'explorerais l'utilisation du référencement linéaire via Make Route Event Layer > Créer des itinéraires > Localiser les entités le long des itinéraires

Une fois que vous avez trouvé les caractéristiques d'intersection, vous pouvez facilement passer au niveau supérieur en utilisant 3D Analyst pour trouver votre profil d'élévation.

Je ne sais pas exactement comment le faire apparaître sur votre graphique, mais je crée probablement simplement un graphique à partir d'un tableau préformaté de votre ligne avec toutes les caractéristiques qui le traversent incluses (dans l'ordre de votre couche d'itinéraire).


Circulation automobile autour du domicile et indice de masse corporelle atteint : une étude de cohorte longitudinale d'enfants âgés de 10 à 18 ans

L'objectif de cette étude est d'examiner la relation entre la densité de circulation mesurée à proximité du domicile des enfants et l'indice de masse corporelle (IMC) atteint sur un suivi de huit ans.

Méthodes

Des enfants âgés de 9 à 10 ans ont été inscrits dans plusieurs communautés du sud de la Californie en 1993 et ​​1996 (n = 3318). Les enfants ont été suivis jusqu'à l'âge de 18 ans ou jusqu'à l'obtention du diplôme d'études secondaires pour recueillir des informations longitudinales, y compris les mesures annuelles de la taille et du poids. Des modèles de courbe de croissance à plusieurs niveaux ont été utilisés pour évaluer l'association entre les niveaux d'IMC à 18 ans et le trafic autour de la maison.

Résultats

Pour la circulation dans un rayon de 150 m autour du domicile de l'enfant, il y avait des associations positives significatives avec l'IMC atteint pour les deux sexes à 18 ans. Avec la zone tampon de 300 m, les associations pour la croissance de l'IMC chez les hommes et les femmes étaient positives, mais significativement élevées seulement chez les femelles. Ces associations ont persisté même après contrôle de nombreuses variables de confusion potentielles.

Conclusion

Cette analyse fournit la première preuve d'effets significatifs de la densité du trafic sur les niveaux d'IMC à l'âge de 18 ans dans une large cohorte d'enfants. La circulation est une exposition omniprésente dans la plupart des villes, et nos résultats identifient la circulation comme un facteur de risque majeur pour le développement de l'obésité chez les enfants.


Ajuster le service ? Comprendre les facteurs affectant la fréquentation des autobus au fil du temps au niveau des itinéraires à Montréal, Canada

À l'instar de nombreuses villes d'Amérique du Nord, Montréal a connu une diminution de l'achalandage des autobus au cours des dernières années. La plupart des publications se sont concentrées sur les causes plus larges de la baisse de l'achalandage au niveau métropolitain ou municipal. Parce que les ajustements de service s'effectuent - et sont ressentis par les usagers - au niveau des trajets, il est essentiel d'explorer les phénomènes de fréquentation des bus à cette même échelle. Notre étude explore les déterminants de la fréquentation des autobus au niveau des itinéraires entre 2012 et 2017 à l'aide de deux modèles longitudinaux à coefficients aléatoires à Montréal. Nos résultats suggèrent que l'augmentation du nombre de trajets quotidiens en bus le long d'un itinéraire et l'amélioration de la vitesse moyenne de l'itinéraire sont des facteurs clés pour garantir les gains d'utilisation des autobus. L'accessibilité régionale de l'aire de service aux emplois par le transport en commun autour du parcours a un impact positif sur la fréquentation des autobus au niveau du parcours, démontrant l'importance de l'occupation du sol et de la structure du réseau. De plus, nos modèles montrent que la réduction de la fréquence de service le long d'un itinéraire parallèle entraînera une augmentation de l'achalandage le long de l'itinéraire principal. Cette étude peut être utile aux planificateurs du transport en commun et aux décideurs qui ont besoin d'une compréhension plus détaillée des facteurs qui affectent l'achalandage au niveau de l'itinéraire.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Un examen de l'utilisation de véhicules aériens inoccupés dans les applications en zones humides : nouvelles opportunités en matière d'approche, de technologie et de données

11 par site) et développer diverses solutions temporaires pour faciliter le référencement au sol. Par exemple, Howell et al. [116] ont utilisé des ballons de fête gonflables pour une étude de la biomasse végétale des zones humides, cependant, des vents forts pourraient provoquer le dégonflage ou le déplacement des ballons, réduisant la précision de leur positionnement. De même, la discussion sur le géoréférencement dans les inventaires de colonies aviaires [101] a proposé des bouées comme éléments de référence pour soutenir le mosaïquage d'images dans les zones submergées à proximité des sites de nidification. Enfin, il peut être nécessaire d'éviter de perturber le site lors de l'installation et de l'entretien des GCP par exemple, une application [5,66] a déployé des GCP sur des poteaux métalliques par bateau pendant la marée haute pour à la fois assurer leur élévation au-dessus de l'eau et réduire l'impact sur le marais. végétation. À mesure que les technologies de positionnement en temps réel telles que RTK deviennent plus accessibles, la tâche fastidieuse de placement et de maintenance de GCP peut devenir moins pertinente au fil du temps (par exemple, [7,28,131,144]).

40 études) ont fait des commentaires sur la précision de la position GCP. Seulement 55 études (

46 % du groupe) ont signalé une certaine forme d'erreur de sondage et de mosaïquage d'images. Étant donné que les implications des erreurs de mosaïquage et de positionnement sont susceptibles de varier considérablement selon les objectifs de gestion (par exemple, [28,119,128,133]), le manque de références de précision claires ainsi que de normes pour la précision et les rapports d'erreurs dans les applications d'UAV présente un élément d'action important pour l'UAV des zones humides. communauté à l'avenir.

4.3. Considérations relatives au traitement et à la gestion des données des drones

0,1-1 m, qui sont courants, par exemple, dans la vérification au sol pour les analyses de données satellitaires, deviennent trop grossiers par rapport aux très petites tailles de pixels (<0,1 m) possibles avec les drones modernes. Simultanément, la nature dynamique des milieux humides impose intrinsèquement un degré fondamental d'incertitude de position en raison du mouvement de la végétation induit par le vent, des fluctuations de l'étendue de l'eau et des changements dans les vasières, les sédiments et les débris du sol. En fait, cela signifie que même des niveaux de précision de position très élevés peuvent ne pas toujours garantir la « vraie » correspondance entre les éléments de surface des zones humides et l'emplacement spatial d'un petit pixel donné. Cette question n'a pas été largement discutée, cependant, elle soulève un besoin important de mieux comprendre quelle résolution spatiale minimale est susceptible de représenter de manière réaliste les caractéristiques du paysage dans un environnement de zone humide donné et quelles erreurs spatiales sont acceptables pour aligner l'imagerie avec les emplacements de référence sur le terrain. Cela soulève également la question de savoir quelle précision spatiale est vraiment nécessaire pour un objectif d'étude donné et quels niveaux d'erreur peuvent conduire à des résultats d'analyse similaires sans affecter considérablement la qualité de l'inférence à partir des données d'UAV.


Préparation des données spatiales

En général, quatre étapes doivent être mises en œuvre pour délimiter les zones de disponibilité des aquifères en utilisant les approches FR et SE. Ces étapes sont les suivantes : (a) Collecter des données sur les emplacements des forages et des données arbitraires divisées en deux ensembles : formation et test selon des critères spécifiques tels que (70/30) ou (80/20). L'ensemble de données de formation est uniquement utilisé pour étudier la relation statistique entre les emplacements des forages et les eaux souterraines influençant le facteur d'occurrence. L'ensemble de test est utilisé pour valider les résultats et montrer la capacité du modèle à prédire les zones de disponibilité (test à l'aveugle). (b) Construire la base de données géospatiale. Dans cette étape de l'analyse, les couches thématiques raster probantes des facteurs d'occurrence des eaux souterraines sont préparées à l'aide de différentes ressources telles que l'enquête conventionnelle, l'enquête sur le terrain et la RS. Toutes les couches thématiques doivent être converties au format raster pour être utilisées dans une analyse ultérieure. (c) La relation entre les emplacements des forages (pour l'ensemble de données de formation) et les facteurs d'occurrence des eaux souterraines est étudiée à l'aide de FR et de l'indice d'entropie dans la troisième étape de l'analyse. Le calcul du rapport de vraisemblance pour chaque classe de chaque facteur est effectué et le poids approprié pour chaque facteur utilisé est également calculé. Le GAI est ensuite calculé et classé en différentes classes en utilisant un schéma de classification approprié tel que Natural Break, Geometric, etc. en fonction des conditions de la zone d'étude et de l'expérience personnelle. (d) La quatrième étape implique la validation des résultats et la comparaison de l'efficacité du modèle dans la prédiction des zones de disponibilité des eaux souterraines. En général, la validation des résultats est effectuée pour la formation (appelée taux de réussite) et les tests (taux de prédiction) en utilisant la technique bien connue des caractéristiques d'exploitation relatives (ROC), ou directement en comparant les emplacements des forages avec les zones prospectives d'eau souterraine prévues. Parfois, si le GAI est estimé à l'aide de différentes techniques, les capacités de ces techniques sont également comparées et le modèle sélectionné est le meilleur avec une erreur de prédiction minimale. Un organigramme est présenté sur la figure 4 pour clarifier la procédure mentionnée précédemment.

Organigramme de la délimitation des zones de disponibilité des eaux souterraines

Inventaire des emplacements de forage

Les données de forage ont été obtenues auprès de la Commission générale des eaux souterraines/Ministère des ressources en eau, Irak. L'enregistrement des données impliquait de nombreuses données pertinentes telles que l'emplacement géographique (UTM), le débit du forage (l/s), la profondeur du forage (m), le type d'aquifère (confiné, non confiné) et l'analyse physico-chimique des constituants des eaux souterraines. Au total, il existe 211 forages productifs dans la zone d'étude. À partir de ces forages, seuls les forages à débit relativement élevé (8 l/s) (137) ont été cartographiés et utilisés pour construire les modèles de potentiel des eaux souterraines. Le débit a été choisi après examen de la littérature et obtention d'avis d'experts sur les eaux souterraines (Jabar Al-Syadi, Expert, Commission générale des eaux souterraines/Ministère des ressources en eau, Irak, communication personnelle). Sur les 211 forages, 95 (70 %) ont été sélectionnés au hasard comme données de formation et les 43 autres (30 %) ont été conservés à des fins de validation. Le logiciel commercial statistique MINITAB v.16 a été utilisé pour le fractionnement des données.

Sélection des facteurs d'occurrence des eaux souterraines

Dans cette étude, dix facteurs d'occurrence des eaux souterraines ont été sélectionnés sur la base de l'opinion d'experts et d'une revue de la littérature. Ces facteurs étaient l'altitude (m), la pente (°), la courbure, l'aspect, le TWI, le SPI, la géologie, le sol, l'utilisation des terres/couverture des terres (LULC) et la distance aux failles. L'altitude est un facteur important pour l'occurrence des eaux souterraines parce que les conditions météorologiques et climatiques varient considérablement à différentes altitudes, ce qui a entraîné des différences dans le sol et la végétation (Aniya 1985). La pente est une montée ou une descente de la surface du sol. C'est un facteur important pour les études de cartographie de la disponibilité des eaux souterraines car il contrôle l'accumulation d'eau dans une zone et améliore ainsi la recharge des eaux souterraines (Ozdemir 2011a). La courbure est la dérivée seconde d'une surface, ou la pente de la pente (Kimerling et al. 2011). Il représente la morphologie de la topographie. Il existe trois types de courbure différents : total, profil et plan. La courbure du profil est parallèle à la direction de la pente maximale et affecte principalement l'accélération de la décélération de l'écoulement à travers la surface. Une valeur négative de la courbure du profil indique que la surface est convexe vers le haut, et une courbure négative implique que la surface est concave vers le haut, tandis que la valeur zéro indique que la surface est linéaire (Oh et Lee 2010). La courbure du plan est perpendiculaire à la direction de la pente maximale et affecte principalement la convergence et la divergence de l'écoulement à travers la surface. Une valeur positive indique que la surface est convexe latéralement, une valeur négative indique que la surface est concave latéralement, une valeur de zéro implique que la surface est linéaire (Kimerling et al. 2011). La combinaison du profil et de la courbure en plan est appelée courbure totale. La prise en compte des courbures en plan et en profil permet de comprendre plus précisément l'écoulement sur une surface. La direction de l'aspect ou de la pente identifie la direction de la pente descendante du taux maximum de changement de valeur de chaque cellule d'un raster à ses voisines (Burrough et McDonnell 1998). Les valeurs d'aspect indiquent la direction de la boussole à laquelle la surface fait face à cet endroit. Il est mesuré dans le sens des aiguilles d'une montre en degrés de 0 (nord) à 360 (à nouveau plein nord), en faisant un cercle complet. En raison du fait que les zones plates n'ont pas de direction de pente descendante, une valeur de -1 est donnée. L'aspect affecte fortement les processus hydrologiques via l'évapotranspiration, la direction des précipitations frontales, et affecte donc le processus d'altération et le développement de la végétation et des racines, en particulier dans les environnements plus secs, il est donc pris en compte dans cette étude. Les indices topographiques tels que TWI et SPI ont un rôle vital dans la variation spatiale des conditions hydrologiques telles que l'humidité du sol, l'écoulement des eaux souterraines et la stabilité des pentes (Lee et Kim 2011). Ces indices topographiques ont été utilisés pour décrire les modèles spatiaux d'humidité du sol (Moore et al. 1991). La géologie est un facteur important dans la cartographie du potentiel des eaux souterraines (Ozdemir 2011a, b Lee et al. 2012 Manap et al. 2011 Nampak et al. 2014). La géologie influence l'occurrence des eaux souterraines car la variation lithologique conduit souvent à une différence de porosité et de conductivité hydraulique des roches et des sols. Le sol fait référence à la partie supérieure de la zone non saturée caractérisée par des activités biologiques importantes. Le sol a un impact sur la quantité de recharge, qui peut s'infiltrer dans les eaux souterraines, et donc augmenter le stockage des eaux souterraines d'un aquifère. L'autre facteur considéré, le LULC, définit l'état biologique de la surface de la terre et comment les gens utilisent la terre et l'activité socio-économique. Elle est considérée comme un facteur de délimitation de la disponibilité des eaux souterraines par de nombreux chercheurs (Manap et al. 2011 Nampak et al. 2014 Gumma et Pavelic 2013 Moghaddam et al. 2013). La variation des catégories LULC contribue à la variation des conditions du sol et, par conséquent, à l'occurrence des eaux souterraines. Le réglage de la structure contrôle l'apparition et le mouvement des eaux souterraines. La plupart des roches possèdent des fractures et d'autres discontinuités qui facilitent le stockage et le mouvement des fluides à travers elles. Certaines discontinuités, par ex. failles et digues, peuvent également agir comme barrières à l'eau (Singhal et Gupta 1999). Les deux sont pris en considération dans cette étude en tant que principaux facteurs contribuant à la disponibilité des eaux souterraines dans la zone d'étude.

Préparation des couches raster thématiques

Tous les facteurs d'occurrence des eaux souterraines mentionnés ci-dessus ont été préparés au format raster avec une taille de cellule de 30 × 30 m à l'aide du logiciel commercial ArcGIS 10.2 et de ses extensions Spatial Analyst, Geostastical Analyst, Image Analyst, Arc Hydro et ArcTool box. Pour la classification des valeurs continues des couches raster influentes, différents schémas de classification tels que Jenks, equal et manual ont été utilisés. Le processus de classification des données combine les données brutes dans des classes prédéfinies, ou des bacs. Ces classes peuvent être représentées sur une carte par des symboles uniques ou, dans le cas de cartes thématiques, par une couleur ou une teinte unique. Le schéma de classification de Jenks (également appelé méthode de classification des ruptures naturelles) est une méthode de regroupement de données conçue pour déterminer la meilleure disposition des valeurs en différentes classes. La méthode cherche à réduire la variance au sein des classes et à maximiser la variance entre les classes (Jenks et al. 1967). Essentiellement, la méthode de Jenks minimise les variances au sein de la classe (les rend aussi similaires que possible) et maximise la variance entre les groupes (rend les classes de données aussi différentes que possible). L'avantage de la classification Natural Breaks (Jenks) est qu'elle identifie des classes réelles au sein des données. Ceci est utile car il crée des cartes de couches thématiques qui ont des représentations précises des tendances dans les données. La sélection de ce schéma de classification est basée sur des revues de la littérature et l'expérience de l'auteur de la zone d'étude et de ses conditions (Al-Abadi 2015b).

Pour créer des facteurs topographiques, c'est-à-dire l'élévation, l'angle de pente, la courbure, l'aspect, le TWI et le SPI, le modèle numérique mondial d'élévation du radiomètre spatial avancé d'émission et de réflexion (ASTER-GDEM) (http://gdem.ersdac.jspacesystems.or .jp/search.jsp) a été utilisé. L'ASTER-GDEM a été développé par le ministère de l'Économie du Japon et la National Aeronautics and Space Administration (NASA) des États-Unis. La résolution spatiale de la tuile ASTER-GDEM est d'environ 30 m. Six tuiles DEM brutes ont été téléchargées à partir de l'emplacement Web précédent et fusionnées pour créer un nouveau raster. Le nouveau raster est ensuite reprojeté dans le système de coordonnées projetées UTM (référence WGS, 38 N), et les cuvettes sont remplies pour créer une couche raster d'altitude remplie de la zone d'étude (Fig. 2a). Une zone sans puits, également appelée MNT sans dépression, est l'entrée préférable pour calculer la direction d'écoulement dans le bassin. Le processus cherche à remplir les puits d'un réseau DEM. Par conséquent, si des cellules avec une altitude plus élevée entourent une cellule du réseau DEM, l'eau est piégée et ne peut pas s'écouler. Les puits de remplissage modifient les valeurs d'altitude autour de la cellule pour éliminer ces problèmes. La couche raster d'altitude a été dérivée directement du DEM rempli et classée à l'aide d'un schéma de classification des ruptures en cinq classes (Fig. 2) à utiliser dans l'analyse ultérieure. L'angle de pente (°) de la zone d'étude a été dérivé du MNT rempli à l'aide de l'extension Spatial Analyst d'ArcMap et présenté sur la figure 5 après avoir été classé manuellement en cinq catégories : pente douce et plate <5°, pente moyenne (5°–15° ), pente modérée (15°–30°), pente raide (30°–50°) et pente très raide >50°, (Pourghasemi et al. 2013). La carte raster de courbure a également été dérivée directement du MNT rempli et le raster résultant a été classé manuellement en trois classes : convexe <0, plat 0 et concave >0 (Fig. 6). La carte d'aspect a également été préparée à partir du DEM de remplissage et classée en dix classes (Fig. 7) : Plat (−1), Nord (0–22,5) (337,5–360), Nord-est (22,5–67,5), Est (67,5–112,5 ), sud-est (112,5–157,5), sud (157,5–202,5), sud-ouest (202,5–247,5), ouest (247,5–292,5) et nord-ouest (292,5–337,5). Le TWI et le SPI sont définis mathématiquement comme (Moore et al. 1991) :

où, une est la zone locale non inclinée s'écoulant à travers un certain point par unité de longueur de contour et de tan β est la pente locale en degrés, et UNE s est la zone de chalandise spécifique. Pour calculer les facteurs TWI et SPI, la direction du flux et les couches d'accumulation du flux doivent d'abord être calculées, qui sont considérées comme les principales étapes de l'analyse du terrain et de la délimitation des bassins versants. La fonction de direction d'écoulement est calculée pour chaque cellule du DEM rempli dans la direction dans laquelle l'eau s'écoulerait à travers elle. La valeur de la cellule dans un raster de direction de flux est un nombre compris entre 1 et 128 qui représente une direction cardinale. La grille de direction du flux est utilisée comme entrée pour créer la couche d'accumulation de flux. La fonction d'accumulation de flux calcule pour chaque cellule du tableau DEM rempli, le nombre de cellules qui y coulent. L'accumulation de débit permet de déterminer la zone de drainage vers n'importe quel point spécifié dans un MNT. L'extension Arc Hydro d'ArcGIS a été utilisée pour dériver ces couches. La couche d'accumulation de flux a été utilisée pour dériver les couches raster de TWI et SPI en utilisant les équations. 10 et 11, puis classés en quatre classes pour les deux couches en utilisant le système de classification de Jenks (Figs. 8, 9).


Prédiction de la mobilité humaine active en milieu rural : développement et tests de validité de trois approches différentes

La mobilité active peut jouer un rôle important dans l'évaluation des expositions environnementales (p. être pertinents pour l'évaluation de l'exposition dans différents types d'études. Nous avons précédemment collecté des modèles de mobilité dans un groupe de 941 participants dans un cadre rural aux Pays-Bas, en utilisant un suivi GPS d'une semaine. Nous disposions d'informations concernant les caractéristiques personnelles, les données autodéclarées concernant les schémas de mobilité hebdomadaire et les caractéristiques spatiales. L'objectif de cette étude était de développer des estimations polyvalentes de la mobilité active, de tester leur précision à l'aide de mesures GPS et d'explorer les implications pour les études d'évaluation de l'exposition.

Méthodes

Nous avons estimé les heures/semaine consacrées à la mobilité active en fonction de caractéristiques personnelles (par exemple, l'âge, le sexe, les conditions préexistantes), les données autodéclarées (par exemple, les heures passées à se déplacer par vélo) ou des prédicteurs spatiaux tels que l'adresse du domicile et du travail. Les heures/semaine estimées consacrées à la mobilité active ont été comparées aux heures/semaine mesurées par GPS, en utilisant la régression linéaire et les statistiques kappa.

Résultats

Les heures/semaine estimées et mesurées consacrées à la mobilité active avaient une faible correspondance, même la meilleure méthode d'estimation de prédiction basée sur des données autodéclarées, a entraîné une R 2 de 0,09 et le kappa de Cohen de 0,07. Un contrôle visuel a indiqué que, bien que les itinéraires prévus pour se rendre au travail semblaient correspondre aux tracés mesurés par GPS, seule une petite proportion de la mobilité active a été capturée de cette manière, ce qui a entraîné une faible validité de la mobilité active globale prévue.

Conclusion

Nous n'avons pas été en mesure de développer une méthode qui pourrait estimer avec précision la mobilité active, la méthode la plus performante était basée sur des informations détaillées autodéclarées mais a quand même entraîné une faible correspondance. Pour les futures études visant à évaluer la contribution du trafic domicile-travail à l'exposition, l'application de prédicteurs spatiaux peut être appropriée. Les mesures représentent toujours le meilleur outil possible pour évaluer les modèles de mobilité.


Iosr-JCE Volume-8

[1] "Reconnaissance des expressions faciales : un bref aperçu du didacticiel", C.C. Chibelushi et F. Bourel 2002.
[2] F. Bourel, C.C. Chibelushi, A.A. Reconnaissance faible et "robuste" des expressions faciales à l'aide d'un modèle basé sur l'état de localisation spatiale
Dynamique faciale", Proc. Cinquième IEEE Int. Conf. Reconnaissance automatique des visages et des gestes, pp.106-111, 2002
[3] Technique de reconnaissance des expressions faciales utilisant la DCT 2D et l'algorithme k moyens, Liying Ma et K.Khorasani, IEEE Transactions on
Systems, Man and Cybernetics, Vol.34, No.3 Juin 2004
[4] V. Bruce, « Ce que le visage humain dit à l'esprit humain : quelques défis pour l'interface robot-humain », Proc. IEEE Int.
Atelier Robot et Communication Humaine, pp. 44-51, 1992
[5] « Reconnaissance des expressions faciales par rétropropagation », A. Sulistijono, Z. Darojah, A. Dwijotomo, D.Pramdihanto 2002
[6] Zhang Z. Expériences de reconnaissance d'expressions faciales basées sur les caractéristiques avec un perceptron multicouche. Revue internationale de
Reconnaissance de motifs et intelligence artificielle. 1999 13:893-912.
[7] Ekman P, Friesen WV. Le système de codage de l'action faciale Une technique pour la mesure du mouvement du visage. San Francisco :
Psychologues consultants Presse 1978.
[8] Sebe N, Lew MS, Sun Y, Cohen L, Gevers T, Huang TS. Analyse d'expression faciale authentique. Informatique de l'image et de la vision. 2007 25:1856-1863.

Type de papier : Document de recherche
Titre : Enquête sur le dessin convexe du graphe planaire
De campagne : Bangladesh
Auteurs : Sharifa Rania Mahmud
: 10.9790/0661-0840717

[1] W. T. Tutte, Représentations convexes des graphes, Proc. de Londres Math, Soc. 10, non. 3, 1960, 304-320.
[2] W. T. Tuttle, Comment dessiner un graphique, Proc. Mathématiques de Londres, Soc. 13, 1963, 743-768.
[3] C. Thomassen, Plane representations of graphs, Progress in Graph Theory, J. A. Bondy et U. S. R. Murty (Eds.), Academic Press,
1984, 43-69.
[4] N. Chiba, T. Yamanouchi et T. Nishizeki, Algorithmes linéaires pour les dessins convexes de graphes planaires, Progress in Graph Theory,
Presse académique, 1984, 153-173.
[5] N. Bonichon, S. Felsner et M. Mosbah, Dessins convexes de graphes plans 3-connectés, Proc. du dessin graphique 2004, 2005, 60-70.
[6] M. Chrobak, M. T. Goodrich et R. Tamassia, Convex drawing of graphs in two and three Dimensions, Proc. de SoCG 1996,
1996, 319-328.
[7] M. Chrobak et G. Kant, Convex grid drawing of 3-connected planar graphs, International Journal of Computational Geometry
et demandes, 7, 1997, 211-223.
[8] K. Miura, S. Nakano et T. Nishizeki, Convex grid drawing of four-connected plane Graphs, International Journal of Foundations
de l'informatique, 17(5), 2006, 1031-1060.
[9] K. Miura, M. Azuma et T. Nishizeki, Dessins convexes de graphes plans d'apex externes minimaux, Proc. du dessin graphique 2005,
2006, 297-308.
[10] G. Rote, Dessins strictement convexes de graphes planaires, Proc. de SODA 2005, 2005, 728-734.

Type de papier : Document de recherche
Titre : Applications d'exploration de données dans l'exploration d'images médicales : une analyse du cancer du sein à l'aide de l'exploration de règles pondérées et de classificateurs
De campagne : Inde
Auteurs : A.Kavipriya, B.Gomathy
: 10.9790/0661-0841823

[1] Andreeva P., M. Dimitrova et A. Gegov, "Information Representation in Cardiological Knowledge Based System", SAER'06,
pp : 23-25 ​​sept. 2006.
[2] Heon Gyu Lee, Ki Yong Noh, Keun Ho Ryu, "Mining Biosignal Data: Coronary Artery Disease Diagnosis using Linear and
Nonlinear Features of HRV, " LNAI 4819: Emerging Technologies in Knowledge Discovery and Data Mining, pp. 56 -66, mai 2007.
[3] Hsinchun Chen, Sherrilynne S. Fuller, Carol Friedman et William Hersh, "Knowledge Management, Data Mining, and Text
Mining In Medical Informatics", Chapter 1, eds. Informatique médicale : gestion des connaissances et exploration de données en biomédecine,
New York, Springer, pages 3-34, 2005.
[4] Newman.D, Hettich.J.S,Blake.C.L.S et C.J.Merz, "UCI Repository of Machine Learning Databases" Irvine, CA: University of
California, Department of Information and Computer Science.1998, dernière consultation : 1/10/2009.
[5] Niti Guru, Anil Dahiya, Navin Rajpal, "Système d'aide à la décision pour le diagnostic des maladies cardiaques à l'aide d'un réseau neuronal", Delhi
Revue d'entreprise, Vol. 8, n° 1 (janvier - juin 2007.
[6] Sellappan Palaniappan, Rafiah Awang, "Système intelligent de prédiction des maladies cardiaques utilisant des techniques d'exploration de données", IJCSNS
International Journal of Computer Science and Network Security, Vol.8 No.8, août 2008.
[7] Tzung-I Tang, Gang Zheng, Yalou Huang, Guangfu Shu, Pengtao Wang, "A Comparative Study of Medical Data Classification
Methods Based on Decision Tree and System Reconstruction Analysis", IEMS, Vol. 4, n° 1, pp. 102-108, juin 2005.

Type de papier : Document de recherche
Titre : Examen des modèles de bases de données à logique floue
De campagne : Inde
Auteurs : Anupriya, professeur Rahul Rishi
: 10.9790/0661-0842434

[1] Z.M. Ma, Une méthodologie de conception pour les bases de données relationnelles floues .Journal of Database Management , Vol. 16, n° 2 ,
2005 ,66-83.
[2] Zadeh, L.A., Ensembles flous. Information et contrôle, 8, 1965, 338-353.
[3] Zadeh, L. A., Une approche computationnelle des quantificateurs flous dans les langues naturelles. Mathématiques informatiques avec applications,
9,1983, 149-183.
[4] Galindo, J., Urrutia, A., Piattini, M. : Bases de données floues : modélisation et implémentation. IDEA Group Publishing, Hershey,
ETATS-UNIS. (2006)
[5] Zadeh, L. A. , Relations de similarité et ordonnancements flous. Sciences de l'information, 3,1971, 177-200
[6] Buckles, B. P., & Petry, F. E. , Modèles d'incertitude dans les systèmes d'information et de base de données. Sciences de l'information, 11, 1985, 77-87.
[7] Prade, H., & Testemale, Bases de données relationnelles floues : problèmes de représentation et réduction à l'aide de mesures de similarité. Confiture. Soc.
Sciences de l'information, 38(2), 1987, 118-126.
[8] Codd, E. F. , Le modèle relationnel pour la gestion de bases de données, Version 2,1990, Reading, MA : Addison-Wesley.
[9] Umano, M., & Fukami, S. , Algèbre relationnelle floue pour le modèle de distribution de possibilité-relation floue de données floues. Journal de
Systèmes d'information intelligents, 1994, 3, 7-28.
[10] Zemankova-Leech, M., & Kandel, A., Implémentation de l'imprécision dans les systèmes d'information. Sciences de l'information, 37, 1985, 107-141.

Type de papier : Document de recherche
Titre : Détection et suivi d'objets de haute précision
De campagne : Inde
Auteurs : M. V. M. Vijay Kannan
: 10.9790/0661-0843135

[1] Sherin M. Youssef, Meer A. Hamza et Arige F. Fayed, "Détection et suivi de plusieurs objets en mouvement avec occlusion dans
Smart Video Surveillance Systems", dans Actes de la conférence IEEE sur les systèmes intelligents, pp. 120-125, 2010.
[2] Yuping Lin, Qian Yu, et Gérard Medioni, "Détection et suivi efficaces des objets en mouvement en géo-coordonnées", Machine
Vision et applications, vol. 22, pages 505 à 520, 2011.
[3] Codrut Ianasi, Vasile Gui, Corneliu I. Toma et Dan Pescaru, "A Fast Algorithm for Background Tracking in Video Surveillance,
Utilisation de l'estimation de la densité du noyau non paramétrique", Electronics and Energetics, Vol. 18, n° 1, pp. 127-144, 2005.
[4] Masayuki Yokoyama, et, "A Contour-Based Moving Object Detection and Tracking", Dans les actes de surveillance visuelle et
Évaluation des performances du suivi et de la surveillance, 2005.
[5] Rita Cucchiara, Costantino Grana, Massimo Piccardi et Andrea Prati, "Détection d'objets en mouvement, de fantômes et d'ombres en vidéo
Streams", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 25, p. 1337-1342, octobre 2003.
[6] Vasant Manohar, Padmanabhan Soundararajan, HarishRaju, Dmitry Goldgof, Rangachar Kasturi et John Garofolo, "Performance
Evaluation of Object Detection and Tracking in Video", In Proceedings of 7th Asian Conference on Computer Vision, Hyderabad,
p. 151-161, 2006.
[7] Kaiqi Huanga, Liangsheng Wanga, Tieniu Tana et Steve Maybank, "Un système de détection et de suivi d'objets en temps réel pour l'extérieur
surveillance nocturne", ELSEVIER Pattern Recognition, Vol. 41, pages 432-444, 2008.
[8] Thi Thi Zin, Pyke Tin, Takashi Toriu et Hiromitsu Hama, "Un modèle basé sur les probabilités pour détecter les objets abandonnés dans
Video Surveillance Systems", dans Actes du Congrès mondial sur l'ingénierie 2012, Londres, Royaume-Uni, Vol 2, 2012.
[9] Isaac Cohen et Gerard Medioni, « Détection et suivi d'objets en mouvement pour la vidéosurveillance », dans IEEE Proceedings of
Vision par ordinateur et reconnaissance de formes, pp. 2319-2325, 1999.
[10] C. Kamath, A. Gezahegne, S. Newsam et G. M. Roberts, "Salient Points for Tracking Moving Objects in Video", Image and
Communications et traitement vidéo, 2005.

Type de papier : Document de recherche
Titre : Implémentation du système de vote électronique utilisant le nouveau protocole de signature aveuglante
De campagne : Inde
Auteurs : Prakash Kuppuswamy, Omar Saeed Ali Al-Mushayt
: 10.9790/0661-0843640

Articles de revue :
[1] Patil V.M. "Sécuriser EVS en utilisant la signature aveugle et la cryptographie pour la confidentialité des électeurs & Authentication", Journal of Signal et
Traitement d'images, Vol. 1, numéro 1, 2010, PP-01-06.
[2] Subariah Ibrahim, Maznah Kamat, Mazleena Salleh, Shah Rizan Abdul Aziz, "Vote électronique sécurisé avec signature aveugle",
3262/1/ieee02 en 2008.
[3] Prakash Kuppuswamy, Dr.C. Chandrasekar, "Enrichissement de la sécurité grâce à un algorithme de clé publique cryptographique basé sur un bloc
cipher", IJCSE, ISSN : 0976-5166 Vol. 2 n° 3 juin-juil 2011 PP 347-355.
Livres:
[4] John C. Bowman, Math 422 Coding Theory & Cryptography, Université de l'Alberta, Edmonton, Canada.
[5] Denning, D.E. "Cryptographie et sécurité des données. Reading (MA)" : Addison-Wesley, 1982.
[6] Diffie, W. & Landau, S. "Privacy on the Line. Boston", MIT Press, 1998.
Documents de procédure :
[7] Nidhi Gupta, Praveen Kumar et Satish Chhokar, "A Secure Blind Signature Application in E Voting", Actes du 5
Conférence nationale sur l'informatique pour le développement de la nation, New Delhi, mars 2011.
[8] R. Cramer, R. Gennaro et B. Schoenmakers, et M. Yung, « Élections au scrutin secret multi-autorités avec des travaux linéaires »,
Eurocrypt '96, LNCS 1070, pp 72 – 83, 1996.
[9] L.R. Cranor et R.K. Cytron, "Conception et mise en œuvre d'un système électronique Pollind pratique et soucieux de la sécurité,"
Université de Washington : Rapport technique sur l'informatique, 1996.
[10] Zhe Xia, Steve Schneider, "A New Receipt-Free E-Voting Scheme Based on Blind Signature", 25 mai 2006.

Type de papier : Document de recherche
Titre : Évaluation des requêtes pour les bases de données XML à l'aide de la décompression partielle
De campagne : Inde
Auteurs : Vijay Gulhane, MS Ali
: 10.9790/0661-0844145

[1] James Cheng et Wilfred Ng « XQzip : interroger du XML compressé à l'aide de l'indexation structurelle » E. Bertino et al. (Eds.): EDBT
2004, LNCS 2992, pp. 219-236, 2004. _c Springer-Verlag Berlin Heidelberg 2004
[2] Andrei Arion, Angela Bonifati, Ioana Manolescu, Andrea Pugliese « XQueC : une base de données XML compressée prenant en compte les requêtes »
Nom de la revue ACM, Vol. , n° , 20, pages 1–31.
[3] JunKi Min MyungJae Park ChinWan Chung « XPRESS : une compression interrogeable pour les données XML » SIGMOD 2003, 912 juin 2003, San Diego, Californie. Copyright 2003 ACM 158113634X/ 03/06
[4] Mustafa Atay, Yezhou Sun, Dapeng Liu, Shiyong Lu, Farshad Fotouhi MAPPING XML DATA TO RELATIONAL DATA: A DOMBASED APPROACH‖ Department of Computer Science Wayne State University, Detroit, MI 48202
[5] Sherif Sakr ―Techniques de compression XML : Une enquête et une comparaison ‖ National ICT Australia (NICTA), 223 Anzac Parade, NSW 2052, Sydney, Australia Journal of Computer and System Sciences 75 (2009) 303-322
[6] Pankaj M. Tolani Jayant R. Haritsa XGRIND : Un compresseur XML compatible avec les requêtes‖ Actes du 18e International
Conférence sur l'ingénierie des données (ICDE.02) 1063-6382/02 17,00 $ © 2002 IEEE
[7] Wilfred Ng · Wai-Yeung Lam Peter T. Wood · Mark Levene ―XCQ: A queriable XML compression system‖ Knowl Inf Syst (2006) DOI 10.1007/s10115-006-0012-z
[8] Wilfred Ng Lam Wai Yeung James Cheng ―Analyse comparative des technologies de compression XML‖ Département d'informatique
Sciences L'Université des sciences et technologies de Hong Kong Hong Kong
[9] Weimin Li XCOMP: AN XML COMPRESSION TOOL‖ Thèse présentée à l'Université de Waterloo. Waterloo, Ontario,
Canada, 2003
[10] Michael Ley DBLP — Some Lessons Learned‖ VLDB ‗09, 2428 août 2009, Lyon, France Copyright 2009 VLDB Endowment, ACM 0000000000000/ 00/00.

Type de papier : Document de recherche
Titre : Triangulation de Delaunay contrainte pour les réseaux de capteurs sans fil
De campagne : Inde
Auteurs : Ramnesh Dubey
: 10.9790/0661-0844653

[1] M. Cardei, D. MacCallum, X. Cheng, M. Min, X. Jia, D. Li et D.Z. Du, Réseaux de capteurs sans fil à haute efficacité énergétique
organisation, J. Interconnection Networks, 3, pp. 213-229, 2002
[2] S. Slijepcevic et M. Potkonjak, Organisation économe en énergie des réseaux de capteurs sans fil, IEEE Int. Conf. Commun., 2, p. 472–
476, 2001
[3] Z. Zhou, S. Das et H. Gupta, Problème de couverture k connectée dans les réseaux de capteurs, dans Proc. Int. Conf. Communications informatiques
et Réseaux (ICCCN), pp. 373-378, 2004.
[4] M. Kallmann, H. Bieri et D. Thalmann. Triangulations de delaunay contraintes entièrement dynamiques. Modélisation géométrique pour la science
Visualisation, 2003.
[5] R.Dubey, S.K.Swain, R.Bera, C.P.Kashayap, Fault Tolerance in Wireless Sensor Networks using Constrained Delaunay
Tringulation, IRnet, ICEECS,.pp.172-178, 2012
[6] M. Cardei, J. Wu, Hand book of Sensor Networks: compact wireless and wired sensing systems, M.Ilyas, I.Mahgoub, (CRC Press,
New York, Londres, Boca Raton, 2005), p. 361-372.
[7] P. Kumari, Y.Singh, Stratégie de couverture de triangulation de Delaunay pour les réseaux de capteurs sans fil, IEEE, ICCCI, pp.1-5, 2012
[8] D. Tian et N.D. Georganas, Un schéma de planification de nœuds préservant la couverture pour les grands réseaux de capteurs sans fil, 1er ACM
Atelier Réseaux de capteurs sans fil et applications, pp. 32-41, 2002
[9] F. Ye, G. Zhong, S. Lu et L. Zhang, Couverture de détection robuste à haut rendement énergétique dans les grands réseaux de capteurs, rapport technique, UCLA,
2002.

Type de papier : Document de recherche
Titre : Algorithme d'exploration de données Cloud haute performance et Exploration de données dans les Clouds
De campagne : Inde
Auteurs : Nandini Mishra, Saurabh Sharma, Ashish Pandey
: 10.9790/0661-0845461

[1] Sanjay Ghemawat, Howard Gobioff et Shun-Tak Leung. ―Le système de fichiers Google‖. Dans SOSP, 2003.

[2] Dhruba Borthaku. Le système de fichiers distribué Hadoop : architecture et conception‖. extrait de lucene.apache.org/hadoop, 2007. [3] Y unhong Gu et Robert L. Grossman. ―UDT : transfert de données basé sur UDP pour les réseaux étendus à grande vitesse‖. Réseaux informatiques, 51(7):1777-1799, 2007.

[4] Han J , Kamber M. « Exploration de données : concepts et techniques ». 2/e San Francisco : CA Morgan Kaufmann Publishers, une empreinte d'Elsevier. pp-259-261, 628-640 (2006).

[5] D. Chappell, « Introducing windows azure », Microsoft, Inc, Tech. Rép., 2009.

[6] K. Keahey, R. Figueiredo, J. Fortes, T. Freeman et M. Tsugawa, Science clouds: Early experiences in cloud computing for scientific applications,‖ Cloud Computing and Applications, vol. 2008, 2008.

[7] I. Foster, T. Freeman, K. Keahy, D. Scheftner, B. Sotomayer et X. Zhang, « clusters virtuels pour les communautés de grilles », l'informatique en grappes et la grille, IEEE International Symposium on, vol. 0, p. 513-520, 2006.

[8] R. Creasy, « L'origine du système de temps partagé VM/370 », IBM Journal of Research and Development, vol. 25, non. 5, p. 483-490, 1981.

[9] Amazon Elastic Compute Cloud,‖ [En ligne], http://aws.amazon.com/ec2/.

[10] K. Keahey, I. Foster, T. Freeman et X. Zhang, « Espaces de travail virtuels : atteindre la qualité de service et la qualité de vie dans la grille », Programmation scientifique, vol. 13, non. 4, p. 265-275, 2005


L'algèbre linéaire est vitale dans de nombreux domaines de science en général. Parce que les équations linéaires sont si faciles à résoudre, pratiquement tous les domaines de la science moderne contiennent des modèles où les équations sont approximées par des équations linéaires (en utilisant des arguments d'expansion de Taylor) et la résolution du système aide la théorie à se développer. Commencer à faire une liste ne serait même pas pertinent pour vous et je n'ai aucune idée de la façon dont les gens abusent du pouvoir de l'algèbre linéaire pour approximer les solutions d'équations. Puisque dans la plupart des cas, résoudre des équations est synonyme de résoudre un problème pratique, cela peut être TRÈS utile. Juste pour cette raison, l'algèbre linéaire a une raison d'exister, et c'est une raison suffisante pour que tout scientifique connaisse l'algèbre linéaire.

Plus précisément, en mathématiques, l'algèbre linéaire a, bien sûr, son utilisation dans les espaces vectoriels d'algèbre abstraite survenant dans de nombreux domaines différents de l'algèbre tels que la théorie des groupes, la théorie des anneaux, la théorie des modules, la théorie des représentations, la théorie de Galois, et bien plus encore. Comprendre les outils de l'algèbre linéaire donne la possibilité de mieux comprendre ces théories, et certains théorèmes de l'algèbre linéaire nécessitent également une compréhension de ces théories auxquelles ils sont liés de nombreuses manières intrinsèques différentes.

En dehors de l'algèbre, une grande partie de l'analyse, appelée analyse fonctionnelle, est en fait la version en dimension infinie de l'algèbre linéaire. En dimension infinie, la plupart des théorèmes de dimension finie s'effondrent d'une manière très intéressante, une partie de notre intuition est préservée, mais la plupart s'effondre. Bien sûr, rien de l'intuition algébrique ne disparaît, mais la majeure partie de la partie analytique fait que les boules fermées ne sont jamais compactes, les normes ne sont pas toujours équivalentes et la structure de l'espace change beaucoup en fonction de la norme que vous utilisez. Par conséquent, même pour quelqu'un qui étudie l'analyse, la compréhension de l'algèbre linéaire est vitale.

En d'autres termes, si vous voulez commencer à penser, apprenez d'abord à penser directement (linéairement). =)


CONFLIT D'INTÉRÊT

Hope Draheim : Conceptualisation (responsable) Curation des données (responsable) Analyse formelle (responsable) Acquisition de financement (soutien) Enquête (responsable) Méthodologie (responsable) Administration de projet (responsable) Rédaction-ébauche originale (responsable) Rédaction-révision et édition (responsable) . Jennifer A Moore : Conceptualisation (égal) Curation des données (égal) Rédaction-révision et édition (soutien). Scott Winterstein : Acquisition de financement (égal) Rédaction-révision et édition (égal). Kim Scribner : Conceptualisation (soutien) Acquisition de financement (chef de file) Supervision (égale) Rédaction-révision & édition (soutien).


Voir la vidéo: Network Analyst: Creating Network Datasets (Octobre 2021).