Suite

Comment permettre à l'utilisateur de placer un point en entrée d'un modèle de géotraitement ?


Existe-t-il un analogue à "Feature Set" d'Esri dans le modeleur QGIS. Je suis intéressé par la création d'un modèle qui permet à l'utilisateur de placer une entité ponctuelle sur une carte en tant que variable d'entrée pour un modèle de géotraitement. Je l'ai fait dans ModelBuilder, mais je souhaite reproduire l'effort dans QGIS.


Je pense que la seule façon de le faire actuellement est de demander à l'utilisateur de créer une couche de points (avec un point) qui est ensuite utilisée comme entrée de couche vectorielle dans le modèle de traitement.

Pour autant que je sache, les scripts et les modèles de traitement ne fournissent actuellement aucune capacité d'interaction avec l'utilisateur.

Si vous avez besoin d'interactions utilisateur, vous pouvez écrire un plugin à la place. Le plugin s'occuperait de la gestion des interactions et pourrait appeler des fonctions de traitement si nécessaire.


Utiliser des outils de géotraitement

Les outils de géotraitement sont essentiels pour l'analyse spatiale, mais ils ont également d'autres utilisations. L'analyse spatiale comprend des activités telles que la comparaison de lieux, la détermination de la façon dont les lieux sont liés, la recherche des meilleurs emplacements et chemins, la détection de modèles et la réalisation de prédictions. La plupart des outils de géotraitement fonctionnent sur un jeu de données en entrée pour créer un jeu de données en sortie. Certains outils modifient les attributs ou la géométrie d'un jeu de données en entrée. Quelques outils ont d'autres effets, tels que la création de sélections sur des calques ou la génération de messages ou de rapports.


Le <input type="hidden"> définit un champ de saisie masqué (non visible pour un utilisateur).

Un champ masqué permet aux développeurs Web d'inclure des données qui ne peuvent pas être vues ou modifiées par les utilisateurs lorsqu'un formulaire est soumis.

Un champ masqué stocke souvent l'enregistrement de la base de données qui doit être mis à jour lorsque le formulaire est soumis.

Noter: Bien que la valeur ne soit pas affichée pour l'utilisateur dans le contenu de la page, elle est visible (et peut être modifiée) à l'aide des outils de développement de n'importe quel navigateur ou de la fonctionnalité "View Source". N'utilisez pas d'entrées cachées comme forme de sécurité !

Exemple


Placer les réponses de saisie semi-automatique

Placer les réponses de saisie semi-automatique sont renvoyées dans le format indiqué par l'indicateur de sortie dans le chemin d'URL de la demande. Les résultats ci-dessous sont indicatifs de ce qui peut être renvoyé pour une requête avec les paramètres suivants :

UNE Réponse JSON contient deux éléments racine :

  • status contient des métadonnées sur la demande. Voir les codes d'état ci-dessous.
  • prédictions contient un tableau de lieux, avec des informations sur le lieu. Voir Placer les résultats de la saisie semi-automatique pour plus d'informations sur ces résultats. L'API Places renvoie jusqu'à 5 résultats.

Les éléments place_id sont particulièrement intéressants dans les résultats, qui peuvent être utilisés pour demander des détails plus spécifiques sur le lieu via une requête distincte. Voir les demandes de détails de lieu.

Voir Traitement de JSON avec JavaScript pour obtenir de l'aide sur l'analyse des réponses JSON.

Une Réponse XML se compose d'un seul élément <AutocompletionResponse> avec deux types d'éléments enfants :

  • Un seul élément <status> contient des métadonnées sur la demande. Voir les codes d'état ci-dessous.
  • Zéro ou plusieurs éléments <prediction>, chacun contenant des informations sur un seul endroit. Voir Placer les résultats de la saisie semi-automatique pour plus d'informations sur ces résultats. L'API Places renvoie jusqu'à 5 résultats.

Nous vous recommandons d'utiliser json comme indicateur de sortie préféré, sauf si votre application nécessite XML pour une raison quelconque. Le traitement des arborescences XML nécessite une certaine prudence, de sorte que vous référencez les nœuds et les éléments appropriés. Voir Traitement de XML avec XPath pour obtenir de l'aide sur le traitement de XML.

De nos conditions d'utilisation

Afficher le requis
logos et attributions

Respectez les droits d'auteur et l'attribution de Google. Assurez-vous que le logo et l'avis de droit d'auteur sont visibles et affichez le logo « Powered by Google » si vous utilisez des données sans carte.

Codes d'état

Le champ d'état de l'objet de réponse Placer la saisie semi-automatique contient le statut de la demande et peut contenir des informations de débogage pour vous aider à déterminer pourquoi la demande Placer la saisie semi-automatique a échoué. Le champ d'état peut contenir les valeurs suivantes :

  • OK indique qu'aucune erreur ne s'est produite et qu'au moins un résultat a été renvoyé.
  • ZERO_RESULTS indique que la recherche a réussi mais n'a renvoyé aucun résultat. Cela peut se produire si la recherche a dépassé des limites dans un emplacement distant.
  • OVER_QUERY_LIMIT indique que vous avez dépassé votre quota.
  • REQUEST_DENIED indique que votre demande a été refusée, généralement en raison de l'absence d'un paramètre de clé valide.
  • INVALID_REQUEST indique généralement que le paramètre d'entrée est manquant.
  • UNKNOWN_ERROR indique qu'une erreur côté serveur peut réussir.

Messages d'erreur

Lorsque le service Google Places renvoie un code d'état autre que OK , il peut y avoir un champ error_message supplémentaire dans l'objet de réponse. Ce champ contient des informations plus détaillées sur les raisons du code d'état donné. Ce champ n'est pas toujours renvoyé et son contenu est susceptible de changer.

Messages d'information

Lorsque le service Google Places renvoie des informations supplémentaires sur la spécification de la demande, il peut y avoir un champ info_messages supplémentaire dans l'objet de réponse. Ce champ n'est renvoyé que pour les demandes réussies. Il ne peut pas toujours être retourné et son contenu est sujet à changement.

Placer les résultats de la saisie semi-automatique

Lorsque le service Places renvoie les résultats JSON d'une recherche, il les place dans un tableau de prédictions. Même si le service ne renvoie aucun résultat (par exemple, si l'emplacement est distant), il renvoie toujours un tableau de prédictions vide. Les réponses XML se composent de zéro ou plusieurs éléments <prediction>.

Chaque résultat de prédiction contient les champs suivants :

  • description contient le nom lisible par l'homme du résultat renvoyé. Pour les résultats de l'établissement, il s'agit généralement du nom de l'entreprise.
  • distance_meters contient un entier indiquant la distance en ligne droite entre le lieu prévu et le point d'origine spécifié, en mètres. Ce champ n'est renvoyé que lorsque le point d'origine est spécifié dans la demande. Ce champ n'est pas renvoyé dans les prédictions de type route .
  • place_id est un identifiant textuel qui identifie de manière unique un lieu. Pour récupérer des informations sur le lieu, transmettez cet identifiant dans le champ placeId d'une requête API Places. Pour plus d'informations sur les identifiants de lieu, consultez la présentation des identifiants de lieu.
  • termes contient un tableau de termes identifiant chaque section de la description renvoyée (une section de la description se termine généralement par une virgule). Chaque entrée du tableau a un champ de valeur, contenant le texte du terme, et un champ de décalage, définissant la position de départ de ce terme dans la description, mesurée en caractères Unicode.
  • types contient un tableau de types qui s'appliquent à cet endroit. Par exemple : [ "politique", "localité" ] ou [ "établissement", "géocode", "salon_beauté" ] . Le tableau peut contenir plusieurs valeurs. En savoir plus sur les types de lieux.
  • matched_substrings contient un tableau avec une valeur de décalage et une longueur . Ceux-ci décrivent l'emplacement du terme entré dans le texte du résultat de la prédiction, afin que le terme puisse être mis en évidence si vous le souhaitez.
  • structuré_formatage fournit du texte pré-formaté qui peut être affiché dans vos résultats de saisie semi-automatique et contient les sous-champs suivants :
    • main_text contient le texte principal d'une prédiction, généralement le nom du lieu.
    • main_text_matched_substrings contient un tableau avec une valeur de décalage et une longueur . Ceux-ci décrivent l'emplacement du terme entré dans le texte du résultat de la prédiction, afin que le terme puisse être mis en évidence si vous le souhaitez.
    • secondaire_texte contient le texte secondaire d'une prédiction, généralement l'emplacement du lieu.

    Comment permettre à l'utilisateur de placer un point en entrée d'un modèle de géotraitement ? - Systèmes d'information géographique

    Attractions - Attractions à proximité de la région de Point Pleasant Beach

    Info Plage - Description de la plage et accès au rivage

    Promenade - Visitez la célèbre promenade de Point Pleasant Beach ! Comprend une description et des informations sur les visiteurs

    Calendrier de l'événement - Découvrez ce qui se passe lors de VOTRE prochaine visite à Point Pleasant Beach!

    Pêche - Informations sur la pêche couvrant la baie et les eaux océaniques

    Plongée sous-marine - Êtes-vous un plongeur? Alors cliquez ici et découvrez ce que le monde sous-marin autour de notre ville a à offrir !

    Festival des fruits de mer - Information sur le populaire Festival de l'Atlantique qui se tient chaque année en septembre dans notre centre-ville!

    Transport - Transport vers et depuis Point Pleasant Beach, NJ en train, en voiture ou en yacht !

    Coordonnées de Shore Advantage

    RENSEIGNEMENTS DE POLICE, D'INCENDIE ET ​​D'URGENCE

    Hébergement - Répertoire des hôtels et motels et auberges de la région de Point Pleasant Beach

    Activités et divertissements - Il n'y a jamais de manque de choses à faire dans la région de Point Pleasant Beach - cliquez ici pour quelques idées !

    Antiquités - Point Pleasant Beach offre aux antiquaires un grand choix de magasins et de boutiques

    Appâts et articles de pêche - Voici quelques magasins d'appâts et d'articles de pêche de la région - arrêtez-vous avant de partir pour obtenir vos fournitures et des informations locales.

    Charter & Fishing Boats - Notre répertoire complet des meilleurs bateaux de pêche à proximité et des bateaux de fête naviguant dans l'inlet Manasquan toute l'année

    Location de bateaux - Notre annuaire des locations de bateaux à proximité.

    Spas de santé, de remise en forme et de beauté - Point Pleasant Beach propose des spas de santé, de remise en forme et de beauté que vous pouvez utiliser en tant que résident local ou pendant vos vacances !

    Marinas - Marinas de plaisance mettant en vedette Kens Landing. Dockage avec accès rapide à l'océan via l'inlet Manasquan

    Multimédia - Mode de vie, histoire et éducation à Point Pleasant Beach

    Vie nocturne - Liste des établissements proposant des animations en soirée

    Agents immobiliers - Vous cherchez une maison à terre? Voici une liste d'agents immobiliers couvrant la région

    Restaurants & amp Family Dining - Annuaire de nombreux bons restaurants locaux pour votre plus grand plaisir. Fruits de mer, italiens, mexicains et plus encore!

    Sports nautiques - Du parachute ascensionnel au kayak en passant par le jet ski, vous le trouverez ici !


    Pourquoi l'injection SQL représente-t-elle un tel risque de sécurité pour le campus ?

    Les attaquants sondent constamment l'Internet en général et les sites Web des campus pour détecter les vulnérabilités d'injection SQL. Ils utilisent des outils qui automatisent la découverte des failles d'injection SQL et tentent d'exploiter l'injection SQL principalement à des fins financières (par exemple, voler des informations personnellement identifiables qui sont ensuite utilisées pour le vol d'identité).

    Étant donné que de nombreuses applications modernes sont axées sur les données et accessibles via le Web, les vulnérabilités d'injection SQL sont répandues et facilement exploitables. De plus, en raison de la prévalence de l'infrastructure de base de données partagée, une faille d'injection SQL dans une application peut entraîner la compromission d'autres applications partageant la même instance de base de données.

    Une fois exploitées, les attaques par injection SQL peuvent conduire à :

    • Vol, modification ou même destruction de données sensibles telles que des informations personnellement identifiables et des noms d'utilisateur et mots de passe
    • Élévation des privilèges au niveau de l'application, de la base de données ou même du système d'exploitation
    • Les attaquants « pivotent » en utilisant un serveur de base de données compromis pour attaquer d'autres systèmes sur le même réseau

    Analyse de la compatibilité des valeurs : utilisation des systèmes d'information géographique à participation publique (PPGIS) pour l'aide à la décision dans la gestion des forêts nationales

    Les valeurs humaines sont ancrées dans les décisions de gestion forestière mais sont rarement systématiquement et explicitement incluses dans le processus de décision. La législation nationale pour les terres publiques fournit souvent des objectifs contradictoires, mais peu d'orientations pour les agences telles que le US Forest Service pour opérationnaliser les préférences de valeur publique. La difficulté historique d'intégrer les valeurs publiques dans les décisions de gestion forestière comprend les problèmes de mesure, d'agrégation et d'analyse des compromis. Dans cet article, nous présentons une méthode de mesure et d'intégration de valeurs publiques spatialement explicites collectées à l'aide de systèmes d'information géographique à participation publique (PPGIS) dans un cadre d'aide à la décision que nous appelons analyse de compatibilité des valeurs (VCA). Nous proposons une étude de cas pour démontrer comment des valeurs publiques spatialement explicites peuvent être utilisées pour déterminer la compatibilité de la désignation de routes ATV/OHV sur les terres forestières nationales. Les applications et les limites de l'EVC pour l'aide à la décision sont élaborées et nous concluons qu'un cadre d'aide à la décision efficace devrait fournir un certain degré de normalisation, être largement inclusif et offrir la possibilité de s'engager dans des analyses systématiques de compromis de valeur basées sur le lieu.

    Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


    Contenu

    Les êtres artificiels capables de penser sont apparus comme des dispositifs de narration dans l'Antiquité [37] et ont été courants dans la fiction, comme dans le roman de Mary Shelley. Frankenstein ou chez Karel Čapek R.U.R. [38] Ces personnages et leurs destins ont soulevé plusieurs des mêmes problèmes maintenant discutés dans l'éthique de l'intelligence artificielle. [32]

    L'étude du raisonnement mécanique ou « formel » a commencé avec les philosophes et les mathématiciens de l'Antiquité. L'étude de la logique mathématique a conduit directement à la théorie du calcul d'Alan Turing, qui suggérait qu'une machine, en mélangeant des symboles aussi simples que "0" et "1", pouvait simuler n'importe quel acte imaginable de déduction mathématique. Cette idée, que les ordinateurs numériques peuvent simuler n'importe quel processus de raisonnement formel, est connue sous le nom de thèse Church-Turing. [39] Parallèlement aux découvertes simultanées en neurobiologie, en théorie de l'information et en cybernétique, cela a conduit les chercheurs à envisager la possibilité de construire un cerveau électronique. Turing a proposé de changer la question de savoir si une machine était intelligente, à « s'il est ou non possible pour les machines de montrer un comportement intelligent ». [40] Le premier travail qui est maintenant généralement reconnu comme AI était la conception formelle de McCullouch et Pitts en 1943 pour les "neurones artificiels" complets de Turing. [41]

    Le domaine de la recherche en IA est né lors d'un atelier au Dartmouth College en 1956, [42] où le terme « Intelligence Artificielle » a été inventé par John McCarthy pour distinguer le domaine de la cybernétique et échapper à l'influence du cybernéticien Norbert Wiener. [43] Les participants Allen Newell (CMU), Herbert Simon (CMU), John McCarthy (MIT), Marvin Minsky (MIT) et Arthur Samuel (IBM) sont devenus les fondateurs et les dirigeants de la recherche sur l'IA. [44] Eux et leurs étudiants ont produit des programmes que la presse a décrits comme « étonnants » : [45] les ordinateurs apprenaient les stratégies de jeu de dames (vers 1954) [46] (et en 1959, ils jouaient mieux que l'humain moyen), [47 ] résoudre des problèmes de mots en algèbre, prouver des théorèmes logiques (Logic Theorist, premier essai vers 1956) et parler anglais. [48] ​​Au milieu des années 1960, la recherche aux États-Unis était fortement financée par le ministère de la Défense [49] et des laboratoires avaient été créés dans le monde entier. [50] Les fondateurs d'AI étaient optimistes quant à l'avenir : Herbert Simon a prédit, « les machines seront capables, d'ici vingt ans, de faire n'importe quel travail qu'un homme peut faire ». Marvin Minsky a convenu, écrivant, "dans une génération. le problème de la création d'"intelligence artificielle" sera substantiellement résolu". [13]

    Ils n'ont pas reconnu la difficulté de certaines des tâches restantes. Les progrès ont ralenti et en 1974, en réponse aux critiques de Sir James Lighthill [51] et à la pression continue du Congrès américain pour financer des projets plus productifs, les gouvernements américain et britannique ont interrompu les recherches exploratoires sur l'IA. Les années suivantes seraient plus tard appelées « hiver de l'IA », [15] une période où l'obtention de financements pour des projets d'IA était difficile.

    Au début des années 1980, la recherche en IA a été relancée par le succès commercial des systèmes experts, [52] une forme de programme d'IA qui simulait les connaissances et les compétences analytiques des experts humains. En 1985, le marché de l'IA avait atteint plus d'un milliard de dollars. Dans le même temps, le projet informatique de cinquième génération du Japon a inspiré les gouvernements américain et britannique à rétablir le financement de la recherche universitaire. [14] Cependant, à partir de l'effondrement du marché de la machine Lisp en 1987, l'IA est de nouveau tombée en discrédit et une deuxième interruption de plus longue durée a commencé. [16]

    Le développement de l'intégration à très grande échelle métal-oxyde-semi-conducteur (MOS) (VLSI), sous la forme de la technologie des transistors MOS complémentaires (CMOS), a permis le développement de la technologie pratique des réseaux de neurones artificiels (ANN) dans les années 1980. Une publication historique dans le domaine a été le livre de 1989 Implémentation VLSI analogique de systèmes neuronaux par Carver A. Mead et Mohammed Ismail. [53]

    À la fin des années 1990 et au début du 21e siècle, l'IA a commencé à être utilisée pour la logistique, l'exploration de données, le diagnostic médical et d'autres domaines. [36] Le succès était dû à l'augmentation de la puissance de calcul (voir la loi de Moore et le nombre de transistors), l'accent mis sur la résolution de problèmes spécifiques, les nouveaux liens entre l'IA et d'autres domaines (tels que les statistiques, l'économie et les mathématiques) et l'engagement des chercheurs à méthodes mathématiques et normes scientifiques. [54] Deep Blue est devenu le premier système informatique de jeu d'échecs à battre un champion du monde en titre, Garry Kasparov, le 11 mai 1997. [55]

    En 2011, dans un Péril! quiz show match d'exhibition, le système de réponse aux questions d'IBM, Watson, a battu les deux plus grands Péril! champions, Brad Rutter et Ken Jennings, par une marge significative. [56] Des ordinateurs plus rapides, des améliorations algorithmiques et l'accès à de grandes quantités de données ont permis des avancées dans l'apprentissage automatique et les méthodes d'apprentissage en profondeur gourmandes en données de perception ont commencé à dominer les références de précision vers 2012. [57] Le Kinect, qui fournit un mouvement corporel 3D pour la Xbox 360 et la Xbox One, utilise des algorithmes issus de longues recherches sur l'IA [58], tout comme les assistants personnels intelligents dans les smartphones. [59] En mars 2016, AlphaGo a remporté 4 des 5 parties de Go dans un match avec le champion de Go Lee Sedol, devenant ainsi le premier système de jeu de Go sur ordinateur à battre un joueur de Go professionnel sans handicap. [10] [60] Lors du Sommet Future of Go 2017, AlphaGo a remporté un match de trois matchs avec Ke Jie, [61] qui à l'époque détenait continuellement le classement n ° 1 mondial pendant deux ans. [62] [63] Murray Campbell de Deep Blue a appelé la victoire d'AlphaGo "la fin d'une ère. Les jeux de société sont plus ou moins terminés [64] et il est temps de passer à autre chose." [65] Cela a marqué l'achèvement d'une étape importante dans le développement de l'intelligence artificielle, car le go est un jeu relativement complexe, plus que les échecs. AlphaGo a ensuite été amélioré, généralisé à d'autres jeux comme les échecs, avec AlphaZero [66] et MuZero [67] pour jouer à de nombreux jeux vidéo différents, qui étaient auparavant gérés séparément [68] en plus des jeux de société. D'autres programmes gèrent des jeux à informations imparfaites comme pour le poker à un niveau surhumain, Pluribus (poker bot) [69] et Cepheus (poker bot). [11] Voir : Jeu général.

    Selon Jack Clark de Bloomberg, 2015 a été une année charnière pour l'intelligence artificielle, le nombre de projets logiciels utilisant l'IA au sein de Google est passé d'une « utilisation sporadique » en 2012 à plus de 2 700 projets.Clark présente également des données factuelles indiquant les améliorations de l'IA depuis 2012 soutenues par des taux d'erreur plus faibles dans les tâches de traitement d'images. [70] Il attribue cela à une augmentation des réseaux de neurones abordables, en raison d'une augmentation de l'infrastructure informatique en nuage et d'une augmentation des outils de recherche et des ensembles de données. [17] D'autres exemples cités incluent le développement par Microsoft d'un système Skype qui peut traduire automatiquement d'une langue à une autre et le système de Facebook qui peut décrire des images aux personnes aveugles. [70] Dans une enquête de 2017, une entreprise sur cinq a déclaré avoir « incorporé l'IA dans certaines offres ou processus ». [71] [72] Vers 2016, la Chine a considérablement accéléré son financement public compte tenu de sa grande quantité de données et de ses résultats de recherche en augmentation rapide, certains observateurs pensent qu'elle pourrait être en passe de devenir une « superpuissance de l'IA ». [73] [74]

    En 2020, les systèmes de traitement du langage naturel tels que l'énorme GPT-3 (alors de loin le plus grand réseau de neurones artificiels) correspondaient aux performances humaines sur des références préexistantes, bien que le système n'atteigne pas une compréhension de bon sens du contenu des références. [75] AlphaFold 2 (2020) de DeepMind a démontré la capacité de déterminer, en heures plutôt qu'en mois, la structure 3D d'une protéine. La reconnaissance faciale a progressé jusqu'au point où, dans certaines circonstances, certains systèmes prétendent avoir un taux de précision de 99%. [76]

    L'informatique définit la recherche en IA comme l'étude des « agents intelligents » : tout appareil qui perçoit son environnement et prend des mesures qui maximisent ses chances d'atteindre avec succès ses objectifs. [3] Une définition plus élaborée caractérise l'IA comme « la capacité d'un système à interpréter correctement des données externes, à apprendre de ces données et à utiliser ces apprentissages pour atteindre des objectifs et des tâches spécifiques grâce à une adaptation flexible ». [77]

    Une IA typique analyse son environnement et prend des mesures qui maximisent ses chances de succès. [3] La fonction d'utilité prévue (ou objectif) d'une IA peut être simple ("1 si l'IA gagne une partie de Go, 0 sinon") ou complexe ("Effectuer des actions mathématiquement similaires à celles qui ont réussi dans le passé"). Les objectifs peuvent être explicitement définis ou induits. Si l'IA est programmée pour « l'apprentissage par renforcement », les objectifs peuvent être implicitement induits en récompensant certains types de comportement ou en punissant d'autres. [a] Alternativement, un système évolutif peut induire des objectifs en utilisant une "fonction d'aptitude" pour muter et répliquer de préférence des systèmes d'IA à haut score, de la même manière que les animaux ont évolué pour désirer de manière innée certains objectifs tels que trouver de la nourriture. [78] Certains systèmes d'IA, tels que le plus proche voisin, au lieu de raisonner par analogie, ces systèmes ne reçoivent généralement pas d'objectifs, sauf dans la mesure où les objectifs sont implicites dans leurs données d'entraînement. [79] De tels systèmes peuvent encore être évalués si le système sans objectif est conçu comme un système dont le « objectif » est d'accomplir sa tâche de classification étroite. [80]

    L'IA tourne souvent autour de l'utilisation d'algorithmes. Un algorithme est un ensemble d'instructions non ambiguës qu'un ordinateur mécanique peut exécuter. [b] Un algorithme complexe est souvent construit sur d'autres algorithmes plus simples. Un exemple simple d'algorithme est la recette suivante (optimale pour le premier joueur) pour jouer au morpion : [81]

    1. Si quelqu'un a une "menace" (c'est-à-dire deux de suite), prenez la case restante. Sinon,
    2. si un coup "fourche" pour créer deux menaces à la fois, jouez ce coup. Sinon,
    3. prendre le carré central s'il est libre. Sinon,
    4. si votre adversaire a joué dans un coin, prenez le coin opposé. Sinon,
    5. prendre un coin vide s'il en existe. Sinon,
    6. prendre n'importe quelle case vide.

    De nombreux algorithmes d'IA sont capables d'apprendre à partir de données qu'ils peuvent s'améliorer en apprenant de nouvelles heuristiques (stratégies, ou « règles empiriques », qui ont bien fonctionné dans le passé), ou peuvent eux-mêmes écrire d'autres algorithmes. Certains des « apprenants » décrits ci-dessous, y compris les réseaux bayésiens, les arbres de décision et le plus proche voisin, pourraient théoriquement (étant donné les données infinies, le temps et la mémoire) apprendre à approximer n'importe quelle fonction, y compris quelle combinaison de fonctions mathématiques décrirait le mieux le monde. [ citation requise ] Ces apprenants pourraient donc tirer toutes les connaissances possibles, en considérant toutes les hypothèses possibles et en les comparant aux données. En pratique, il est rarement possible d'envisager toutes les possibilités, à cause du phénomène d'« explosion combinatoire », où le temps nécessaire pour résoudre un problème croît de façon exponentielle. Une grande partie de la recherche sur l'IA consiste à déterminer comment identifier et éviter d'envisager un large éventail de possibilités peu susceptibles d'être bénéfiques. [82] [83] Par exemple, lors de la visualisation d'une carte et de la recherche de l'itinéraire routier le plus court de Denver à New York à l'est, on peut dans la plupart des cas ignorer n'importe quel chemin à travers San Francisco ou d'autres régions éloignées à l'ouest ainsi , une IA utilisant un algorithme de recherche de chemin comme A* peut éviter l'explosion combinatoire qui s'ensuivrait si toutes les routes possibles devaient être sérieusement considérées. [84]

    L'approche la plus ancienne (et la plus facile à comprendre) de l'IA était le symbolisme (comme la logique formelle) : « Si un adulte par ailleurs en bonne santé a de la fièvre, alors il peut avoir la grippe ». Une seconde approche, plus générale, est l'inférence bayésienne : « Si le patient actuel a de la fièvre, ajustez la probabilité qu'il ait la grippe de telle ou telle manière ». La troisième approche majeure, extrêmement populaire dans les applications d'IA d'entreprise de routine, sont les analogiseurs tels que SVM et le plus proche voisin : de ces patients se sont avérés avoir la grippe ». Une quatrième approche est plus difficile à comprendre intuitivement, mais s'inspire du fonctionnement de la machinerie du cerveau : l'approche du réseau de neurones artificiels utilise des « neurones » artificiels qui peuvent apprendre en se comparant à la sortie souhaitée et en modifiant les forces des connexions entre ses neurones internes. pour « renforcer » les connexions qui semblaient utiles. Ces quatre approches principales peuvent se chevaucher et avec des systèmes évolutifs, par exemple, les réseaux neuronaux peuvent apprendre à faire des inférences, à généraliser et à faire des analogies. Certains systèmes utilisent implicitement ou explicitement plusieurs de ces approches, aux côtés de nombreux autres algorithmes IA et non-IA, la meilleure approche est souvent différente selon le problème. [85] [86]

    Les algorithmes d'apprentissage fonctionnent sur la base que les stratégies, les algorithmes et les inférences qui ont bien fonctionné dans le passé sont susceptibles de continuer à bien fonctionner à l'avenir. Ces inférences peuvent être évidentes, telles que « puisque le soleil s'est levé chaque matin au cours des 10 000 derniers jours, il se lèvera probablement aussi demain matin ». Ils peuvent être nuancés, tels que "X% des familles ont des espèces géographiquement séparées avec des variantes de couleur, il y a donc Y% de chances que des cygnes noirs non découverts existent". Les apprenants travaillent également sur la base du « rasoir d'Occam » : la théorie la plus simple qui explique les données est la plus probable. Par conséquent, selon le principe du rasoir d'Occam, un apprenant doit être conçu de telle sorte qu'il préfère les théories plus simples aux théories complexes, sauf dans les cas où la théorie complexe s'avère nettement meilleure.

    S'installer sur une mauvaise théorie trop complexe, conçue pour s'adapter à toutes les données d'entraînement passées, est connu sous le nom de surapprentissage. De nombreux systèmes tentent de réduire le surapprentissage en récompensant une théorie en fonction de son adéquation avec les données, mais en pénalisant la théorie en fonction de sa complexité. [87] Outre le surapprentissage classique, les apprenants peuvent aussi décevoir en « apprenant la mauvaise leçon ». Un exemple de jouet est qu'un classificateur d'images formé uniquement sur des images de chevaux bruns et de chats noirs pourrait conclure que toutes les taches brunes sont susceptibles d'être des chevaux. [88] Un exemple du monde réel est que, contrairement aux humains, les classificateurs d'images actuels ne portent souvent pas de jugements principalement sur la relation spatiale entre les composants de l'image, et ils apprennent des relations entre les pixels dont les humains sont inconscients, mais qui sont toujours en corrélation. avec des images de certains types d'objets réels. La modification de ces modèles sur une image légitime peut entraîner des images « contradictoires » que le système classe mal. [c] [89] [90]

    Par rapport aux humains, l'IA existante manque de plusieurs caractéristiques du « raisonnement de bon sens » humain, notamment, les humains ont de puissants mécanismes pour raisonner sur la « physique naïve » tels que l'espace, le temps et les interactions physiques. Cela permet même aux jeunes enfants de faire facilement des inférences telles que « Si je fais rouler ce stylo sur une table, il tombera par terre ». Les humains disposent également d'un puissant mécanisme de « psychologie populaire » qui les aide à interpréter des phrases en langage naturel telles que « Les conseillers municipaux ont refusé un permis aux manifestants parce qu'ils prônaient la violence » (Une IA générique a du mal à discerner si ceux qui sont présumés prôner la violence violence sont les conseillers ou les manifestants [91] [92] [93] ). Ce manque de "connaissance commune" signifie que l'IA commet souvent des erreurs différentes de celles des humains, d'une manière qui peut sembler incompréhensible. Par exemple, les voitures autonomes existantes ne peuvent pas raisonner sur l'emplacement ou les intentions des piétons de la même manière que les humains le font, et doivent plutôt utiliser des modes de raisonnement non humains pour éviter les accidents. [94] [95] [96]

    Les capacités cognitives des architectures actuelles sont très limitées, n'utilisant qu'une version simplifiée de ce dont l'intelligence est réellement capable. Par exemple, l'esprit humain a trouvé des moyens de raisonner au-delà de la mesure et des explications logiques à différents événements de la vie. Ce qui aurait été autrement simple, un problème tout aussi difficile peut être difficile à résoudre informatiquement par opposition à l'utilisation de l'esprit humain. Cela donne lieu à deux classes de modèles : structuraliste et fonctionnaliste. Les modèles structurels visent à imiter vaguement les opérations d'intelligence de base de l'esprit telles que le raisonnement et la logique. Le modèle fonctionnel fait référence aux données corrélées à leur contrepartie calculée. [97]

    L'objectif global de recherche de l'intelligence artificielle est de créer une technologie qui permet aux ordinateurs et aux machines de fonctionner de manière intelligente. Le problème général de la simulation (ou de la création) de l'intelligence a été décomposé en sous-problèmes. Il s'agit de traits ou de capacités particuliers que les chercheurs s'attendent à ce qu'un système intelligent affiche. Les traits décrits ci-dessous ont reçu le plus d'attention. [20]

    Raisonnement, résolution de problèmes

    Les premiers chercheurs ont développé des algorithmes qui imitaient le raisonnement étape par étape que les humains utilisent lorsqu'ils résolvent des énigmes ou font des déductions logiques. [98] À la fin des années 1980 et dans les années 1990, la recherche en IA avait développé des méthodes pour traiter des informations incertaines ou incomplètes, en utilisant des concepts de probabilité et d'économie. [99]

    Ces algorithmes se sont avérés insuffisants pour résoudre de grands problèmes de raisonnement car ils ont connu une « explosion combinatoire » : ils sont devenus exponentiellement plus lents à mesure que les problèmes prenaient de l'ampleur. [82] Même les humains utilisent rarement la déduction étape par étape que les premières recherches sur l'IA pouvaient modéliser. Ils résolvent la plupart de leurs problèmes en utilisant des jugements rapides et intuitifs. [100]

    Représentation des connaissances

    La représentation des connaissances [101] et l'ingénierie des connaissances [102] sont au cœur de la recherche classique en IA. Certains « systèmes experts » tentent de rassembler des connaissances explicites détenues par des experts dans un domaine restreint. En outre, certains projets tentent de rassembler les "connaissances de bon sens" connues de la personne moyenne dans une base de données contenant des connaissances approfondies sur le monde. Parmi les éléments qu'une base de connaissances complète de bon sens contiendrait : les objets, les propriétés, les catégories et les relations entre les objets [103] les situations, les événements, les états et le temps [104] les causes et les effets [105] les connaissances sur la connaissance (ce que nous savons sur ce que les autres les gens connaissent) [106] et de nombreux autres domaines moins bien documentés. Une représentation de « ce qui existe » est une ontologie : l'ensemble d'objets, de relations, de concepts et de propriétés formellement décrits afin que les agents logiciels puissent les interpréter. La sémantique de ceux-ci est capturée en tant que concepts de logique de description, rôles et individus, et généralement implémentée en tant que classes, propriétés et individus dans le langage d'ontologie Web. [107] Les ontologies les plus générales sont appelées ontologies supérieures, qui tentent de fournir une base pour toutes les autres connaissances [108] en agissant comme médiateurs entre les ontologies de domaine qui couvrent des connaissances spécifiques sur un domaine de connaissances particulier (domaine d'intérêt ou domaine de préoccupation) . De telles représentations formelles des connaissances peuvent être utilisées dans l'indexation et la récupération basées sur le contenu, [109] l'interprétation de scènes, [110] l'aide à la décision clinique, [111] la découverte de connaissances (extraction d'inférences « intéressantes » et exploitables à partir de grandes bases de données), [112] et d'autres endroits. [113]

    Parmi les problèmes les plus difficiles de la représentation des connaissances figurent :

    Raisonnement par défaut et problème de qualification Beaucoup de choses que les gens savent prennent la forme d'"hypothèses de travail". Par exemple, si un oiseau arrive dans la conversation, les gens imaginent généralement un animal de la taille d'un poing qui chante et vole. Aucune de ces choses n'est vraie pour tous les oiseaux. John McCarthy a identifié ce problème en 1969 [114] comme le problème de qualification : pour toute règle de bon sens que les chercheurs en IA se soucient de représenter, il y a généralement un grand nombre d'exceptions. Presque rien n'est simplement vrai ou faux comme l'exige la logique abstraite. La recherche en IA a exploré un certain nombre de solutions à ce problème. [115] Étendue des connaissances de bon sens Le nombre de faits atomiques que la personne moyenne connaît est très grand. Les projets de recherche qui tentent de construire une base de connaissances complète de connaissances de bon sens (par exemple, Cyc) nécessitent d'énormes quantités d'ingénierie ontologique laborieuse - ils doivent être construits, à la main, un concept compliqué à la fois. [116] Forme sous-symbolique de certaines connaissances de bon sens Une grande partie de ce que les gens savent n'est pas représenté comme des "faits" ou des "déclarations" qu'ils pourraient exprimer verbalement. Par exemple, un maître d'échecs évitera une position particulière aux échecs parce qu'elle "se sent trop exposée" [117] ou un critique d'art peut jeter un coup d'œil à une statue et se rendre compte qu'il s'agit d'un faux. [118] Ce sont des intuitions ou des tendances non conscientes et sous-symboliques dans le cerveau humain. [119] Une telle connaissance informe, soutient et fournit un contexte pour une connaissance symbolique et consciente. Comme pour le problème connexe du raisonnement sous-symbolique, on espère que l'IA située, l'intelligence informatique ou l'IA statistique fourniront des moyens de représenter cette connaissance. [119]

    Planification

    Les agents intelligents doivent être capables de se fixer des objectifs et de les atteindre. [120] Ils ont besoin d'un moyen de visualiser l'avenir - une représentation de l'état du monde et être capable de faire des prédictions sur la façon dont leurs actions le modifieront - et être capables de faire des choix qui maximisent l'utilité (ou la "valeur") des choix disponibles. [121]

    Dans les problèmes de planification classiques, l'agent peut supposer qu'il s'agit du seul système agissant dans le monde, permettant à l'agent d'être certain des conséquences de ses actions. [122] Cependant, si l'agent n'est pas le seul acteur, il faut alors que l'agent puisse raisonner dans l'incertitude. Cela nécessite un agent capable non seulement d'évaluer son environnement et de faire des prédictions, mais aussi d'évaluer ses prédictions et de s'adapter en fonction de son évaluation. [123]

    La planification multi-agents utilise la coopération et la concurrence de nombreux agents pour atteindre un objectif donné. Un comportement émergent comme celui-ci est utilisé par les algorithmes évolutionnaires et l'intelligence en essaim. [124]

    Apprentissage

    L'apprentissage automatique (ML), un concept fondamental de la recherche en IA depuis la création du domaine, [d] est l'étude d'algorithmes informatiques qui s'améliorent automatiquement grâce à l'expérience. [e] [127]

    L'apprentissage non supervisé est la capacité de trouver des modèles dans un flux d'entrées, sans qu'un humain ait d'abord besoin d'étiqueter les entrées. L'apprentissage supervisé comprend à la fois la classification et la régression numérique, ce qui nécessite qu'un humain étiquette d'abord les données d'entrée. La classification est utilisée pour déterminer à quelle catégorie appartient quelque chose et se produit après qu'un programme a vu un certain nombre d'exemples de choses de plusieurs catégories. La régression est la tentative de produire une fonction qui décrit la relation entre les entrées et les sorties et prédit comment les sorties devraient changer à mesure que les entrées changent. [127] Les classificateurs et les apprenants par régression peuvent être considérés comme des « approximateurs de fonction » essayant d'apprendre une fonction inconnue (éventuellement implicite). deux catégories, "spam" ou "pas de spam". La théorie de l'apprentissage informatique peut évaluer les apprenants par complexité informatique, par complexité d'échantillon (quantité de données requise) ou par d'autres notions d'optimisation. [128] Dans l'apprentissage par renforcement [129], l'agent est récompensé pour les bonnes réponses et puni pour les mauvaises. L'agent utilise cette séquence de récompenses et de punitions pour former une stratégie pour opérer dans son espace de problème.

    Traitement du langage naturel

    Le traitement du langage naturel [130] (NLP) permet aux machines de lire et de comprendre le langage humain. Un système de traitement du langage naturel suffisamment puissant permettrait des interfaces utilisateur en langage naturel et l'acquisition de connaissances directement à partir de sources écrites par l'homme, telles que des textes de fil de presse. Certaines applications simples du traitement du langage naturel incluent la recherche d'informations, l'exploration de texte, la réponse aux questions et la traduction automatique. [131] De nombreuses approches actuelles utilisent des fréquences de cooccurrence de mots pour construire des représentations syntaxiques du texte. Les stratégies de recherche de « repérage par mot-clé » sont populaires et évolutives, mais une requête de recherche stupide pour « chien » peut ne faire correspondre que des documents contenant le mot littéral « chien » et manquer un document contenant le mot « caniche ». Les stratégies d'« affinité lexicale » utilisent l'occurrence de mots tels que « accident » pour évaluer le sentiment d'un document. Les approches statistiques modernes de la PNL peuvent combiner toutes ces stratégies ainsi que d'autres, et atteignent souvent une précision acceptable au niveau de la page ou du paragraphe. Au-delà de la PNL sémantique, le but ultime de la PNL "narrative" est d'incarner une pleine compréhension du raisonnement de bon sens. [132] D'ici 2019, les architectures d'apprentissage en profondeur basées sur des transformateurs pourraient générer un texte cohérent. [133]

    La perception

    La perception de la machine [134] est la capacité d'utiliser les entrées de capteurs (tels que des caméras (spectre visible ou infrarouge), des microphones, des signaux sans fil et des capteurs lidar, sonar, radar et tactiles actifs) pour déduire des aspects du monde. Les applications incluent la reconnaissance vocale, [135] la reconnaissance faciale et la reconnaissance d'objets. [136] La vision par ordinateur est la capacité d'analyser les entrées visuelles. Une telle entrée est généralement ambiguë. Un piéton géant de cinquante mètres de haut peut produire les mêmes pixels qu'un piéton de taille normale à proximité, obligeant l'IA à juger de la probabilité relative et du caractère raisonnable de différentes interprétations, par exemple en utilisant son "objet modèle" pour évaluer que les piétons de cinquante mètres n'existent pas.[137]

    Mouvement et manipulation

    L'IA est largement utilisée en robotique. [138] Les bras robotiques avancés et autres robots industriels, largement utilisés dans les usines modernes, peuvent apprendre par expérience comment se déplacer efficacement malgré la présence de friction et de glissement des engrenages. [139] Un robot mobile moderne, lorsqu'il dispose d'un environnement petit, statique et visible, peut facilement déterminer son emplacement et cartographier son environnement. Cependant, les environnements dynamiques, tels que (en endoscopie) l'intérieur du corps respiratoire d'un patient, posent un plus défi. La planification de mouvement est le processus de décomposition d'une tâche de mouvement en « primitives » telles que des mouvements articulaires individuels. Un tel mouvement implique souvent un mouvement conforme, un processus où le mouvement nécessite de maintenir un contact physique avec un objet. [140] [141] [142] Le paradoxe de Moravec généralise que les compétences sensorimotrices de bas niveau que les humains tiennent pour acquises sont, contre-intuitivement, difficiles à programmer dans un robot. facile de faire en sorte que les ordinateurs présentent des performances de niveau adulte aux tests d'intelligence ou aux dames, et difficile, voire impossible, de leur donner les compétences d'un enfant d'un an en matière de perception et de mobilité". [143] [144] Ceci est attribué au fait que, contrairement aux dames, la dextérité physique a été une cible directe de la sélection naturelle pendant des millions d'années. [145]

    Intelligence sociale

    Le paradoxe de Moravec peut être étendu à de nombreuses formes d'intelligence sociale. [147] [148] La coordination multi-agents distribuée des véhicules autonomes reste un problème difficile. [149] L'informatique affective est un parapluie interdisciplinaire qui comprend des systèmes qui reconnaissent, interprètent, traitent ou simulent les effets humains. [150] [151] [152] Les succès modérés liés à l'informatique affective incluent l'analyse des sentiments textuels et, plus récemment, l'analyse des émotions multimodales (voir l'analyse des sentiments multimodales), dans laquelle l'IA classe les affects affichés par un sujet enregistré sur vidéo. [153]

    À long terme, des compétences sociales et une compréhension de l'émotion humaine et de la théorie des jeux seraient précieuses pour un agent social. La capacité de prédire les actions des autres en comprenant leurs motivations et leurs états émotionnels permettrait à un agent de prendre de meilleures décisions. Certains systèmes informatiques imitent les émotions et les expressions humaines pour apparaître plus sensibles à la dynamique émotionnelle de l'interaction humaine, ou pour faciliter autrement l'interaction homme-ordinateur. [154] De même, certains assistants virtuels sont programmés pour parler de manière conversationnelle ou même pour plaisanter avec humour, ce qui tend à donner aux utilisateurs naïfs une conception irréaliste de l'intelligence des agents informatiques existants. [155]

    Intelligence générale

    Historiquement, des projets tels que la base de connaissances Cyc (1984-) et l'énorme initiative japonaise de systèmes informatiques de cinquième génération (1982-1992) ont tenté de couvrir l'étendue de la cognition humaine. Ces premiers projets n'ont pas réussi à échapper aux limites des modèles logiques symboliques non quantitatifs et, rétrospectivement, ont largement sous-estimé la difficulté de l'IA inter-domaines. De nos jours, la plupart des chercheurs actuels en IA travaillent plutôt sur des applications « IA étroites » traitables (telles que le diagnostic médical ou la navigation automobile). [156] De nombreux chercheurs prédisent qu'un tel travail « d'IA étroit » dans différents domaines individuels sera éventuellement incorporé dans une machine dotée d'une intelligence générale artificielle (AGI), combinant la plupart des compétences étroites mentionnées dans cet article et dépassant même à un moment donné les capacités humaines. dans la plupart ou dans tous ces domaines. [26] [157] De nombreuses avancées ont une signification générale et transversale. Un exemple très médiatisé est que DeepMind dans les années 2010 a développé une « intelligence artificielle généralisée » qui pourrait apprendre par elle-même de nombreux jeux Atari divers, et a ensuite développé une variante du système qui réussit l'apprentissage séquentiel. [158] [159] [160] Outre l'apprentissage par transfert, [161] les percées hypothétiques de l'IAG pourraient inclure le développement d'architectures réflexives qui peuvent s'engager dans le méta-raisonnement de la théorie de la décision, et trouver comment « absorber » une base de connaissances complète à partir du tout le Web non structuré. [162] Certains soutiennent qu'une sorte d'"algorithme principal" (actuellement non découvert) conceptuellement simple, mais mathématiquement difficile, pourrait conduire à l'IAG. [163] Enfin, quelques approches « émergentes » cherchent à simuler de très près l'intelligence humaine et pensent que des caractéristiques anthropomorphes comme un cerveau artificiel ou le développement d'un enfant simulé pourraient un jour atteindre un point critique où l'intelligence générale émerge. [164] [165]

    Bon nombre des problèmes de cet article peuvent également nécessiter une intelligence générale, si les machines doivent résoudre les problèmes aussi bien que les gens le font. Par exemple, même des tâches simples et spécifiques, comme la traduction automatique, nécessitent qu'une machine lise et écrive dans les deux langues (PNL), suive l'argument de l'auteur (raison), sache de quoi on parle (connaissance) et reproduise fidèlement l'original de l'auteur. intention (intelligence sociale). Un problème comme la traduction automatique est considéré comme « IA-complet », car tous ces problèmes doivent être résolus simultanément afin d'atteindre des performances machine de niveau humain.

    Aucune théorie ou paradigme unificateur établi ne guide la recherche sur l'IA. Les chercheurs sont en désaccord sur de nombreuses questions. [f] Voici quelques-unes des questions les plus anciennes restées sans réponse : l'intelligence artificielle doit-elle simuler l'intelligence naturelle en étudiant la psychologie ou la neurobiologie ? Ou la biologie humaine n'est-elle pas aussi pertinente pour la recherche en IA que la biologie des oiseaux pour l'ingénierie aéronautique ? [23] Le comportement intelligent peut-il être décrit à l'aide de principes simples et élégants (comme la logique ou l'optimisation) ? Ou faut-il nécessairement résoudre un grand nombre de problèmes sans rapport ? [24]

    Cybernétique et simulation cérébrale

    Dans les années 1940 et 1950, un certain nombre de chercheurs ont exploré le lien entre la neurobiologie, la théorie de l'information et la cybernétique. Certains d'entre eux ont construit des machines utilisant des réseaux électroniques pour présenter une intelligence rudimentaire, comme les tortues de W. Gray Walter et la bête de Johns Hopkins. Beaucoup de ces chercheurs se sont réunis pour des réunions de la Teleological Society à l'Université de Princeton et du Ratio Club en Angleterre. [167] En 1960, cette approche a été largement abandonnée, bien que des éléments de celle-ci soient relancés dans les années 1980.

    Symbolique

    Lorsque l'accès aux ordinateurs numériques est devenu possible au milieu des années 1950, la recherche sur l'IA a commencé à explorer la possibilité que l'intelligence humaine puisse être réduite à la manipulation de symboles. La recherche était centrée sur trois institutions : l'Université Carnegie Mellon, Stanford et le MIT, et comme décrit ci-dessous, chacune a développé son propre style de recherche. John Haugeland a nommé ces approches symboliques de l'IA « bonne IA à l'ancienne » ou « GOFAI ». [168] Au cours des années 1960, les approches symboliques avaient obtenu un grand succès en simulant une « réflexion » de haut niveau dans de petits programmes de démonstration. Les approches basées sur la cybernétique ou les réseaux de neurones artificiels ont été abandonnées ou relégués au second plan. [g] Les chercheurs des années 1960 et 1970 étaient convaincus que les approches symboliques réussiraient à terme à créer une machine à intelligence générale artificielle et considéraient cela comme le but de leur domaine.

    Simulation cognitive

    Les économistes Herbert Simon et Allen Newell ont étudié les compétences humaines en résolution de problèmes et ont tenté de les formaliser, et leurs travaux ont jeté les bases du domaine de l'intelligence artificielle, ainsi que des sciences cognitives, de la recherche opérationnelle et des sciences de gestion. Leur équipe de recherche a utilisé les résultats d'expériences psychologiques pour développer des programmes qui simulaient les techniques que les gens utilisaient pour résoudre des problèmes. Cette tradition, centrée à l'Université Carnegie Mellon, a finalement abouti au développement de l'architecture Soar au milieu des années 1980. [169] [170]

    Basé sur la logique

    Contrairement à Simon et Newell, John McCarthy a estimé que les machines n'avaient pas besoin de simuler la pensée humaine, mais devraient plutôt essayer de trouver l'essence du raisonnement abstrait et de la résolution de problèmes, que les gens aient utilisé ou non les mêmes algorithmes. [23] Son laboratoire à Stanford (SAIL) s'est concentré sur l'utilisation de la logique formelle pour résoudre une grande variété de problèmes, y compris la représentation des connaissances, la planification et l'apprentissage. [171] La logique était aussi le centre du travail à l'Université d'Édimbourg et ailleurs en Europe qui a mené au développement du langage de programmation Prolog et de la science de la programmation logique. [172]

    Anti-logique ou débraillé

    Des chercheurs du MIT (tels que Marvin Minsky et Seymour Papert) [173] ont découvert que la résolution de problèmes difficiles de vision et de traitement du langage naturel nécessitait des solutions ad hoc. comportement. Roger Schank a décrit leurs approches « anti-logiques » comme « débraillées » (par opposition aux paradigmes « soignés » de la CMU et de Stanford). [24] Les bases de connaissances de bon sens (telles que Cyc de Doug Lenat) sont un exemple d'IA « débraillée », car elles doivent être construites à la main, un concept compliqué à la fois. [174]

    Basé sur la connaissance

    Lorsque des ordinateurs dotés de mémoires volumineuses sont devenus disponibles vers 1970, des chercheurs des trois traditions ont commencé à intégrer des connaissances dans des applications d'IA. [175] Cette « révolution de la connaissance » a conduit au développement et au déploiement de systèmes experts (introduits par Edward Feigenbaum), la première forme vraiment réussie de logiciel d'IA. [52] Un élément clé de l'architecture du système pour tous les systèmes experts est la base de connaissances, qui stocke les faits et les règles qui illustrent l'IA. [176] La révolution de la connaissance a également été motivée par la prise de conscience que d'énormes quantités de connaissances seraient requises par de nombreuses applications d'IA simples.

    Sous-symbolique

    Dans les années 1980, les progrès de l'IA symbolique semblaient au point mort et beaucoup pensaient que les systèmes symboliques ne seraient jamais capables d'imiter tous les processus de la cognition humaine, en particulier la perception, la robotique, l'apprentissage et la reconnaissance de formes. Un certain nombre de chercheurs ont commencé à se pencher sur des approches "sous-symboliques" de problèmes spécifiques d'IA. [25] Les méthodes sous-symboliques parviennent à aborder l'intelligence sans représentations spécifiques de la connaissance.

    Intelligence incarnée

    Cela inclut l'IA incarnée, située, basée sur le comportement et la nouvelle IA. Des chercheurs du domaine connexe de la robotique, tels que Rodney Brooks, ont rejeté l'IA symbolique et se sont concentrés sur les problèmes d'ingénierie de base qui permettraient aux robots de se déplacer et de survivre. [177] Leurs travaux ont ravivé le point de vue non symbolique des premiers chercheurs en cybernétique des années 1950 et ont réintroduit l'utilisation de la théorie du contrôle dans l'IA. Cela a coïncidé avec le développement de la thèse de l'esprit incarné dans le domaine connexe des sciences cognitives : l'idée que des aspects du corps (tels que le mouvement, la perception et la visualisation) sont nécessaires à une intelligence supérieure.

    Au sein de la robotique développementale, des approches d'apprentissage développemental sont élaborées pour permettre aux robots d'accumuler des répertoires de nouvelles compétences grâce à une auto-exploration autonome, une interaction sociale avec des enseignants humains et l'utilisation de mécanismes d'orientation (apprentissage actif, maturation, synergies motrices, etc.). [178] [179] [180] [181]

    Intelligence computationnelle et informatique douce

    L'intérêt pour les réseaux de neurones et le « connexionnisme » a été relancé par David Rumelhart et d'autres au milieu des années 1980. [182] Les réseaux de neurones artificiels sont un exemple d'informatique douce - ce sont des solutions à des problèmes qui ne peuvent pas être résolus avec une certitude logique complète, et où une solution approximative est souvent suffisante. D'autres approches informatiques douces de l'IA incluent les systèmes flous, la théorie du système de Gray, le calcul évolutif et de nombreux outils statistiques. L'application de l'informatique douce à l'IA est étudiée collectivement par la discipline émergente de l'intelligence informatique. [183]

    Statistique

    Une grande partie du GOFAI traditionnel s'est embourbé dans ad hoc correctifs au calcul symbolique qui fonctionnait sur leurs propres modèles de jouets mais n'a pas réussi à se généraliser aux résultats du monde réel. Cependant, vers les années 1990, les chercheurs en IA ont adopté des outils mathématiques sophistiqués, tels que les modèles de Markov cachés (HMM), la théorie de l'information et la théorie de la décision bayésienne normative pour comparer ou unifier des architectures concurrentes. Le langage mathématique partagé a permis un niveau élevé de collaboration avec des domaines plus établis (comme les mathématiques, l'économie ou la recherche opérationnelle). [h] Par rapport à GOFAI, les nouvelles techniques d'"apprentissage statistique" telles que le HMM et les réseaux de neurones gagnaient en précision dans de nombreux domaines pratiques tels que l'exploration de données, sans nécessairement acquérir une compréhension sémantique des ensembles de données. Les succès accrus avec les données du monde réel ont conduit à mettre davantage l'accent sur la comparaison de différentes approches avec des données de test partagées pour voir quelle approche fonctionnait le mieux dans un contexte plus large que celui fourni par les modèles de jouets idiosyncratiques. La recherche sur l'IA devenait plus scientifique. De nos jours, les résultats des expériences sont souvent rigoureusement mesurables et parfois (difficilement) reproductibles. [54] [184] Différentes techniques d'apprentissage statistique ont des limites différentes, par exemple, le HMM de base ne peut pas modéliser les combinaisons infinies possibles du langage naturel. [185] Les critiques notent que le passage de GOFAI à l'apprentissage statistique est souvent aussi un éloignement de l'IA explicable. Dans la recherche AGI, certains chercheurs mettent en garde contre une trop grande dépendance à l'égard de l'apprentissage statistique et soutiennent que la poursuite des recherches sur GOFAI sera toujours nécessaire pour atteindre une intelligence générale. [186] [187]

    Intégrer les approches

    L'IA est pertinente pour toute tâche intellectuelle. [192] Les techniques modernes d'intelligence artificielle sont omniprésentes [193] et sont trop nombreuses pour être énumérées ici. Souvent, lorsqu'une technique atteint l'utilisation courante, elle n'est plus considérée comme une intelligence artificielle, ce phénomène est décrit comme l'effet de l'IA. [194]

    Des exemples très médiatisés d'IA incluent les véhicules autonomes (tels que les drones et les voitures autonomes), le diagnostic médical, la création artistique (comme la poésie), la démonstration de théorèmes mathématiques, les jeux (tels que les échecs ou le go), les moteurs de recherche (tels que Recherche Google), assistants en ligne (tels que Siri), reconnaissance d'images dans les photographies, filtrage anti-spam, prévision des retards de vol, [195] prédiction des décisions judiciaires, [196] ciblage des publicités en ligne, [192] [197] [198] et énergie stockage [199]

    Les sites de médias sociaux dépassant la télévision en tant que source d'information pour les jeunes et les organisations de presse dépendant de plus en plus des plateformes de médias sociaux pour générer la distribution, [200] les principaux éditeurs utilisent désormais la technologie de l'intelligence artificielle (IA) pour publier des articles plus efficacement et générer des volumes plus importants de circulation. [201]

    L'IA peut également produire des Deepfakes, une technologie de modification de contenu. ZDNet rapporte : "Cela présente quelque chose qui ne s'est pas réellement produit". Le boom de l'année électorale ouvre également le discours public à des menaces de vidéos de médias politiques falsifiés. [202]

    Il y a trois questions philosophiques liées à l'IA : [203]

    1. Si l'intelligence artificielle générale est possible, si une machine peut résoudre n'importe quel problème qu'un être humain peut résoudre en utilisant l'intelligence, ou s'il y a des limites strictes à ce qu'une machine peut accomplir.
    2. Que les machines intelligentes soient dangereuses, comment les humains peuvent s'assurer que les machines se comportent de manière éthique et qu'elles sont utilisées de manière éthique.
    3. Si une machine peut avoir un esprit, une conscience et des états mentaux dans le même sens que les êtres humains si une machine peut être sensible, et ainsi mériter certains droits - et si une machine peut intentionnellement causer des dommages.

    Les limites de l'intelligence artificielle générale

    Machines éthiques

    Les machines intelligentes ont le potentiel d'utiliser leur intelligence pour prévenir les dommages et minimiser les risques. Elles peuvent avoir la capacité d'utiliser un raisonnement éthique pour mieux choisir leurs actions dans le monde. En tant que tel, il est nécessaire d'élaborer des politiques pour élaborer des politiques et réglementer l'intelligence artificielle et la robotique. [214] Les recherches dans ce domaine incluent l'éthique des machines, les agents moraux artificiels, l'IA conviviale et des discussions sur la construction d'un cadre des droits de l'homme sont également en cours. [215]

    Joseph Weizenbaum dans Puissance informatique et raison humaine a écrit que les applications d'IA ne peuvent, par définition, simuler avec succès une véritable empathie humaine et que l'utilisation de la technologie de l'IA dans des domaines tels que le service client ou la psychothérapie [j] était profondément erronée. Weizenbaum était également dérangé par le fait que les chercheurs en IA (et certains philosophes) étaient disposés à considérer l'esprit humain comme rien de plus qu'un programme informatique (une position maintenant connue sous le nom de computationalisme). Pour Weizenbaum, ces points suggèrent que la recherche sur l'IA dévalorise la vie humaine. [217]

    Agents moraux artificiels

    Wendell Wallach a introduit le concept d'agents moraux artificiels (AMA) dans son livre Machines morales [218] Pour Wallach, les AMA sont devenues une partie du paysage de la recherche sur l'intelligence artificielle, guidée par ses deux questions centrales qu'il identifie comme « Est-ce que l'humanité veut que les ordinateurs prennent des décisions morales » [219] et « Les (Ro)bots peuvent-ils vraiment être Moral". [220] Pour Wallach, la question n'est pas centrée sur la question de qu'il s'agisse les machines peuvent démontrer l'équivalent d'un comportement moral, contrairement aux contraintes que la société peut accorder au développement des AMA. [221]

    Éthique des machines

    Le domaine de l'éthique des machines vise à donner aux machines des principes éthiques, ou une procédure pour découvrir un moyen de résoudre les dilemmes éthiques qu'elles pourraient rencontrer, leur permettant de fonctionner de manière éthiquement responsable par le biais de leur propre prise de décision éthique. [222] Le domaine a été délimité dans le Symposium AAAI de l'automne 2005 sur l'éthique des machines : « Les recherches antérieures concernant la relation entre la technologie et l'éthique se sont largement concentrées sur l'utilisation responsable et irresponsable de la technologie par les êtres humains, quelques personnes s'intéressant à la façon dont l'homme les êtres doivent traiter les machines. Dans tous les cas, seuls les êtres humains se sont engagés dans le raisonnement éthique. Le moment est venu d'ajouter une dimension éthique à au moins certaines machines. Reconnaissance des ramifications éthiques des comportements impliquant des machines, ainsi que des comportements récents et potentiels l'évolution de l'autonomie de la machine, le nécessitent. Contrairement au piratage informatique, aux problèmes de propriété logicielle, aux problèmes de confidentialité et à d'autres sujets normalement attribués à l'éthique informatique, l'éthique machine concerne le comportement des machines envers les utilisateurs humains et d'autres machines. clé pour atténuer les problèmes avec les systèmes autonomes - on pourrait faire valoir que la notion de machines autonomes sans s Une telle dimension est à l'origine de toutes les craintes concernant l'intelligence artificielle.En outre, l'investigation de l'éthique des machines pourrait permettre la découverte de problèmes avec les théories éthiques actuelles, faisant avancer notre réflexion sur l'éthique. » [223] L'éthique des machines est parfois appelée morale des machines, éthique informatique ou morale informatique. peut être trouvé dans l'édition collectée "Machine Ethics" [222] qui découle du Symposium AAAI Fall 2005 on Machine Ethics. [223]

    IA malveillante et amicale

    Le politologue Charles T. Rubin estime que l'IA ne peut être ni conçue ni garantie pour être bienveillante. [224] Il soutient que « toute bienveillance suffisamment avancée peut être indiscernable de la malveillance ». Les humains ne devraient pas supposer que les machines ou les robots nous traiteraient favorablement parce qu'il n'y a pas de a priori raison de croire qu'ils seraient sympathiques à notre système de moralité, qui a évolué avec notre biologie particulière (que les IA ne partageraient pas). Les logiciels hyper-intelligents ne décideront peut-être pas nécessairement de soutenir l'existence continue de l'humanité et seraient extrêmement difficiles à arrêter. Ce sujet a également récemment commencé à être discuté dans des publications académiques comme une véritable source de risques pour la civilisation, les humains et la planète Terre.

    Une proposition pour faire face à cela est de s'assurer que la première IA généralement intelligente est une « IA conviviale » et sera capable de contrôler les IA développées par la suite. Certains se demandent si ce type de contrôle pourrait effectivement rester en place.

    L'éminent chercheur en IA Rodney Brooks écrit : « Je pense que c'est une erreur de s'inquiéter que nous développions une IA malveillante à tout moment au cours des cent prochaines années. Je pense que l'inquiétude provient d'une erreur fondamentale consistant à ne pas faire la différence entre les avancées récentes très réelles dans un aspect particulier de l'IA et de l'énormité et de la complexité de la construction d'une intelligence volontaire sensible." [225]

    Les armes autonomes létales sont préoccupantes. Actuellement, plus de 50 pays recherchent des robots de champ de bataille, notamment les États-Unis, la Chine, la Russie et le Royaume-Uni. De nombreuses personnes préoccupées par les risques liés à l'IA super-intelligente souhaitent également limiter l'utilisation de soldats et de drones artificiels. [226]

    Conscience, sensibilité et esprit de la machine

    Si un système d'IA reproduit tous les aspects clés de l'intelligence humaine, ce système sera-t-il également sensible - aura-t-il un esprit qui a des expériences conscientes ? Cette question est étroitement liée au problème philosophique de la nature de la conscience humaine, généralement désigné comme le problème difficile de la conscience.

    Conscience

    David Chalmers a identifié deux problèmes dans la compréhension de l'esprit, qu'il a nommés les problèmes « difficiles » et « faciles » de la conscience. [227] Le problème facile est de comprendre comment le cerveau traite les signaux, planifie et contrôle le comportement. Le problème difficile est d'expliquer comment cela se sent ou pourquoi cela devrait ressembler à n'importe quoi. Le traitement de l'information humaine est facile à expliquer, mais l'expérience subjective humaine est difficile à expliquer.

    Par exemple, considérez ce qui se passe lorsqu'une personne voit un échantillon de couleur et l'identifie en disant "c'est rouge". Le problème simple nécessite seulement de comprendre la machinerie dans le cerveau qui permet à une personne de savoir que l'échantillon de couleur est rouge. Le problème difficile est que les gens savent aussi autre chose - ils savent aussi à quoi ressemble le rouge. (Considérez qu'une personne aveugle de naissance peut savoir que quelque chose est rouge sans savoir à quoi ressemble le rouge.) [k] Tout le monde sait que l'expérience subjective existe, car ils le font tous les jours (par exemple, toutes les personnes voyantes savent à quoi ressemble le rouge). Le problème difficile est d'expliquer comment le cerveau le crée, pourquoi il existe et en quoi il est différent de la connaissance et d'autres aspects du cerveau.

    Informatique et fonctionnalisme

    L'informatique est la position de la philosophie de l'esprit selon laquelle l'esprit humain ou le cerveau humain (ou les deux) est un système de traitement de l'information et que la pensée est une forme d'informatique. [228] L'informatique soutient que la relation entre l'esprit et le corps est similaire ou identique à la relation entre le logiciel et le matériel et peut donc être une solution au problème esprit-corps. Cette position philosophique a été inspirée par les travaux des chercheurs en IA et des scientifiques cognitifs dans les années 1960 et a été proposée à l'origine par les philosophes Jerry Fodor et Hilary Putnam.

    Hypothèse d'IA forte

    La position philosophique que John Searle a nommée « IA forte » déclare : « L'ordinateur correctement programmé avec les bonnes entrées et sorties aurait ainsi un esprit exactement dans le même sens que les êtres humains ont un esprit. » [l] Searle contredit cette affirmation avec son argument de la chambre chinoise, qui nous demande de regarder à l'intérieur l'ordinateur et essayez de trouver où se trouve "l'esprit". [230]

    Droits des robots

    S'il est possible de créer une machine dotée d'intelligence, pourrait-elle aussi ressentir? S'il peut ressentir, a-t-il les mêmes droits qu'un humain ? Cette question, désormais connue sous le nom de "droits des robots", est actuellement examinée par, par exemple, l'Institute for the Future de Californie, bien que de nombreux critiques estiment que la discussion est prématurée. [231] [232] Certains critiques du transhumanisme soutiennent que tout droit hypothétique de robot se situerait sur un spectre avec les droits des animaux et les droits de l'homme. [233] Le sujet est profondément abordé dans le film documentaire de 2010 Branchez et priez, [234] et de nombreux médias de science-fiction tels que Star Trek Next Generation, avec le personnage de Commander Data, qui s'est battu pour être démonté pour la recherche, et voulait "devenir humain", et les hologrammes robotiques dans Voyager.

    Superintelligence

    Y a-t-il des limites à ce que peuvent être les machines intelligentes – ou les hybrides homme-machine ? Une superintelligence, une hyperintelligence ou une intelligence surhumaine est un agent hypothétique qui posséderait une intelligence dépassant de loin celle de l'esprit humain le plus brillant et le plus doué. Superintelligence peut également faire référence à la forme ou au degré d'intelligence possédée par un tel agent. [157]

    Singularité technologique

    Si la recherche sur l'IA forte produisait un logiciel suffisamment intelligent, il pourrait peut-être se reprogrammer et s'améliorer. Le logiciel amélioré serait encore mieux à même de s'améliorer, conduisant à une auto-amélioration récursive. [235] La nouvelle intelligence pourrait ainsi augmenter de façon exponentielle et dépasser considérablement les humains. L'écrivain de science-fiction Vernor Vinge a nommé ce scénario « singularité ». [236] La singularité technologique se produit lorsque l'accélération des progrès technologiques provoquera un effet d'emballement dans lequel l'intelligence artificielle dépassera la capacité et le contrôle intellectuels humains, changeant ainsi radicalement ou même mettant fin à la civilisation. Parce que les capacités d'une telle intelligence peuvent être impossibles à comprendre, la singularité technologique est un événement au-delà duquel les événements sont imprévisibles ou même insondables. [236] [157]

    Ray Kurzweil a utilisé la loi de Moore (qui décrit l'amélioration exponentielle incessante de la technologie numérique) pour calculer que les ordinateurs de bureau auront la même puissance de traitement que les cerveaux humains d'ici 2029 et prédit que la singularité se produira en 2045. [236]

    Transhumanisme

    Le concepteur de robots Hans Moravec, le cybernéticien Kevin Warwick et l'inventeur Ray Kurzweil ont prédit que les humains et les machines fusionneraient à l'avenir en cyborgs plus capables et plus puissants que l'un ou l'autre. [237] Cette idée, appelée transhumanisme, trouve ses racines chez Aldous Huxley et Robert Ettinger.

    Edward Fredkin soutient que « l'intelligence artificielle est la prochaine étape de l'évolution », une idée proposée pour la première fois par « Darwin parmi les machines » de Samuel Butler dès 1863, et développée par George Dyson dans son livre du même nom en 1998. [238]

    Les effets économiques à long terme de l'IA sont incertains. Une enquête auprès d'économistes a montré un désaccord quant à savoir si l'utilisation croissante des robots et de l'IA entraînera une augmentation substantielle du chômage de longue durée, mais ils conviennent généralement que cela pourrait être un avantage net, si les gains de productivité sont redistribués. [239] Une étude de 2017 de PricewaterhouseCoopers voit la République populaire de Chine tirer le meilleur parti de l'IA sur le plan économique avec 26,1% du PIB jusqu'en 2030. [240] Un livre blanc de l'Union européenne de février 2020 sur l'intelligence artificielle préconise l'intelligence artificielle pour l'économie avantages, y compris « l'amélioration des soins de santé (par exemple, en rendant le diagnostic plus précis, permettant une meilleure prévention des maladies), en augmentant l'efficacité de l'agriculture, en contribuant à l'atténuation et à l'adaptation au changement climatique, [et] en améliorant l'efficacité des systèmes de production grâce à une maintenance prédictive », tout en reconnaissant Riques potentiels. [193]

    La relation entre l'automatisation et l'emploi est compliquée. Si l'automatisation élimine les anciens emplois, elle crée également de nouveaux emplois par le biais d'effets micro-économiques et macro-économiques. [241] Contrairement aux vagues d'automatisation précédentes, de nombreux emplois de la classe moyenne peuvent être supprimés par l'intelligence artificielle L'économiste déclare que "l'inquiétude que l'IA pourrait faire aux emplois de cols blancs ce que la puissance de la vapeur a fait aux cols bleus pendant la révolution industrielle" vaut "la peine d'être prise au sérieux". [242] Les estimations subjectives du risque varient considérablement, par exemple, Michael Osborne et Carl Benedikt Frey estiment que 47 % des emplois aux États-Unis sont à « haut risque » d'automatisation potentielle, alors qu'un rapport de l'OCDE classe seulement 9 % des emplois aux États-Unis comme « à haut risque ". [243] [244] [245] Les emplois à risque extrême vont des assistants juridiques aux cuisiniers de restauration rapide, tandis que la demande d'emploi est susceptible d'augmenter pour les professions liées aux soins, allant des soins de santé personnels au clergé. [246] L'auteur Martin Ford et d'autres vont plus loin et soutiennent que de nombreux travaux sont routiniers, répétitifs et (pour une IA) prévisibles. Ford prévient que ces travaux pourraient être automatisés au cours des deux prochaines décennies, et que bon nombre des nouveaux être "accessible aux personnes à capacités moyennes", même avec une reconversion. Les économistes soulignent que dans le passé, la technologie a eu tendance à augmenter plutôt qu'à réduire l'emploi total, mais reconnaissent que "nous sommes en territoire inconnu" avec l'IA. [35]

    Les effets négatifs potentiels de l'IA et de l'automatisation ont été un enjeu majeur pour la campagne présidentielle d'Andrew Yang en 2020 aux États-Unis. [247] Irakli Beridze, chef du Centre d'intelligence artificielle et de robotique de l'UNICRI, aux Nations Unies, a déclaré que « je pense que les applications dangereuses de l'IA, de mon point de vue, seraient les criminels ou les grandes organisations terroristes qui l'utilisent pour perturber processus de grande envergure ou tout simplement faire du mal. [Les terroristes pourraient causer des dommages] via la guerre numérique, ou il pourrait s'agir d'une combinaison de robotique, de drones, d'IA et d'autres choses qui pourraient être vraiment dangereuses. Et, bien sûr, d'autres risques viennent des choses comme les pertes d'emplois. Si nous avons un grand nombre de personnes qui perdent leur emploi et que nous ne trouvons pas de solution, ce sera extrêmement dangereux. Des choses comme les systèmes d'armes autonomes létaux devraient être correctement régies, sinon il y a un potentiel énorme d'abus. " [248]

    Risques d'IA étroite

    L'utilisation généralisée de l'intelligence artificielle pourrait avoir des conséquences imprévues dangereuses ou indésirables. Des scientifiques du Future of Life Institute, entre autres, ont décrit certains objectifs de recherche à court terme pour voir comment l'IA influence l'économie, les lois et l'éthique qui sont impliquées dans l'IA et comment minimiser les risques de sécurité de l'IA. À long terme, les scientifiques ont proposé de continuer à optimiser le fonctionnement tout en minimisant les risques de sécurité possibles liés aux nouvelles technologies. [249]

    Certains s'inquiètent du biais algorithmique, du fait que les programmes d'IA peuvent devenir involontairement biaisés après le traitement de données présentant un biais. [250] Les algorithmes ont déjà de nombreuses applications dans les systèmes juridiques. Un exemple en est COMPAS, un programme commercial largement utilisé par les tribunaux américains pour évaluer la probabilité qu'un défendeur devienne un récidiviste. ProPublica affirme que le niveau moyen de risque de récidive attribué par COMPAS aux accusés noirs est nettement plus élevé que le niveau de risque moyen attribué par COMPAS aux accusés blancs. [251]

    Risques de l'IA générale

    Le physicien Stephen Hawking, le fondateur de Microsoft Bill Gates, le professeur d'histoire Yuval Noah Harari et le fondateur de SpaceX Elon Musk ont ​​exprimé leurs inquiétudes quant à la possibilité que l'IA puisse évoluer au point que les humains ne puissent pas la contrôler, Hawking théorisant que cela pourrait "signaler la fin de la race humaine". [252] [253] [254] [255]

    Le développement de l'intelligence artificielle complète pourrait sonner le glas de la race humaine. Une fois que les humains auront développé l'intelligence artificielle, celle-ci prendra son envol et se redéfinira à un rythme de plus en plus rapide. Les humains, qui sont limités par une évolution biologique lente, ne pourraient pas rivaliser et seraient dépassés.

    Dans son livre Superintelligence, le philosophe Nick Bostrom avance l'argument selon lequel l'intelligence artificielle constituera une menace pour l'humanité. Il soutient qu'une IA suffisamment intelligente, si elle choisit des actions basées sur la réalisation d'un objectif, présentera un comportement convergent tel que l'acquisition de ressources ou la protection contre l'arrêt. Si les objectifs de cette IA ne reflètent pas pleinement ceux de l'humanité - un exemple est une IA qui doit calculer autant de chiffres de pi que possible - cela pourrait nuire à l'humanité afin d'acquérir plus de ressources ou de s'empêcher d'être arrêté, pour finalement mieux atteindre son objectif. . Bostrom souligne également la difficulté de transmettre pleinement les valeurs de l'humanité à une IA avancée. Il utilise l'exemple hypothétique de donner à une IA le but de faire sourire les humains pour illustrer une tentative malavisée. Si l'IA dans ce scénario devenait super-intelligente, soutient Bostrom, elle pourrait recourir à des méthodes que la plupart des humains trouveraient horribles, telles que l'insertion « d'électrodes dans les muscles faciaux des humains pour provoquer des sourires constants et rayonnants », car ce serait un moyen efficace moyen d'atteindre son objectif de faire sourire les humains. [257] Dans son livre Compatible avec les humains, le chercheur en IA Stuart J. Russell fait écho à certaines des préoccupations de Bostrom tout en proposant une approche pour développer des machines prouvablement bénéfiques axées sur l'incertitude et la déférence envers les humains, [258] : 173 impliquant éventuellement l'apprentissage par renforcement inverse. [258] : 191–193

    Les inquiétudes concernant les risques liés à l'intelligence artificielle ont conduit à des dons et des investissements de grande envergure. Un groupe de titans technologiques de premier plan, dont Peter Thiel, Amazon Web Services et Musk, a engagé 1 milliard de dollars pour OpenAI, une entreprise à but non lucratif visant à promouvoir le développement responsable de l'IA. [259] L'opinion des experts dans le domaine de l'intelligence artificielle est mitigée, avec des fractions importantes à la fois concernées et indifférentes au risque d'une éventuelle IA aux capacités surhumaines. [260] D'autres leaders de l'industrie technologique pensent que l'intelligence artificielle est utile dans sa forme actuelle et continuera d'aider les humains. Le PDG d'Oracle, Mark Hurd, a déclaré que l'IA "créera en fait plus d'emplois, pas moins d'emplois", car des humains seront nécessaires pour gérer les systèmes d'IA. [261] Le PDG de Facebook, Mark Zuckerberg, pense que l'IA "déverrouillera une énorme quantité de choses positives", comme guérir les maladies et augmenter la sécurité des voitures autonomes. [262] En janvier 2015, Musk a fait un don de 10 millions de dollars au Future of Life Institute pour financer des recherches sur la compréhension de la prise de décision en IA. L'objectif de l'institut est de « développer la sagesse avec laquelle nous gérons » le pouvoir croissant de la technologie. Musk finance également des sociétés développant l'intelligence artificielle telles que DeepMind et Vicarious pour « garder un œil sur ce qui se passe avec l'intelligence artificielle. [263] Je pense qu'il y a là une issue potentiellement dangereuse. » [264] [265]

    Pour que le danger d'une IA avancée incontrôlée se réalise, l'IA hypothétique devrait dominer ou dépasser toute l'humanité, ce qui, selon une minorité d'experts, est une possibilité suffisamment éloignée dans le futur pour ne pas valoir la peine d'être étudiée. [266] [267] D'autres contre-arguments tournent autour de la valeur intrinsèque ou convergente des humains du point de vue d'une intelligence artificielle. [268]

    La régulation de l'intelligence artificielle est l'élaboration de politiques et de lois du secteur public pour la promotion et la régulation de l'intelligence artificielle (IA) [269] [270] elle est donc liée à la régulation plus large des algorithmes. Le paysage réglementaire et politique de l'IA est un problème émergent dans les juridictions du monde entier, y compris dans l'Union européenne. [271] La réglementation est jugée nécessaire pour à la fois encourager l'IA et gérer les risques associés. [272] [273] La réglementation de l'IA par le biais de mécanismes tels que les commissions d'examen peut également être considérée comme un moyen social d'aborder le problème du contrôle de l'IA. [274]

    Compte tenu des préoccupations concernant l'exploitation des données, l'Union européenne a également développé une politique d'intelligence artificielle, avec un groupe de travail étudiant les moyens d'assurer la confiance dans l'utilisation de l'intelligence artificielle. Celles-ci ont été publiées dans deux livres blancs qui semblaient être passés inaperçus au milieu de la pandémie de COVID-19. L'une des politiques sur l'intelligence artificielle s'intitule Une approche européenne de l'excellence et de la confiance. [275] [276] [277]

    Les êtres artificiels capables de penser sont apparus comme des dispositifs de narration depuis l'antiquité [37] et ont été un thème persistant dans la science-fiction.

    Un trope commun dans ces œuvres a commencé avec Mary Shelley Frankenstein, où une création humaine devient une menace pour ses maîtres. Cela comprend des œuvres telles que celles d'Arthur C. Clarke et de Stanley Kubrick. 2001 : L'Odyssée de l'Espace (tous deux en 1968), avec HAL 9000, l'ordinateur meurtrier en charge du Découverte Un vaisseau spatial, ainsi que Le Terminateur (1984) et La matrice (1999). En revanche, les rares robots fidèles comme Gort de Le jour où la terre s'est arrêtée (1951) et évêque de Extraterrestres (1986) sont moins présentes dans la culture populaire. [278]

    Isaac Asimov a introduit les trois lois de la robotique dans de nombreux livres et histoires, notamment la série "Multivac" sur un ordinateur super-intelligent du même nom. Les lois d'Asimov sont souvent évoquées lors de discussions profanes sur l'éthique des machines [279] alors que presque tous les chercheurs en intelligence artificielle connaissent les lois d'Asimov à travers la culture populaire, ils considèrent généralement les lois inutiles pour de nombreuses raisons, dont l'une est leur ambiguïté. [280]

    Le transhumanisme (la fusion des humains et des machines) est exploré dans le manga Fantôme dans la coquille et la série de science-fiction Dune. Dans les années 1980, la série Sexy Robots de l'artiste Hajime Sorayama a été peinte et publiée au Japon, représentant la forme humaine organique réelle avec des peaux métalliques musculaires réalistes. Sorayama n'a jamais considéré ces robots organiques comme faisant réellement partie de la nature, mais toujours comme un produit non naturel de l'esprit humain, un fantasme existant dans l'esprit même lorsqu'il est réalisé sous une forme réelle.


    Coordonnées géographiques - Tutoriel avec l'outil de conversion en ligne

    La plupart des cellules de la grille UTM sont régulières. Les exceptions sont V30, V32, X31, X33, X35, X37 dans le nord-ouest de l'Europe.
    Erreur la plus courante : mauvaise utilisation de lat. lettre de bande 'S'.Certaines sources utilisent « S » pour désigner l'hémisphère sud, et non la bande de latitude « S ». Dans un tel cas, la conversion placera le point résultant au nord de l'équateur, où se trouve la bande S.
    Solution de contournement : dans un tel cas, utilisez plutôt la lettre de bande « M ». La bande M est dans l'hémisphère sud. L'algorithme de conversion ne dérive que les informations d'hémisphère de la lettre de bande (dans le cas de cellules de grille régulières), car la plage de coordonnées d'ordonnée (axe y) couvre toute la distance de l'équateur au pôle. La lettre de bande permet l'indexation des cartes papier.

    La grille britannique utilise des cellules carrées de 100x100 km de large. Par conséquent, les coordonnées (en mètres) doivent tenir dans 0.0

    100000.0 mètres de portée. L'erreur la plus courante est une mauvaise interprétation des coordonnées abrégées (à partir d'une carte imprimée) et, par conséquent, le placement de la virgule flottante sur une mauvaise position. Si votre carte est décalée après la conversion, le codage des coordonnées doit très probablement être révisé.

    Les coordonnées géographiques sont généralement sous forme angulaire (latitude/longitude) ou projetée (est/nord ou x/y). Les coordonnées angulaires sont dérivées d'un modèle 3D simplifié de la surface de la Terre (sphère ou ellipsoïde). Si la projection est appliquée, la surface 3D est encore transformée sur le plan 2D plat, ce qui implique une certaine distorsion.

    La forme angulaire est principalement utilisée dans des applications à grande échelle comme l'aviation et la marine. Les mathématiques du système angulaire utilisent le modèle ellipsoïde de la Terre avec les demi-diamètres et les paramètres d'origine des coordonnées appropriés. Comme la forme de la Terre n'est pas strictement régulière, chaque modèle d'ellipsoïde s'écarte de la forme réelle de la Terre. Pour minimiser cet écart, de nombreux pays ont développé leur propre ellipsoïde de référence avec des paramètres légèrement différents, qui offrent la meilleure précision possible dans la région respective.

    Pour les applications de plus petite portée, les coordonnées projetées sont souvent plus pratiques. Dans de nombreux cas, les coordonnées sont exprimées en mètres ou en pieds, mesurées à partir d'un point de référence. La projection utilise le nombre de points de référence pour permettre une notation courte des coordonnées et pour réduire la déformation introduite par la projection. En raison du système de points de référence (grille), les coordonnées projetées sont parfois appelées coordonnées de grille. Les cellules de la grille sont affectées de codes uniques qui non seulement font partie de la notation des coordonnées, mais simplifient également la recherche de la feuille de carte requise dans le cas de cartes imprimées. Chaque projection déforme des relations telles que la distance, la surface ou l'azimut entre les points de la carte. Par conséquent, les méthodes de projection sont conçues pour qu'au moins une relation soit préservée - égale avant et après la projection (surface, par exemple), tandis que d'autres sont inévitablement déformées par la transformation 3D en 2D. La relation préservée dépend de l'application, il peut s'agir de l'azimut en cas de navigation ou de la zone en cas d'application d'aménagement du territoire. De nombreuses méthodes de projection préservent la distance pour permettre sa mesure aisée sur la carte et son calcul à partir des coordonnées des 2 points. Quoi qu'il en soit, le système de coordonnées projetées (2D) est toujours basé sur un système de coordonnées angulaires (3D). Aucune projection n'est idéale pour toutes les applications. Par conséquent, de nombreuses méthodes de projection sont utilisées.

    Comme mentionné ci-dessus, il existe de nombreux systèmes angulaires avec leurs paramètres (appelés brièvement « données ») et de nombreux systèmes projetés (chacun basé sur une donnée). En travaillant dans le domaine de la cartographie GPS, cependant, certains sont rencontrés plus souvent que d'autres. Le système de positionnement global utilise le système géodésique mondial (révision 1984, c'est-à-dire WGS84) comme système de coordonnées de référence. Les fichiers cartographiques compatibles avec les unités GPS Garmin utilisent également WGS84. Par conséquent, Mapwel convertit toutes les données d'entrée comme les fichiers de forme ou les coordonnées de point d'étalonnage en coordonnées angulaires WGS84, qui sont utilisées dans ses structures de données internes. Parmi les projections, l'UTM (Universal Transverse Mercator) semble être le plus utilisé. Si les données cartographiques utilisent la projection UTM, la projection doit être inversée pour obtenir les coordonnées sous forme de latitude/longitude. Ceux-ci doivent être transformés en WGS84 si un autre ellipsoïde de référence a été utilisé.

    La calculatrice en ligne ci-dessus illustre la conversion des coordonnées et affiche quelques conseils concernant les erreurs d'utilisateur les plus fréquentes. Il ne s'agit que d'un sous-ensemble des capacités de conversion de Mapwel. La version actuelle du convertisseur en ligne contient environ 290 références, une projection Universal Transverse Mercator (UTM) largement utilisée et des grilles nationales britanniques et irlandaises. Nous prévoyons d'ajouter d'autres méthodes de projection à cet outil en ligne à l'avenir.


    Utiliser les stratégies d'accès conditionnel

    Si votre organisation a des besoins de sécurité de connexion plus granulaires, les stratégies d'accès conditionnel peuvent vous offrir plus de contrôle. L'accès conditionnel vous permet de créer et de définir des stratégies qui réagissent aux événements de connexion et demandent des actions supplémentaires avant qu'un utilisateur n'obtienne l'accès à une application ou à un service.

    Désactivez les valeurs par défaut de MFA et de sécurité par utilisateur avant d'activer les stratégies d'accès conditionnel.

    L'accès conditionnel est disponible pour les clients qui ont acheté Azure AD Premium P1 ou des licences qui l'incluent, telles que Microsoft 365 Business Premium et Microsoft 365 E3. Pour plus d'informations, consultez créer une stratégie d'accès conditionnel.

    L'accès conditionnel basé sur les risques est disponible via la licence Azure AD Premium P2, ou des licences qui l'incluent, telles que Microsoft 365 E5. Pour plus d'informations, consultez Accès conditionnel basé sur les risques.

    Pour plus d'informations sur Azure AD P1 et P2, consultez la tarification d'Azure Active Directory.

    Activer l'authentification moderne pour votre organisation

    Pour la plupart des abonnements, l'authentification moderne est automatiquement activée, mais si vous avez acheté votre abonnement avant août 2017, vous devrez probablement activer l'authentification moderne pour que des fonctionnalités telles que l'authentification multifacteur fonctionnent dans les clients Windows comme Outlook.

    1. Dans le centre d'administration Microsoft 365, dans la navigation de gauche, choisissez Paramètres > Paramètres de l'organisation.
    2. Sous le Prestations de service onglet, choisissez Authentification moderne, et dans le Authentification moderne volet, assurez-vous Activer l'authentification moderne est sélectionné. Choisir Sauvegarder les modifications.

    Désactiver l'ancienne MFA par utilisateur

    Si vous avez déjà activé l'authentification MFA par utilisateur, vous devez la désactiver avant d'activer les paramètres de sécurité par défaut.


    Voir la vidéo: Placer et lire des points dans un repère (Octobre 2021).