Impact de l’intelligence artificielle

L’intelligence artificielle (IA) est l’intelligence affichée par les machines. En informatique, une machine « intelligente » idéale est un agent rationnel flexible qui perçoit son environnement et effectue des actions qui maximisent ses chances de succès, que ce soit dans un objectif ou dans une tâche. Familièrement, le terme intelligence artificielle est utilisé lorsqu’une machine imite les fonctions « cognitives » que les humains associent à d’autres esprits humains, telles que « apprendre » et « résoudre des problèmes ». Deux machines Au fur et à mesure que les machines deviennent de plus en plus performantes, les technologies autrefois considérées comme ayant besoin d’intelligence sont supprimées de la définition. Par exemple, la reconnaissance optique de caractères n’est plus perçue comme un exemple de « l’intelligence artificielle » devenue une technologie courante. Les avancées technologiques encore classées dans l’intelligence artificielle sont des systèmes de conduite autonome ou capables de jouer aux échecs ou de jouer.

Selon Takeyas (2007), l’intelligence artificielle est une branche de la science informatique chargée d’étudier des modèles informatiques capables de réaliser des activités d’êtres humains en se basant sur deux de ses caractéristiques principales: le raisonnement et le comportement.

En 1956, John McCarthy a inventé le terme « intelligence artificielle » et l’a défini comme « la science et l’ingéniosité de la fabrication de machines intelligentes, notamment de programmes informatiques intelligents ».

Pour Nils John Nilsson, l’intelligence artificielle repose sur quatre piliers fondamentaux:

Recherchez l’état requis dans l’ensemble des états produits par les actions possibles.
Algorithmes génétiques (analogues au processus d’évolution des chaînes d’ADN).
Réseaux de neurones artificiels (analogues au fonctionnement physique du cerveau des animaux et des humains).
Raisonnement selon une logique formelle analogue à la pensée abstraite humaine.

Il existe également différents types de perceptions et d’actions pouvant être obtenues et produites, respectivement, par des capteurs physiques et des capteurs mécaniques dans des machines, des impulsions électriques ou optiques dans des ordinateurs, ainsi que par les entrées et les sorties de bits d’un logiciel et de son environnement. .

Plusieurs exemples concernent le contrôle des systèmes, la planification automatique, la capacité de répondre aux diagnostics et aux demandes des consommateurs, la reconnaissance de l’écriture manuscrite, la reconnaissance de la parole et la reconnaissance des formes. Les systèmes d’intelligence artificielle font actuellement partie de la routine dans des domaines tels que l’économie, la médecine, le génie et l’armée, et ont été utilisés dans divers logiciels, jeux de stratégie, tels que les échecs informatiques et autres jeux vidéo.

L’histoire
Les êtres artificiels capables de penser sont apparus comme des dispositifs de narration dans l’Antiquité et ont été courants dans la fiction, comme dans Frankenstein de Mary Shelley ou le RUR (Les Robots Universels de Rossel) de Karel Čapek. Ces personnages et leur destin ont soulevé bon nombre des problèmes abordés dans l’éthique de l’intelligence artificielle.

L’étude du raisonnement mécanique ou « formel » a commencé avec les philosophes et les mathématiciens de l’Antiquité. L’étude de la logique mathématique a conduit directement à la théorie du calcul d’Alan Turing, qui suggère qu’une machine, en mélangeant des symboles aussi simples que « 0 » et « 1 », pourrait simuler n’importe quel acte concevable de déduction mathématique. Cette idée, que les ordinateurs numériques peuvent simuler n’importe quel processus de raisonnement formel, est connue sous le nom de thèse Church-Turing. Parallèlement aux découvertes simultanées en neurobiologie, théorie de l’information et cybernétique, les chercheurs ont alors envisagé la possibilité de construire un cerveau électronique. Turing a proposé que « si un humain ne pouvait pas distinguer les réponses d’une machine d’un humain, la machine pourrait être considérée comme » intelligente « . Le premier travail qui est maintenant généralement reconnu comme une intelligence artificielle est la conception formelle de McCullouch et Pitts en 1943 pour des « neurones artificiels » complets de Turing.

Le domaine de la recherche sur l’IA est né dans un atelier du Dartmouth College en 1956. Allen Newell (CMU), Herbert Simon (CMU), John McCarthy (MIT), Marvin Minsky (MIT) et Arthur Samuel (IBM) sont devenus les fondateurs et responsables de la recherche sur l’IA. Ils formèrent, avec leurs étudiants, des programmes que la presse qualifia d ‘ »étonnants »: les ordinateurs apprenaient les stratégies du vérificateur (vers 1954) (et semblaient jouer mieux que l’homme moyen), résolvant des problèmes de langage en algèbre, prouvant ainsi des théorèmes logiques (Logic Théoriste, premier essai vers 1956) et parlant anglais. Au milieu des années 1960, le département de la Défense a largement financé la recherche aux États-Unis et des laboratoires ont été établis dans le monde entier. Les fondateurs d’Amnesty International étaient optimistes quant à l’avenir: Herbert Simon avait prédit que « les machines seront capables, dans vingt ans, de faire tout le travail qu’un homme peut faire ». Marvin Minsky a déclaré: « D’ici une génération, le problème de la création d’une » intelligence artificielle « sera résolu de manière substantielle », a-t-il déclaré.

Ils ont omis de reconnaître la difficulté de certaines des tâches restantes. Les progrès ont été ralentis et, en 1974, face aux critiques de Sir James Lighthill et aux pressions incessantes du Congrès américain pour financer des projets plus productifs, les gouvernements américain et britannique ont mis fin à la recherche exploratoire sur l’IA. Les années à venir seront plus tard appelées «hiver IA», une période où il est difficile d’obtenir un financement pour des projets d’IA.

Au début des années 1980, la recherche sur l’IA a été relancée par le succès commercial des systèmes experts, une forme de programme d’IA simulant les connaissances et les compétences analytiques d’experts humains. En 1985, le marché de l’IA avait dépassé le milliard de dollars. Dans le même temps, le projet informatique de cinquième génération du Japon a incité les gouvernements américain et britannique à rétablir le financement de la recherche universitaire. Cependant, à partir de l’effondrement du marché des machines Lisp en 1987, AI est à nouveau tombé dans le discrédit et un deuxième hiatus plus long a commencé.

À la fin des années 90 et au début du 21e siècle, l’intelligence artificielle a commencé à être utilisée pour la logistique, l’exploitation de données, le diagnostic médical et d’autres domaines. Ce succès est dû à l’accroissement de la puissance de calcul (voir la loi de Moore), à ​​la résolution de problèmes spécifiques, à la création de nouveaux liens entre l’IA et d’autres domaines (statistiques, économie et mathématiques) et à l’engagement des chercheurs à appliquer des méthodes mathématiques et des normes scientifiques. Deep Blue est devenu le premier système informatique de jeu d’échecs à battre un champion du monde en titre, Garry Kasparov, le 11 mai 1997.

En 2011, un jeopardy! match d’exposition quiz, le système de réponse aux questions d’IBM, Watson, a vaincu les deux plus grands Jeopardy! champions, Brad Rutter et Ken Jennings, par une marge significative. Des ordinateurs plus rapides, des améliorations algorithmiques et l’accès à de grandes quantités de données ont permis des avancées dans l’apprentissage et la perception de la machine; Les méthodes d’apprentissage en profondeur, gourmandes en données, ont commencé à dominer les tests de précision en 2012. Le Kinect, qui fournit une interface 3D 3D Body-Motion pour la Xbox 360 et la Xbox One, utilise des algorithmes issus d’une longue recherche en intelligence artificielle, tout comme les assistants personnels intelligents dans les smartphones. En mars 2016, AlphaGo a remporté 4 des 5 matchs de Go lors d’un match contre le champion de Go, Lee Sedol, devenant ainsi le premier système de jeu d’ordinateur à battre un joueur de Go professionnel sans handicap. Lors du sommet Future of Go 2017, AlphaGo a remporté un match de trois matchs avec Ke Jie, qui occupait continuellement le classement n ° 1 mondial pendant deux ans. Cela a marqué l’achèvement d’une étape importante dans le développement de l’intelligence artificielle, car Go est un jeu extrêmement complexe, encore plus que les échecs.

Selon Jack Clark de Bloomberg, 2015 a été une année charnière pour l’intelligence artificielle. En 2012, le nombre de projets logiciels utilisant l’IA dans Google est passé d’un « usage sporadique » à plus de 2 700 projets. Clark présente également des données factuelles indiquant que les taux d’erreur dans les tâches de traitement d’images ont considérablement diminué depuis 2011. Il attribue cela à une augmentation du nombre de réseaux de neurones abordables, due à la montée en puissance de l’infrastructure informatique en nuage et à celle des outils de recherche et des jeux de données. Parmi d’autres exemples cités, citons le développement par Microsoft d’un système Skype capable de traduire automatiquement d’une langue à une autre et le système de Facebook permettant de décrire des images à des personnes aveugles. Dans une enquête menée en 2017, une entreprise sur cinq a déclaré avoir « intégré l’IA dans certaines offres ou processus ». Vers 2016, la Chine a considérablement accéléré ses financements publics; certains observateurs pensent que, compte tenu de l’importante quantité de données et de la croissance rapide de ses résultats de recherche, elle pourrait devenir une « superpuissance de l’IA ».

Les bases
Une IA typique perçoit son environnement et prend des mesures qui maximisent ses chances d’atteindre ses objectifs. La fonction de but d’un IA peut être simple (« 1 si l’IA remporte une partie de Go, 0 sinon ») ou complexe (« Effectuer des actions mathématiquement similaires aux actions qui vous ont valu des récompenses dans le passé »). Les objectifs peuvent être explicitement définis ou induits. Si l’IA est programmée pour un « apprentissage par renforcement », des objectifs peuvent être implicitement induits en récompensant certains types de comportement et en punissant d’autres. Alternativement, un système évolutif peut induire des objectifs en utilisant une « fonction fitness » pour muter et répliquer préférentiellement des systèmes d’IA à score élevé; Ceci est similaire à la façon dont les animaux ont évolué pour atteindre de manière innée certains objectifs, comme trouver de la nourriture, ou comment les chiens peuvent être élevés par sélection artificielle afin de posséder les traits désirés. Certains systèmes d’IA, tels que le plus proche voisin, raisonnent plutôt par analogie; ces systèmes ne sont généralement pas définis d’objectifs, sauf dans la mesure où ceux-ci sont en quelque sorte implicites dans leurs données de formation. Ces systèmes peuvent toujours être comparés si le système sans objectif est défini comme un système dont le « but » est de mener à bien sa tâche de classification étroite.

L’intelligence artificielle tourne souvent autour de l’utilisation d’algorithmes. Un algorithme est un ensemble d’instructions non ambiguës qu’un ordinateur mécanique peut exécuter. Un algorithme complexe est souvent construit sur d’autres algorithmes, plus simples. Un exemple simple d’algorithme est la recette suivante pour un jeu optimal au tic-tac-toe:

Si quelqu’un a une « menace » (c’est-à-dire deux à la suite), prenez le carré restant. Autrement,
si un coup « se bouscule » pour créer deux menaces à la fois, jouez ce coup. Autrement,
prenez la place du centre si c’est gratuit. Autrement,
si votre adversaire a joué dans un coin, prenez le coin opposé. Autrement,
prendre un coin vide s’il en existe un. Autrement,
prenez n’importe quelle case vide.

De nombreux algorithmes d’intelligence artificielle sont capables d’apprendre à partir de données. ils peuvent s’améliorer en apprenant de nouvelles heuristiques (stratégies, ou « règles empiriques » qui ont bien fonctionné dans le passé), ou peuvent écrire eux-mêmes d’autres algorithmes. Certains des «apprenants» décrits ci-dessous, y compris les réseaux bayésiens, les arbres de décision et les voisins les plus proches, pourraient théoriquement, s’ils disposaient de données infinies, de temps et de mémoire, apprendre à se rapprocher de toute fonction, y compris de toute combinaison de fonctions mathématiques décrivant le mieux les le monde entier. En théorie, ces apprenants pourraient donc tirer toutes les connaissances possibles en considérant toutes les hypothèses possibles et en les comparant aux données. En pratique, il n’est presque jamais possible d’envisager toutes les possibilités, en raison du phénomène «d’explosion combinatoire», où le temps nécessaire pour résoudre un problème augmente de façon exponentielle. Une bonne partie de la recherche sur l’IA consiste à trouver un moyen d’identifier et d’éviter de considérer de larges possibilités qui risquent peu de porter leurs fruits. Par exemple, lorsque vous visualisez une carte et recherchez le parcours de conduite le plus court entre Denver et New York à l’est, vous pouvez dans la plupart des cas ignorer tout chemin menant à San Francisco ou à d’autres zones situées très à l’ouest. Ainsi, une IA utilisant un algorithme de détermination de chemin comme A * peut éviter l’explosion combinatoire qui s’ensuivrait si toutes les routes possibles devaient être sérieusement examinées à leur tour.

L’approche la plus ancienne (et la plus facile à comprendre) de l’IA était le symbolisme (tel que la logique formelle): « Si un adulte par ailleurs en bonne santé a de la fièvre, il est possible qu’il ait la grippe ». La seconde approche, plus générale, est l’inférence bayésienne: « Si le patient actuel a de la fièvre, ajustez la probabilité qu’il ait la grippe de telle ou telle manière ». La troisième approche majeure, extrêmement populaire dans les applications d’intelligence artificielle de routine, concerne les analyseurs tels que SVM et son voisin le plus proche: « Après avoir examiné les enregistrements de patients antérieurs connus dont la température, les symptômes, l’âge et d’autres facteurs correspondent le mieux au patient actuel, X% de ces patients s’est avéré avoir la grippe « . Une quatrième approche est plus difficile à comprendre intuitivement, mais est inspirée par le fonctionnement de la machinerie cérébrale: l’approche par réseau de neurones artificiels utilise des « neurones » artificiels qui peuvent apprendre en se comparant à la sortie souhaitée et en modifiant les points forts des connexions entre ses neurones internes. « renforcer » les liens qui semblaient utiles. Ces quatre approches principales peuvent se chevaucher et avec des systèmes évolutifs; Par exemple, les réseaux neuronaux peuvent apprendre à faire des inférences, à généraliser et à faire des analogies. Certains systèmes utilisent implicitement ou explicitement plusieurs de ces approches, aux côtés de nombreux autres algorithmes d’intelligence artificielle ou non. la meilleure approche est souvent différente selon le problème.

Les algorithmes d’apprentissage fonctionnent sur le principe que les stratégies, les algorithmes et les inférences qui fonctionnaient bien dans le passé continueront probablement à bien fonctionner dans le futur. Ces déductions peuvent être évidentes, telles que « comme le soleil s’est levé tous les matins pendant les 10 000 derniers jours, il se lèvera probablement demain matin également ». Ils peuvent être nuancés, tels que « X% des familles ont des espèces géographiquement séparées avec des variantes de couleur, il y a donc une probabilité de Y% que des cygnes noirs non découverts existent ». Les apprenants travaillent également sur la base du « rasoir d’Occam »: la théorie la plus simple qui explique les données est la plus probable. Par conséquent, pour réussir, un apprenant doit être conçu de manière à privilégier les théories simples aux théories complexes, sauf dans les cas où la théorie complexe est considérablement améliorée. S’appuyant sur une théorie trop complexe et trop complexe, gerrymander pour s’adapter à toutes les données d’entraînement précédentes, est appelé surapprentissage. De nombreux systèmes tentent de réduire l’overfitting en récompensant une théorie en fonction de l’adéquation des données, mais en la pénalisant en fonction de la complexité de la théorie. Outre l’overfitting classique, les apprenants peuvent également être déçus en « apprenant la mauvaise leçon ». Un exemple de jouet est qu’un classificateur d’images formé uniquement sur des images de chevaux bruns et de chats noirs pourrait conclure que toutes les taches brunes sont susceptibles d’être des chevaux. Un exemple concret est que, contrairement aux humains, les classificateurs d’image actuels ne déterminent pas la relation spatiale entre les composants de l’image. au lieu de cela, ils apprennent des motifs abstraits de pixels auxquels les humains ne sont pas conscients, mais qui sont en corrélation linéaire avec les images de certains types d’objets réels. Superposer faiblement un tel motif à une image légitime donne une image « contradictoire » que le système classifie de manière erronée.

Comparée à l’homme, l’IA existante manque de plusieurs caractéristiques du « raisonnement de bon sens » humain; plus particulièrement, les humains disposent de mécanismes puissants pour raisonner sur la « physique naïve » telle que l’espace, le temps et les interactions physiques. Cela permet même aux jeunes enfants de faire des déductions telles que « Si je fais rouler ce stylo sur une table, il tombera sur le sol ». Les humains disposent également d’un puissant mécanisme de « psychologie populaire » qui les aide à interpréter des phrases en langage naturel telles que « Les conseillers municipaux ont refusé un permis aux manifestants parce qu’ils préconisaient la violence ». (Une IA générique a du mal à déterminer si les conseillers ou les manifestants sont ceux qui sont supposés prôner la violence.) Ce manque de « notoriété publique » signifie que Amnesty International commet souvent des erreurs différentes de celles commises par l’homme, d’une manière qui peut sembler incompréhensible. Par exemple, les voitures autonomes autonomes ne peuvent pas raisonner exactement de la manière dont les hommes se trouvent ni des intentions des piétons, mais doivent utiliser un mode de raisonnement non humain pour éviter les accidents.

Problèmes
L’intelligence artificielle a pour objectif de créer une technologie permettant aux ordinateurs et aux machines de fonctionner de manière intelligente. Le problème général de la simulation (ou de la création) de l’intelligence a été divisé en sous-problèmes. Celles-ci se composent de caractéristiques ou de capacités particulières que les chercheurs attendent d’un système intelligent. Les traits décrits ci-dessous ont reçu le plus d’attention.

Raisonnement, résolution de problèmes
Les premiers chercheurs ont développé des algorithmes imitant le raisonnement pas à pas utilisé par les humains pour résoudre des énigmes ou faire des déductions logiques. À la fin des années 1980 et dans les années 1990, la recherche sur l’IA avait mis au point des méthodes permettant de traiter les informations incertaines ou incomplètes, en utilisant des concepts de probabilité et d’économie.

Ces algorithmes se sont avérés insuffisants pour résoudre des problèmes de raisonnement volumineux, car ils ont connu une « explosion combinatoire »: ils sont devenus plus lents de manière exponentielle à mesure que les problèmes s’agrandissaient. En fait, même les humains utilisent rarement la déduction pas à pas que les premières recherches sur l’IA étaient capables de modéliser. Ils résolvent la plupart de leurs problèmes en utilisant des jugements rapides et intuitifs.

Représentation des connaissances
La représentation des connaissances et l’ingénierie des connaissances sont au cœur de la recherche sur l’IA classique. Certains « systèmes experts » tentent de rassembler les connaissances explicites que possèdent des experts dans un domaine restreint. En outre, certains projets tentent de rassembler la « connaissance du sens commun » connue du citoyen moyen dans une base de données contenant une connaissance approfondie du monde. Une base de connaissances complète de sens commun comprendrait notamment les objets, propriétés, catégories et relations entre objets; situations, événements, états et temps; causes et effets; connaissance de la connaissance (ce que nous savons de ce que les autres savent); et de nombreux autres domaines moins bien documentés. Une représentation de « ce qui existe » est une ontologie: ensemble d’objets, de relations, de concepts et de propriétés décrits de manière formelle afin que les agents logiciels puissent les interpréter. La sémantique de ceux-ci est capturée en tant que concepts, rôles et individus de logique de description, et est généralement implémentée en tant que classes, propriétés et individus dans le langage d’ontologie Web. Les ontologies les plus générales sont appelées ontologies supérieures. Elles ont pour objectif de jeter les bases de toutes les autres connaissances en agissant en tant que médiateurs entre des ontologies de domaine couvrant des connaissances spécifiques sur un domaine de connaissance particulier (domaine d’intérêt ou domaine de préoccupation). De telles représentations de connaissances formelles peuvent être utilisées dans l’indexation et la récupération basées sur le contenu, l’interprétation de scènes, l’aide à la décision clinique, la découverte de connaissances (extraire des déductions « intéressantes » et exploitables à partir de grandes bases de données) et d’autres domaines.

Parmi les problèmes les plus difficiles en matière de représentation des connaissances figurent:

Raisonnement par défaut et problème de qualification
Beaucoup de choses que les gens savent prennent la forme d’hypothèses de travail. Par exemple, si un oiseau revient en conversation, les gens imaginent généralement un animal de la taille d’un poing, qui chante et qui vole. Aucune de ces choses ne sont vraies chez tous les oiseaux. John McCarthy a identifié ce problème en 1969 en tant que problème de qualification: pour toute règle de bon sens que les chercheurs en IA ont le souci de représenter, il existe généralement un nombre considérable d’exceptions. Presque rien n’est simplement vrai ou faux comme l’exige la logique abstraite. La recherche sur l’IA a exploré plusieurs solutions à ce problème.

L’étendue de la connaissance du bon sens
Le nombre de faits atomiques que la personne moyenne sait est très grand. Les projets de recherche qui tentent de créer une base de connaissances complète sur les connaissances de sens commun (Cyc, par exemple) nécessitent d’énormes quantités d’ingénierie ontologique laborieuse: ils doivent être construits manuellement à l’aide d’un concept complexe à la fois.

La forme sous-symbolique de certaines connaissances de bon sens
Une grande partie de ce que les gens savent n’est pas présentée comme des « faits » ou des « déclarations » qu’ils pourraient exprimer verbalement. Par exemple, un maître d’échecs évitera une position particulière car il « se sent trop exposé » ou un critique d’art peut jeter un coup d’œil sur une statue et se rendre compte qu’il s’agit d’un faux. Ce sont des intuitions ou des tendances non conscientes et sous-symboliques dans le cerveau humain. Les connaissances de ce type informent, soutiennent et fournissent un contexte pour des connaissances symboliques et conscientes. Comme pour le problème connexe du raisonnement sous-symbolique, on espère que l’IA située, l’intelligence informatique ou l’IA statistique fourniront des moyens de représenter ce type de connaissance.

Planification
Les agents intelligents doivent pouvoir définir des objectifs et les atteindre. Ils ont besoin d’un moyen de visualiser l’avenir – une représentation de l’état du monde et de pouvoir prédire comment leurs actions vont le changer – et de pouvoir faire des choix qui maximisent l’utilité (ou la « valeur ») des choix disponibles. .

Dans les problèmes de planification classiques, l’agent peut supposer qu’il s’agit du seul système au monde, lui permettant d’être certain des conséquences de ses actions. Cependant, si l’agent n’est pas le seul acteur, il doit alors pouvoir raisonner de manière incertaine. Cela nécessite un agent capable non seulement d’évaluer son environnement et de faire des prédictions, mais également d’évaluer ses prédictions et de s’adapter en fonction de son évaluation.

La planification multi-agents utilise la coopération et la concurrence de nombreux agents pour atteindre un objectif donné. Un tel comportement émergent est utilisé par les algorithmes évolutifs et l’intelligence en essaim.

Apprentissage
L’apprentissage automatique, concept fondamental de la recherche sur l’IA depuis la création de ce domaine, consiste en l’étude d’algorithmes informatiques qui s’améliorent automatiquement grâce à l’expérience.

L’apprentissage non supervisé est la capacité de trouver des modèles dans un flux d’entrée. L’apprentissage supervisé comprend à la fois la classification et la régression numérique. La classification est utilisée pour déterminer à quelle catégorie appartient une chose, après avoir vu un certain nombre d’exemples d’éléments appartenant à plusieurs catégories. La régression est la tentative de produire une fonction qui décrit la relation entre les entrées et les sorties et prédit comment les sorties devraient changer en même temps que les entrées. Les classificateurs et les apprenants de régression peuvent être considérés comme des « approximateurs de fonction » essayant d’apprendre une fonction inconnue (éventuellement implicite); Par exemple, un classificateur de courrier indésirable peut être considéré comme une fonction qui associe le texte d’un courrier électronique à l’une des deux catégories « spam » ou « non spam ». La théorie de l’apprentissage informatique peut évaluer les apprenants par complexité informatique, complexité de l’échantillon (quantité de données requise) ou d’autres notions d’optimisation. Dans l’apprentissage par renforcement, l’agent est récompensé pour ses bonnes réponses et puni pour les mauvais. L’agent utilise cette séquence de récompenses et de punitions pour former une stratégie d’exploitation dans son espace de problèmes.

Traitement du langage naturel
Le traitement du langage naturel (PNL) donne aux machines la capacité de lire et de comprendre le langage humain. Un système de traitement de langage naturel suffisamment puissant permettrait des interfaces utilisateur en langage naturel et l’acquisition de connaissances directement à partir de sources écrites par l’homme, telles que les textes de fil de presse. Certaines applications simples du traitement du langage naturel incluent la récupération d’informations, l’exploration de texte, la réponse à une question et la traduction automatique. De nombreuses approches actuelles utilisent des fréquences de cooccurrence de mots pour construire des représentations syntaxiques de texte. Les stratégies de « recherche de mots clés » pour la recherche sont populaires et évolutives, mais stupides; une requête de recherche pour « chien » peut uniquement faire correspondre des documents avec le mot littéral « chien » et manquer un document contenant le mot « caniche ». Les stratégies « d’affinité lexicale » utilisent l’occurrence de mots tels que « accident » pour évaluer le sentiment d’un document. Les approches de PNL statistiques modernes peuvent combiner toutes ces stratégies ainsi que d’autres, et permettent souvent d’obtenir une précision acceptable au niveau de la page ou du paragraphe, mais ne disposent toujours pas de la compréhension sémantique nécessaire pour bien classifier les phrases isolées. Outre les difficultés habituelles liées au codage des connaissances sémantiques de bon sens, la PNL sémantique existante est parfois trop médiocre pour être viable dans les applications métiers. Au-delà de la PNL sémantique, le but ultime de la PNL « narrative » est d’incarner une compréhension complète du raisonnement de bon sens.

la perception
La perception de la machine est la capacité à utiliser les entrées de capteurs (comme les caméras (spectre visible ou infrarouge), les microphones, les signaux sans fil et les capteurs lidar, sonar, radar et tactiles actifs) pour déduire des aspects du monde. Les applications incluent la reconnaissance de la parole, la reconnaissance faciale et la reconnaissance d’objet. La vision par ordinateur est la capacité d’analyser les entrées visuelles. Une telle entrée est généralement ambiguë; Un piéton géant haut de cinquante mètres éloigné peut produire exactement les mêmes pixels qu’un piéton de taille normale à proximité, ce qui oblige l’intelligence artificielle à juger de la probabilité relative et du caractère raisonnable de différentes interprétations, par exemple en utilisant son « modèle objet » pour évaluer que les piétons de cinquante mètres n’existent pas.

Mouvement et manipulation
L’intelligence artificielle est très utilisée en robotique. Des bras robotiques perfectionnés et d’autres robots industriels, largement utilisés dans les usines modernes, peuvent apprendre de l’expérience à se déplacer efficacement malgré la friction et le patinage des engrenages. Un robot mobile moderne, lorsqu’il dispose d’un petit environnement statique et visible, peut facilement déterminer son emplacement et cartographier son environnement. Cependant, les environnements dynamiques, tels que (en endoscopie) l’intérieur du corps respirant du patient, constituent un défi plus important. La planification de mouvement est le processus consistant à décomposer une tâche de mouvement en « primitifs » tels que des mouvements d’articulation individuels. Un tel mouvement implique souvent un mouvement conforme, un processus dans lequel le mouvement nécessite de maintenir un contact physique avec un objet. Le paradoxe de Moravec généralise le fait que les compétences sensorimotrices de bas niveau que les humains prennent pour acquis sont, contre-intuitivement, difficiles à programmer dans un robot; Le paradoxe tient son nom de Hans Moravec, qui avait déclaré en 1988 qu ‘ »il est relativement facile de faire en sorte que les ordinateurs affichent des performances de niveau adulte lors de tests d’intelligence ou de jeu de dames, et il est difficile, voire impossible, de leur donner les compétences d’un enfant d’un an. vient à la perception et à la mobilité « . Ceci est attribué au fait que, contrairement aux dames, la dextérité physique est une cible directe de la sélection naturelle depuis des millions d’années.

Intelligence sociale
Le paradoxe de Moravec peut être étendu à de nombreuses formes d’intelligence sociale. La coordination multi-agents distribuée de véhicules autonomes reste un problème difficile. L’informatique affective est un ensemble interdisciplinaire qui comprend des systèmes qui reconnaissent, interprètent, traitent ou simulent des effets sur l’homme. Parmi les succès modérés liés à l’informatique affective, citons l’analyse textuelle des sentiments et, plus récemment, l’analyse des effets multimodaux (voir Analyse des sentiments multimodaux), dans laquelle l’IA classe les effets affichés par un sujet filmé.

À long terme, des compétences sociales et une compréhension de l’émotion humaine et de la théorie des jeux seraient utiles à un agent social. Etre capable de prédire les actions des autres en comprenant leurs motivations et leurs états émotionnels permettrait à un agent de prendre de meilleures décisions. Certains systèmes informatiques imitent l’émotion humaine et les expressions pour paraître plus sensibles à la dynamique émotionnelle de l’interaction humaine ou pour faciliter autrement l’interaction homme-machine. De même, certains assistants virtuels sont programmés pour parler en conversation ou même pour plaisanter avec humour; Cela tend à donner aux utilisateurs naïfs une conception irréaliste de la façon dont les agents informatiques existants sont réellement intelligents.

Intelligence générale
Historiquement, des projets tels que la base de connaissances Cyc (1984–) et l’immense initiative japonaise sur les systèmes informatiques de la cinquième génération (1982–1992) ont tenté de couvrir l’ampleur de la cognition humaine. Ces premiers projets n’ont pas échappé aux limites des modèles logiques symboliques non quantitatifs et, rétrospectivement, ont largement sous-estimé la difficulté de l’IA entre domaines. De nos jours, la grande majorité des chercheurs en IA travaillent à la place d’applications « étroites » (comme le diagnostic médical ou la navigation automobile). De nombreux chercheurs prédisent que cette « intelligence artificielle » étroite dans différents domaines sera finalement intégrée à une machine à intelligence générale artificielle (AGI), combinant la plupart des compétences étroites mentionnées dans cet article et dépassant même, à un moment donné, les capacités humaines. tous ces domaines. De nombreux progrès ont une portée générale, qui concerne plusieurs domaines. Un exemple frappant est le fait que DeepMind dans les années 2010 a développé une « intelligence artificielle généralisée » pouvant apprendre seul de nombreux jeux Atari, puis a développé une variante du système qui permet un apprentissage séquentiel. Outre l’apprentissage par transfert, les avancées hypothétiques en matière d’AGI pourraient inclure le développement d’architectures de réflexion pouvant s’engager dans un méta-raisonnement basé sur la théorie de la décision, et la recherche d’une solution pour « extraire » une base de connaissances complète de l’ensemble du Web non structuré. Certains avancent qu’une sorte de « algorithme maître » conceptuellement simple, mais mathématiquement difficile, pourrait conduire à un AGI. Enfin, quelques approches « émergentes » cherchent à simuler très étroitement l’intelligence humaine et croient que des caractéristiques anthropomorphes telles qu’un cerveau artificiel ou le développement simulé d’un enfant peuvent un jour atteindre un point critique où l’intelligence générale émerge.

Bon nombre des problèmes de cet article peuvent également nécessiter une intelligence générale, si les machines doivent résoudre les problèmes aussi bien que les personnes le font. Par exemple, même des tâches simples, telles que la traduction automatique, exigent qu’une machine lise et écrit dans les deux langues (PNL), suive l’argument de l’auteur (raison), sache de quoi on parle (connaissances) et reproduit fidèlement l’original de l’auteur. intention (intelligence sociale). Un problème tel que la traduction automatique est considéré comme « AI-complet », car tous ces problèmes doivent être résolus simultanément pour atteindre les performances de la machine au niveau humain.