Philosophie de l’intelligence artificielle

L’intelligence artificielle a des liens étroits avec la philosophie, car ils partagent plusieurs concepts qui incluent l’intelligence, l’action, la conscience, l’épistémologie et même le libre arbitre. En outre, la technologie concerne la création d’animaux artificiels ou de personnes artificielles (ou, du moins, de créatures artificielles), de sorte que la discipline présente un intérêt considérable pour les philosophes. Ces facteurs ont contribué à l’émergence de la philosophie de l’intelligence artificielle. Certains spécialistes affirment que le rejet de la philosophie par la communauté d’IA est préjudiciable.

La philosophie de l’intelligence artificielle tente de répondre aux questions suivantes:

Une machine peut-elle agir intelligemment? Peut-il résoudre un problème qu’une personne pourrait résoudre en pensant?
L’intelligence humaine et l’intelligence artificielle sont-elles les mêmes? Le cerveau humain est-il essentiellement un ordinateur?
Une machine peut-elle avoir un esprit, des états mentaux et une conscience de la même manière qu’un être humain? Peut-il sentir comment sont les choses?

Ces trois questions reflètent les intérêts divergents des chercheurs, des linguistes, des scientifiques cognitifs et des philosophes de l’IA. Les réponses scientifiques à ces questions dépendent de la définition des termes « intelligence » et « conscience » et des « machines » en discussion.

Les propositions importantes dans la philosophie de l’IA incluent:

La « convention polie » de Turing: si une machine se comporte aussi intelligemment qu’un être humain, elle est aussi intelligente qu’un être humain.
La proposition de Dartmouth: « Chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut être décrit avec une précision telle qu’une machine peut être fabriquée pour la simuler. »
Hypothèse du système de symboles physiques de Newell et Simon: « Un système de symboles physiques dispose des moyens nécessaires et suffisants pour mener une action intelligente en général. »
La forte hypothèse de Searle sur l’IA: « L’ordinateur correctement programmé, doté des entrées et des sorties appropriées, aurait ainsi un esprit exactement identique à celui des êtres humains. »
Le mécanisme de Hobbes: « Pour la » raison « … n’est rien d’autre que le » calcul « , c’est-à-dire l’addition et la soustraction des conséquences des noms généraux convenus pour le » marquage « et le » signifiant « de nos pensées … »

Une machine peut-elle afficher l’intelligence générale?
Est-il possible de créer une machine capable de résoudre tous les problèmes que les humains résolvent en utilisant leur intelligence? Cette question définit la portée de ce que les machines pourront faire à l’avenir et oriente la direction de la recherche sur l’IA. Il ne concerne que le comportement des machines et ignore les questions intéressant les psychologues, les scientifiques cognitifs et les philosophes; pour répondre à cette question, peu importe si une machine pense vraiment (comme le pense une personne) ou agit simplement comme si elle pensait.

La position de base de la plupart des chercheurs en intelligence artificielle est résumée dans cette déclaration, qui figurait dans la proposition relative à l’atelier de Dartmouth de 1956:

Chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut être décrit avec une telle précision qu’une machine peut être conçue pour la simuler.
Les arguments contre le principe de base doivent montrer qu’il est impossible de mettre en place un système d’IA fonctionnel, car il existe certaines limites pratiques aux capacités des ordinateurs ou une qualité particulière de l’esprit humain qui est nécessaire à la réflexion mais ne peut pas être dupliquée par un machine (ou par les méthodes de la recherche actuelle sur l’IA). Les arguments en faveur du principe de base doivent montrer qu’un tel système est possible.

La première étape pour répondre à la question consiste à définir clairement le terme « renseignement ».

Intelligence

Test de turing
Alan Turing a réduit le problème de la définition de l’intelligence à une simple question de conversation. Il suggère que: si une machine peut répondre à n’importe quelle question, en utilisant les mêmes mots qu’une personne ordinaire, nous pouvons appeler cette machine intelligente. Une version moderne de son design expérimental utiliserait un forum de discussion en ligne, où l’un des participants est une personne réelle et l’un des participants est un programme informatique. Le programme réussit le test si personne ne peut dire lequel des deux participants est humain. Turing note que personne (à l’exception des philosophes) ne pose jamais la question « les gens peuvent-ils penser? » Il écrit « au lieu de se disputer continuellement sur ce point, il est habituel d’avoir une convention polie à laquelle tout le monde pense ». Le test de Turing étend cette convention polie aux machines:

Si une machine agit de manière aussi intelligente qu’un être humain, elle l’est aussi comme un être humain.
Une critique du test de Turing est qu’il est explicitement anthropomorphique. Si notre objectif ultime est de créer des machines plus intelligentes que les gens, pourquoi devrions-nous insister pour que nos machines ressemblent beaucoup aux gens? [Cette citation mérite d’être citée] Russell et Norvig écrivent que « les textes d’ingénierie aéronautique ne définissent pas l’objectif de leur champ comme « faire des machines qui volent si exactement comme les pigeons qu’ils peuvent tromper les autres pigeons » « .

Définition de l’agent intelligent

Les recherches récentes sur l’IA définissent l’intelligence en termes d’agents intelligents. Un « agent » est quelque chose qui perçoit et agit dans un environnement. Une « mesure de performance » définit ce qui compte comme succès pour l’agent.

Si un agent agit de manière à maximiser la valeur attendue d’une mesure de performance basée sur l’expérience et les connaissances acquises, il est intelligent.
Des définitions comme celle-ci tentent de saisir l’essence de l’intelligence. Ils ont l’avantage, contrairement au test de Turing, de ne pas rechercher les traits humains que nous [qui?] Ne voulons peut-être pas considérer comme intelligents, comme la capacité d’être insulté ou la tentation de mentir [discutable]. Ils ont le désavantage de ne pas pouvoir faire le bon sens [lorsqu’ils sont définis comme?] Une différenciation entre « des choses qui pensent » et « des choses qui ne le font pas ». Selon cette définition, même un thermostat possède une intelligence rudimentaire.

Arguments qu’une machine peut afficher l’intelligence générale

Le cerveau peut être simulé
Hubert Dreyfus décrit cet argument comme affirmant que « si le système nerveux obéit aux lois de la physique et de la chimie, ce que nous avons toutes les raisons de penser, alors … nous devrions pouvoir reproduire le comportement du système nerveux avec un dispositif physique « . Cet argument, présenté pour la première fois dès 1943 et décrit avec force par Hans Moravec en 1988, est maintenant associé au futuriste Ray Kurzweil, qui estime que la puissance de l’ordinateur sera suffisante pour une simulation complète du cerveau à l’horizon 2029. La simulation d’un modèle thalamocortical qui a la taille du cerveau humain (1011 neurones) a été réalisée en 2005 et il a fallu 50 jours pour simuler une seconde de dynamique cérébrale sur un groupe de 27 processeurs.

Peu de [quantifier] ne sont pas d’accord sur le fait qu’une simulation cérébrale est possible en théorie, même selon ceux qui critiquent l’IA, comme Hubert Dreyfus et John Searle. Cependant, Searle fait remarquer qu’en principe, tout peut être simulé par un ordinateur. ainsi, amener la définition à son point de rupture conduit à la conclusion que tout processus peut techniquement être considéré comme un « calcul ». « Ce que nous voulions savoir, c’est ce qui distingue l’esprit des thermostats et du foie », écrit-il. Ainsi, le simple fait d’imiter le fonctionnement d’un cerveau serait en soi un aveu d’ignorance concernant l’intelligence et la nature de l’esprit.

La pensée humaine est un traitement de symbole
En 1963, Allen Newell et Herbert A. Simon ont proposé que la « manipulation de symboles » soit l’essence de l’intelligence humaine et de l’intelligence artificielle. Ils ont écrit:

Un système de symboles physiques dispose des moyens nécessaires et suffisants d’action intelligente générale.
Cette affirmation est très forte: elle implique à la fois que la pensée humaine est une sorte de manipulation de symboles (car un système de symboles est nécessaire à l’intelligence) et que les machines peuvent être intelligentes (car un système de symboles suffit à l’intelligence). Le philosophe Hubert Dreyfus a décrit une autre version de cette position: « l’hypothèse psychologique »:

L’esprit peut être vu comme un dispositif opérant sur des bits d’information selon des règles formelles.
On distingue généralement [par qui?] Le type de symboles de haut niveau qui correspondent directement aux objets du monde, tels que et , et les « symboles » plus complexes présents dans une machine comme un réseau neuronal. Les premières recherches sur l’intelligence artificielle (GOFAI) de John Haugeland, appelées « l’intelligence artificielle à l’ancienne » (GOFAI), portaient sur ce type de symboles de haut niveau.

Arguments contre le traitement des symboles
Ces arguments montrent que la pensée humaine ne consiste pas (uniquement) en une manipulation de symbole de haut niveau. Ils ne montrent pas que l’intelligence artificielle est impossible, mais qu’il faut plus que le traitement de symboles.

Arguments anti-mécanistes de Gödelian
En 1931, Kurt Gödel a prouvé par un théorème d’incomplétude qu’il était toujours possible de construire une « déclaration de Gödel » qu’un système logique formel donné (tel qu’un programme de manipulation de symboles de haut niveau) ne pourrait pas prouver. Bien qu’il s’agisse d’une déclaration vraie, la déclaration de Gödel construite n’est pas démontrable dans le système donné. (La vérité de la déclaration de Gödel construite dépend de la cohérence du système donné; appliquer le même processus à un système subtilement incohérent semblera réussir, mais produira plutôt une fausse « déclaration de Gödel ».) De façon plus spéculative, conjectura Gödel. que l’esprit humain peut finalement correctement déterminer la vérité ou la fausseté de tout énoncé mathématique bien fondé (y compris tout énoncé de Gödel possible) et que, par conséquent, le pouvoir de l’esprit humain n’est pas réductible à un mécanisme. Le philosophe John Lucas (depuis 1961) et Roger Penrose (depuis 1989) ont défendu cet argument philosophique anti-mécaniste. Les arguments anti-mécanistes de Gödelian ont tendance à s’appuyer sur l’affirmation anodine qu’un système de mathématiciens humains (ou une idéalisation de mathématiciens humains) est à la fois cohérent (totalement exempt d’erreur) et croit pleinement en sa propre cohérence (et peut rendre tout logique déductions qui découlent de sa propre cohérence, y compris la croyance dans sa déclaration de Gödel). Cela est impossible à faire pour une machine de Turing [clarification nécessaire] (et, par extension informelle, par tout type d’ordinateur mécanique connu); par conséquent, le Gödelian conclut que le raisonnement humain est trop puissant pour être capturé dans une machine [douteuse – discuter].

Cependant, le consensus moderne dans la communauté scientifique et mathématique est que le raisonnement humain réel est incohérent; que toute « version idéalisée » cohérente H du raisonnement humain serait logiquement obligée d’adopter un scepticisme sain mais contre-intuitif quant à la cohérence de H (sinon, H est manifestement incohérent); et que les théorèmes de Gödel ne conduisent à aucun argument valable selon lequel les humains ont des capacités de raisonnement mathématique allant au-delà de ce qu’une machine pourrait jamais dupliquer. Ce consensus selon lequel les arguments anti-mécanistes de Gödelian sont voués à l’échec est clairement énoncé dans Intelligence artificielle: « toute tentative d’utiliser (les résultats d’incomplétude de Gödel) pour attaquer la thèse du informaticien est forcément illégitime, car ces résultats sont tout à fait cohérents avec les objectifs informatisés. thèse. »

De manière plus pragmatique, Russell et Norvig notent que l’argument de Gödel ne s’applique qu’à ce qui peut théoriquement être prouvé, compte tenu d’une quantité infinie de mémoire et de temps. En pratique, les machines réelles (y compris les humains) ont des ressources finies et auront de la difficulté à prouver de nombreux théorèmes. Il n’est pas nécessaire de tout prouver pour être intelligent [lorsqu’il est défini comme?].

Moins formellement, Douglas Hofstadter, dans son livre primé par le prix Pulitzer, Gödel, Escher, Bach: Une éternelle tresse dorée, affirme que ces « déclarations de Gödel » se réfèrent toujours au système lui-même, établissant une analogie avec la manière dont le paradoxe Epimenides utilise se référer à eux-mêmes, tels que « cette affirmation est fausse » ou « je mens ». Mais, bien entendu, le paradoxe Epimenides s’applique à tout ce qui fait des déclarations, qu’il s’agisse de machines ou d’humains, même de Lucas. Considérer:

Lucas ne peut pas affirmer la vérité de cette déclaration.
Cette affirmation est vraie mais ne peut être affirmée par Lucas. Cela montre que Lucas est lui-même soumis aux mêmes limites que toutes les personnes et qu’il décrit pour les machines. L’argument de Lucas est donc inutile.

Après avoir conclu que le raisonnement humain n’était pas calculable, Penrose a ensuite avancé des hypothèses controversées selon lesquelles une sorte de processus hypothétiques non calculables impliquant l’effondrement d’états de la mécanique quantique procurait à l’homme un avantage particulier par rapport aux ordinateurs existants. Les ordinateurs quantiques existants sont uniquement capables de réduire la complexité des tâches calculables de Turing et sont toujours limités aux tâches entrant dans le champ d’application des machines de Turing. [Clarification nécessaire]. Selon les arguments de Penrose et Lucas, les ordinateurs quantiques existants ne sont pas suffisants [clarification nécessaire] [pourquoi?], Aussi Penrose cherche-t-il un autre processus impliquant une nouvelle physique, par exemple la gravité quantique qui pourrait manifester une nouvelle physique à l’échelle de la masse de Planck par le biais spontané effondrement quantique de la fonction d’onde. Ces états, a-t-il suggéré, se produisent à la fois dans les neurones et sur plusieurs neurones. Cependant, d’autres scientifiques soulignent qu’il n’y a pas de mécanisme organique plausible dans le cerveau pour exploiter une quelconque forme de calcul quantique, et que le délai de la décohérence quantique semble trop rapide pour influencer le déclenchement des neurones.

Dreyfus: la primauté des compétences inconscientes
Hubert Dreyfus a fait valoir que l’intelligence et l’expertise humaines reposaient principalement sur des instincts inconscients plutôt que sur une manipulation symbolique consciente, et que ces compétences inconscientes ne seraient jamais capturées dans des règles formelles.

L’argument de Dreyfus avait été anticipé par Turing dans son article de 1950 intitulé Computing and Intelligence, où il avait classé cet argument comme étant « l’argument tiré de l’informalité du comportement ». Turing a répondu en affirmant que le fait que nous ne connaissions pas les règles qui régissent un comportement complexe ne signifiait pas que de telles règles n’existaient pas. Il a écrit: « Nous ne pouvons pas nous convaincre aussi facilement de l’absence de lois complètes sur le comportement. La seule façon dont nous connaissons ces lois est l’observation scientifique. Nous ne connaissons certainement aucune circonstance dans laquelle nous pourrions dire: ont assez cherché. Il n’y a pas de telles lois.  »

Russell et Norvig soulignent que, depuis la publication de sa critique par Dreyfus, des progrès ont été accomplis dans la découverte des « règles » qui régissent le raisonnement inconscient. Le mouvement situé dans la recherche en robotique tente de capturer nos compétences inconscientes à la perception et à l’attention. Les paradigmes de l’intelligence informatique, tels que les réseaux de neurones, les algorithmes d’évolution, etc., sont principalement orientés vers le raisonnement et l’apprentissage inconscients simulés. Les approches statistiques de l’intelligence artificielle peuvent faire des prédictions qui s’approchent de la précision des suppositions intuitives humaines. La recherche sur la connaissance du sens commun s’est concentrée sur la reproduction du « contexte » ou du contexte de la connaissance. En fait, la recherche sur l’IA en général s’est éloignée de la manipulation de symboles de haut niveau ou « GOFAI », au profit de nouveaux modèles destinés à capturer davantage notre raisonnement inconscient [selon qui?]. L’historien et chercheur en intelligence artificielle Daniel Crevier a écrit que « le temps a prouvé l’exactitude et la perspicacité de certains commentaires de Dreyfus. S’il les avait formulés de manière moins agressive, les actions constructives qu’ils auraient suggérées auraient peut-être été prises beaucoup plus tôt ».

Une machine peut-elle avoir un esprit, une conscience et des états mentaux?
C’est une question philosophique, liée au problème des autres esprits et au difficile problème de la conscience. La question tourne autour d’une position définie par John Searle comme « forte IA »:

Un système de symboles physiques peut avoir un esprit et des états mentaux.
Searle distingue cette position de ce qu’il appelle « l’IA faible »:

Un système de symboles physiques peut agir intelligemment.
Searle a introduit les termes pour isoler l’IA forte de l’IA faible afin de pouvoir se concentrer sur ce qu’il pensait être la question la plus intéressante et la plus discutable. Il a fait valoir que même si nous supposions que nous avions un programme informatique qui agissait exactement comme un esprit humain, il resterait une question philosophique difficile à laquelle il faudrait répondre.

Aucune des deux positions de Searle ne préoccupe beaucoup les chercheurs en intelligence artificielle, car ils ne répondent pas directement à la question « une machine peut-elle afficher des informations générales? » (à moins que l’on puisse aussi démontrer que la conscience est nécessaire à l’intelligence). Turing a écrit « Je ne souhaite pas donner l’impression que je pense qu’il n’ya pas de mystère sur la conscience… mais je ne pense pas que ces mystères doivent nécessairement être résolus avant que nous puissions répondre à la question [de savoir si les machines peuvent penser]. » Russell et Norvig sont d’accord: « La plupart des chercheurs sur l’IA prennent l’hypothèse de l’IA faible pour acquise, et se moquent de l’hypothèse de l’IA forte ».

Quelques chercheurs croient que la conscience est un élément essentiel de l’intelligence, tels que Igor Aleksander, Stan Franklin, Ron Sun et Pentti Haikonen, bien que leur définition de «conscience» soit très proche de «l’intelligence». (Voir conscience artificielle.)

Avant de pouvoir répondre à cette question, nous devons bien comprendre ce que nous entendons par « esprit », « état mental » et « conscience ».

Conscience, mentalité, états mentaux, signification
Les mots « esprit » et « conscience » sont utilisés de différentes manières par différentes communautés. Certains penseurs du nouvel âge, par exemple, utilisent le mot « conscience » pour décrire quelque chose de similaire à « l’élan vital » de Bergson: un fluide énergétique invisible qui imprègne la vie et en particulier l’esprit. Les auteurs de science-fiction utilisent ce mot pour décrire une propriété essentielle qui fait de nous des êtres humains: une machine ou un extraterrestre « conscient » sera présenté comme un personnage pleinement humain, doté d’intelligence, de désirs, de volonté, de perspicacité, de fierté, etc. (Les auteurs de science-fiction utilisent également les mots « sentience », « sapience », « conscience de soi » ou « fantôme » – comme dans le manga et la série animée de Ghost in the Shell – pour décrire cette propriété humaine essentielle). Pour d’autres [qui?], Les mots « esprit » ou « conscience » sont utilisés comme une sorte de synonyme laïque de l’âme.

Pour les philosophes, les neuroscientifiques et les scientifiques en sciences cognitives, les mots sont utilisés d’une manière à la fois plus précise et plus mondaine: ils renvoient à l’expérience quotidienne et familière de la « pensée dans la tête », comme une perception, un rêve, intention ou un plan, et à la façon dont nous savons quelque chose, ou signifions quelque chose ou comprenons quelque chose. « Il n’est pas difficile de donner une définition sensée de la conscience », observe le philosophe John Searle. Ce qui est mystérieux et fascinant n’est pas tant ce qu’il est mais comment il est: comment un morceau de tissu adipeux et de l’électricité donnent-ils lieu à cette expérience (familière) de perception, de sens ou de pensée?

Les philosophes appellent cela le problème difficile de la conscience. C’est la dernière version d’un problème classique de la philosophie de l’esprit appelé « problème corps-esprit ». Un problème connexe est le problème du sens ou de la compréhension (ce que les philosophes appellent « intentionnalité »): quel est le lien entre nos pensées et ce à quoi nous pensons (objets et situations du monde)? Un troisième problème est celui de l’expérience (ou de la « phénoménologie »): si deux personnes voient la même chose, ont-elles la même expérience? Ou y a-t-il des choses « dans leur tête » (appelées « qualia ») qui peuvent être différentes d’une personne à l’autre?

La chambre chinoise de Searle
John Searle nous demande de considérer une expérience de pensée: supposons que nous ayons écrit un programme informatique qui réussisse le test de Turing et démontre une « action intelligente générale ». Supposons, en particulier, que le programme parle couramment le chinois. Ecrivez le programme sur des cartes 3×5 et donnez-les à une personne ordinaire qui ne parle pas chinois. Enfermez la personne dans une pièce et faites-la suivre les instructions sur les cartes. Il copiera les caractères chinois et les fera entrer et sortir de la pièce par une fente. De l’extérieur, il apparaîtra que la salle chinoise contient une personne parfaitement intelligente qui parle chinois. La question est la suivante: y a-t-il quelqu’un (ou quelque chose) dans la pièce qui comprend le chinois? C’est-à-dire, y a-t-il quelque chose qui a l’état mental de compréhension, ou qui a une conscience consciente de ce qui est discuté en chinois? L’homme n’est clairement pas au courant. La salle ne peut pas être au courant. Les cartes ne sont certainement pas au courant. Searle conclut que la salle chinoise, ou tout autre système de symbole physique, ne peut avoir un esprit.

Searle poursuit en affirmant que les états mentaux et la conscience réels requièrent (encore à décrire) « les propriétés physico-chimiques réelles du cerveau humain ». Il soutient qu’il existe des « propriétés causales » spéciales du cerveau et des neurones qui donnent lieu à la pensée: dans ses mots, « le cerveau cause la pensée ».

En 1714, Gottfried Leibniz invoqua essentiellement le même argument que Searle, utilisant l’expérience de pensée consistant à agrandir le cerveau jusqu’à ce qu’il devienne la taille d’un moulin. En 1974, Lawrence Davis avait imaginé de dupliquer le cerveau à l’aide de lignes téléphoniques et de bureaux dotés de personnel. En 1978, Ned Block envisageait toute la population chinoise impliquée dans une telle simulation cérébrale. Cette expérience de pensée s’appelle « la nation chinoise » ou « le gymnase chinois ». Ned Block a également proposé son argument Blockhead, qui est une version de la salle chinoise dans laquelle le programme a été reconfiguré en un simple ensemble de règles de la forme « voyez ceci, faites-le », supprimant ainsi tout mystère du programme.

Réponses à la salle chinoise
Les réponses à la salle chinoise soulignent plusieurs points différents.

La réponse du système et la réponse de l’esprit virtuel: cette réponse affirme que le système, y compris l’homme, le programme, la salle et les cartes, est ce qui comprend le chinois. Searle affirme que l’homme dans la pièce est la seule chose qui pourrait éventuellement « avoir un esprit » ou « comprendre », mais d’autres ne sont pas d’accord, soutenant qu’il est possible qu’il y ait deux esprits dans le même lieu physique, de la même manière un ordinateur peut simultanément « être » deux machines à la fois: une physique (comme un Macintosh) et une « virtuelle » (comme un traitement de texte).
Des réponses rapides, puissantes et complexes: plusieurs critiques soulignent qu’il faudrait probablement des millions d’années à l’homme de la salle pour répondre à une question simple et qu’il faudrait des « classeurs » aux proportions astronomiques. Cela met en doute la clarté de l’intuition de Searle.
Réponse du robot: Pour vraiment comprendre, certains pensent que la salle chinoise a besoin d’yeux et de mains. Hans Moravec écrit: « Si nous pouvions greffer un robot dans un programme de raisonnement, nous n’aurions plus besoin d’une personne pour fournir le sens: cela viendrait du monde physique ».
Réponse du simulateur de cerveau: Que se passera-t-il si le programme simule la séquence de tirs de nerf au niveau des synapses du cerveau réel d’un locuteur chinois? L’homme dans la pièce simulerait un cerveau réel. C’est une variation de la « réponse des systèmes » qui semble plus plausible parce que « le système » fonctionne maintenant clairement comme un cerveau humain, ce qui renforce l’intuition qu’il y a quelque chose en plus de l’homme dans la pièce qui puisse comprendre le chinois.
D’autres esprits répondent et les épiphénomènes répondent: Plusieurs personnes ont noté que l’argument de Searle n’était qu’une version du problème des autres esprits, appliqué aux machines. Puisqu’il est difficile de décider si les gens pensent « réellement », nous ne devrions pas être surpris qu’il soit difficile de répondre à la même question à propos des machines.

Est-ce que penser est une sorte de calcul?
La théorie computationnelle de l’esprit ou « computationalisme » prétend que la relation entre l’esprit et le cerveau est similaire (voire identique) à la relation entre un programme en cours d’exécution et un ordinateur. L’idée a des racines philosophiques dans Hobbes (qui affirmait que le raisonnement n’était « rien de plus que de compter »), Leibniz (qui tentait de créer un calcul logique de toutes les idées humaines), Hume (qui pensait que la perception pouvait être réduite à des « impressions atomiques ») et même Kant (qui a analysé toute expérience contrôlée par des règles formelles). La dernière version est associée aux philosophes Hilary Putnam et Jerry Fodor.

Cette question concerne nos précédentes questions: si le cerveau humain est une sorte d’ordinateur, les ordinateurs peuvent être à la fois intelligents et conscients et répondre aux questions pratiques et philosophiques de l’IA. En ce qui concerne la question pratique de l’IA (« Une machine peut-elle afficher une intelligence générale? »), Certaines versions de l’informatique calculent l’affirmation qui (comme l’a écrit Hobbes):

Raisonner n’est rien mais compter
En d’autres termes, notre intelligence découle d’une forme de calcul, similaire à l’arithmétique. C’est l’hypothèse du système de symbole physique discutée ci-dessus, et elle implique que l’intelligence artificielle est possible. En ce qui concerne la question philosophique de l’IA (« Une machine peut-elle avoir un esprit, des états mentaux et une conscience? »), La plupart des versions du computationalisme affirment que (comme le définit Stevan Harnad):

Les états mentaux ne sont que des implémentations des programmes informatiques (les bons)
C’est la « forte IA » de John Searle, évoquée ci-dessus, et c’est la véritable cible de l’argument de la salle chinoise (selon Harnad).

Autres questions connexes
Alan Turing a noté qu’il y avait beaucoup d’arguments de la forme « une machine ne fera jamais X », où X peut être beaucoup de choses, telles que:

Soyez gentil, débrouillard, beau, amical, ayez l’initiative, ayez le sens de l’humour, dites le vrai du faux, faites des erreurs, tombez amoureux, aimez les fraises et la crème, faites tomber quelqu’un en amour, apprenez de l’expérience, utilisez les mots correctement , soyez le sujet de votre propre pensée, ayez autant de diversité de comportement qu’un homme, faites quelque chose de vraiment nouveau.

Une machine peut-elle avoir des émotions?
Si les « émotions » ne sont définies que par leur effet sur le comportement ou sur leur fonctionnement dans l’organisme, elles peuvent être considérées comme un mécanisme qu’un agent intelligent utilise pour maximiser l’utilité de ses actions. D’après cette définition de l’émotion, Hans Moravec estime que « les robots en général seront assez émotifs pour être des personnes agréables ». La peur est une source d’urgence. L’empathie est un élément nécessaire d’une bonne interaction homme-machine. Il dit que les robots « essaieront de vous plaire de manière apparemment désintéressée, car ils feront vibrer ce renforcement positif. Vous pouvez interpréter cela comme une sorte d’amour ». Daniel Crevier écrit « Le point de Moravec est que les émotions ne sont que des moyens de canaliser les comportements dans une direction bénéfique à la survie de l’espèce. »

Cependant, les émotions peuvent également être définies en fonction de leur qualité subjective, de ce que l’on ressent lorsqu’on ressent une émotion. La question de savoir si la machine ressent réellement une émotion ou si elle agit simplement comme si elle ressentait une émotion est la question philosophique suivante: « une machine peut-elle être consciente? » sous une autre forme.

Une machine peut-elle être consciente de soi?
La « conscience de soi », comme indiqué ci-dessus, est parfois utilisée par les auteurs de science-fiction pour désigner la propriété humaine essentielle qui rend un personnage pleinement humain. Turing supprime toutes les autres propriétés de l’être humain et ramène la question à « une machine peut-elle être le sujet de sa propre pensée? » Peut-il penser à lui-même? Vu sous cet angle, il est possible d’écrire un programme capable de générer des rapports sur ses propres états internes, tels qu’un débogueur. Certes, la conscience de soi suppose souvent un peu plus de capacité; une machine qui peut en quelque sorte attribuer un sens non seulement à son propre état, mais en général à des questions sans réponses solides: la nature contextuelle de son existence actuelle; comment il se compare aux états ou plans d’avenir du passé, aux limites et à la valeur de son produit de travail, comment il perçoit sa performance comme étant valorisée ou comparée à d’autres.

Une machine peut-elle être originale ou créative?
Turing réduit ceci à la question de savoir si une machine peut « nous prendre au dépourvu » et soutient que cela est évidemment vrai, comme tout programmeur peut en témoigner. Il note que, avec une capacité de stockage suffisante, un ordinateur peut se comporter de différentes manières. Il doit être possible, même trivial, pour un ordinateur capable de représenter des idées de les combiner de manière nouvelle. (Le mathématicien automatisé de Douglas Lenat, par exemple, a combiné des idées pour découvrir de nouvelles vérités mathématiques.)

En 2009, des scientifiques de l’Université Aberystwyth au Pays de Galles et de l’Université de Cambridge au Royaume-Uni ont conçu un robot appelé Adam, qu’ils considèrent comme la première machine à proposer de manière indépendante de nouvelles découvertes scientifiques. Également en 2009, des chercheurs de Cornell ont développé Eureqa, un programme informatique qui extrapole des formules en fonction des données saisies, telles que la recherche des lois du mouvement à partir du mouvement d’un pendule.

Une machine peut-elle être bienveillante ou hostile?
Cette question (comme beaucoup d’autres dans la philosophie de l’intelligence artificielle) peut être présentée sous deux formes. « Hostilité » peut être défini en termes de fonction ou de comportement, auquel cas « hostile » devient synonyme de « dangereux ». Ou cela peut être défini en termes d’intention: une machine peut-elle délibérément « faire du mal »? La dernière est la question « une machine peut-elle avoir des états conscients? » (telles que les intentions) sous une autre forme.

La question de savoir si des machines extrêmement intelligentes et complètement autonomes seraient dangereuses a été examinée en détail par les futuristes (tels que le Singularity Institute). (L’élément évident du drame a également rendu populaire le sujet dans la science-fiction, qui a envisagé de nombreux scénarios différents où des machines intelligentes constituent une menace pour l’humanité.)

L’un des problèmes est que les machines peuvent acquérir très rapidement l’autonomie et l’intelligence requises pour être dangereuses. Vernor Vinge a laissé entendre qu’en quelques années, les ordinateurs deviendraient soudainement des milliers, voire des millions de fois plus intelligents que les humains. Il appelle cela « la singularité ». Il suggère que cela peut être quelque peu ou peut-être très dangereux pour les humains. Ceci est discuté par une philosophie appelée Singularitarianism.

Certains experts et universitaires se sont interrogés sur l’utilisation de robots pour le combat militaire, en particulier lorsque ces robots remplissaient un certain degré de fonctions autonomes. La marine américaine a financé un rapport qui indique que, à mesure que les robots militaires deviennent de plus en plus complexes, il faudrait accorder une plus grande attention aux implications de leur capacité à prendre des décisions de manière autonome.

Le président de l’Association pour l’avancement de l’intelligence artificielle a commandé une étude sur ce sujet. Ils pointent vers des programmes tels que le périphérique d’acquisition de la langue qui peuvent émuler une interaction humaine.

Certains ont suggéré la nécessité de créer une « IA conviviale », ce qui signifie que les progrès déjà réalisés dans le domaine de l’IA devraient également viser à rendre l’IA intrinsèquement amicale et humaine.

Une machine peut-elle avoir une âme?
Enfin, ceux qui croient en l’existence d’une âme peuvent argumenter que « la pensée est une fonction de l’âme immortelle de l’homme ». Alan Turing a appelé cela « l’objection théologique ». Il écrit

En essayant de construire de telles machines, nous ne devrions pas utiliser de façon irréversible son pouvoir de créer des âmes, pas plus que nous ne procréons des enfants: nous sommes plutôt, dans les deux cas, des instruments de sa volonté fournissant des manoirs aux âmes qu’il crée.

Points de vue sur le rôle de la philosophie
Certains spécialistes affirment que le rejet de la philosophie par la communauté d’IA est préjudiciable. Dans l’Encyclopedia of Philosophy de Stanford, certains philosophes soutiennent que le rôle de la philosophie dans l’IA est sous-estimé.Le physicien David Deutsch affirme que sans compréhension de la philosophie ou de ses concepts, le développement de l’IA souffrirait d’un manque de progrès.

Bibliographie et conférences
La bibliographie principale sur le sujet, avec plusieurs sous-sections, concerne PhilPapers.

La série de conférences principale sur le sujet est « Philosophie et théorie de l’IA » (PT-AI), dirigée par Vincent C. Müller