Ethique de l’intelligence artificielle

L’éthique de l’intelligence artificielle fait partie de l’éthique de la technologie propre aux robots et aux autres êtres artificiellement intelligents. Elle est généralement divisée en roboéthique, une préoccupation liée au comportement moral des humains lorsqu’ils conçoivent, construisent, utilisent et traitent des êtres artificiellement intelligents, et à l’éthique machine, qui concerne le comportement moral des agents moraux artificiels (AMA).

L’éthique du robot
Le terme « éthique robotique » (parfois « roboéthique ») fait référence à la moralité de la façon dont les humains conçoivent, construisent, utilisent et traitent des robots et d’autres êtres artificiellement intelligents. Il examine à la fois comment des êtres artificiellement intelligents peuvent être utilisés pour nuire à des humains et comment ils peuvent être utilisés pour en faire des bénéfices.

Droits de robot
Les « droits de robot » sont le concept selon lequel les personnes devraient avoir des obligations morales envers leurs machines, similaires aux droits de l’homme ou aux droits des animaux. Il a été suggéré que les droits des robots, tels que le droit d’exister et d’accomplir sa propre mission, pourraient être liés au devoir du robot de servir l’homme, par analogie avec le lien entre les droits de l’homme et les devoirs de l’homme devant la société. Celles-ci pourraient inclure le droit à la vie et à la liberté, la liberté de pensée et d’expression et l’égalité devant la loi. L’Institute for the Future et le ministère britannique du Commerce et de l’Industrie se sont penchés sur la question.

Les experts ne sont pas d’accord sur le point de savoir si des lois spécifiques et détaillées seront nécessaires bientôt ou en toute sécurité dans un avenir lointain. Glenn McGee rapporte que des robots suffisamment humanoïdes pourraient apparaître d’ici 2020. Ray Kurzweil fixe la date à 20 h29. Un autre groupe de scientifiques réuni en 2007 a supposé qu’au moins 50 ans devaient s’écouler avant qu’un système suffisamment avancé n’existerait.

Le règlement du concours Loebner Prize 2003 prévoyait la possibilité que les robots possèdent leurs propres droits:

61. Si, au cours d’une année donnée, une entrée de source ouverte accessible au public et entrée par l’Université de Surrey ou le Cambridge Centre remporte la médaille d’argent ou la médaille d’or, la médaille et le prix en espèces seront remis à l’organisme responsable de la développement de cette entrée. Si aucun organisme de ce type ne peut être identifié, ou en cas de désaccord entre deux demandeurs ou plus, la médaille et la récompense en espèces seront conservées en fiducie jusqu’à ce que la participation soit légalement acquise, soit aux États-Unis d’Amérique, soit aux États-Unis. lieu du concours, le prix en argent et la médaille d’or en tant que tels.

En octobre 2017, l’androïde Sophia a obtenu la citoyenneté en Arabie saoudite, bien que certains observateurs aient estimé qu’il s’agissait davantage d’un coup de publicité que d’une reconnaissance légale significative.

Menace contre la dignité humaine
Joseph Weizenbaum a soutenu en 1976 que la technologie d’intelligence artificielle ne devrait pas être utilisée pour remplacer des personnes occupant des postes exigeant le respect et l’attention, telles que celles-ci:

Un représentant du service clientèle (la technologie AI est déjà utilisée aujourd’hui pour les systèmes de réponse vocale interactive basés sur le téléphone)
Un thérapeute (comme l’a proposé Kenneth Colby dans les années 1970)
Une infirmière pour les personnes âgées (comme l’a rapporté Pamela McCorduck dans son livre The Fifth Generation)
Un soldat
Un juge
Un agent de police

Weizenbaum explique que nous exigeons des sentiments authentiques d’empathie de la part de personnes occupant ces postes. Si les machines les remplacent, nous nous retrouverons aliénés, dévalorisés et frustrés. L’intelligence artificielle, si utilisée de cette manière, représente une menace pour la dignité humaine. Weizenbaum fait valoir que le fait que nous envisagions la possibilité d’utiliser des machines dans ces positions suggère que nous avons subi une « atrophie de l’esprit humain résultant du fait que nous nous considérons comme des ordinateurs ».

Pamela McCorduck réplique que, parlant au nom des femmes et des minorités, « je préfère tenter ma chance avec un ordinateur impartial », soulignant qu’il existe des conditions dans lesquelles nous préférerions avoir des juges et des policiers automatisés qui n’ont aucun programme personnel. Le fondateur d’IA, John McCarthy, conteste le ton moralisateur de la critique de Weizenbaum. « Lorsque la moralisation est à la fois véhémente et vague, elle invite à des abus autoritaires », écrit-il.

Bill Hibbard écrit que « la dignité humaine exige que nous nous efforcions de dissiper notre ignorance de la nature de l’existence, et que l’IA est nécessaire à cet effort ».

Transparence et open source
Bill Hibbard affirme que, du fait que l’IA aura un impact profond sur l’humanité, ses développeurs sont les représentants de l’humanité future et ont donc l’obligation morale d’être transparents dans leurs efforts. Ben Goertzel et David Hart ont créé OpenCog en tant que framework open source pour le développement de l’intelligence artificielle. OpenAI est une société de recherche sur l’IA à but non lucratif créée par Elon Musk, Sam Altman et d’autres pour développer une IA open source bénéfique pour l’humanité. Il existe de nombreux autres développements de l’IA open source.

Armes de l’intelligence artificielle
Certains experts et universitaires se sont interrogés sur l’utilisation de robots pour le combat militaire, en particulier lorsque ces robots remplissaient un certain degré de fonctions autonomes. La marine américaine a financé un rapport qui indique que, à mesure que les robots militaires deviennent de plus en plus complexes, il faudrait accorder une plus grande attention aux implications de leur capacité à prendre des décisions de manière autonome. Un chercheur déclare que les robots autonomes pourraient être plus humains, car ils pourraient prendre des décisions plus efficacement.

Au cours de la dernière décennie, il y a eu des recherches intensives sur le pouvoir autonome avec la capacité d’apprendre en utilisant les responsabilités morales assignées. « Les résultats peuvent être utilisés lors de la conception de futurs robots militaires, afin de contrôler les tendances non désirées d’attribution de responsabilités aux robots. » D’un point de vue conséquentialiste, il est possible que les robots développent la capacité de prendre leurs propres décisions logiques pour savoir qui tuer, et c’est pourquoi il devrait exister un cadre moral défini que l’IA ne peut pas ignorer.

Il y a eu un tollé récent concernant l’ingénierie des armes à intelligence artificielle, qui incluait des idées de prise de contrôle de l’humanité par un robot. Les armes d’IA présentent un type de danger différent de celui des armes sous contrôle humain. De nombreux gouvernements ont commencé à financer des programmes de développement d’armes d’IA. La marine américaine a récemment annoncé son intention de développer des armes de drones autonomes, parallèlement à des annonces similaires de la Russie et de la Corée. Stephen Hawking et Max Tegmark ont ​​signé une pétition intitulée « Future of Life » visant à interdire les armes pour infidélité. Le message publié par Hawking et Tegmark indique que les armes d’IA constituent un danger immédiat et que des mesures sont nécessaires pour éviter des catastrophes catastrophiques dans un proche avenir.

« Si une grande puissance militaire accélère le développement des armes d’IA, une course mondiale aux armements est pratiquement inévitable et le but de cette trajectoire technologique est évident: les armes autonomes deviendront les Kalachnikovs de demain », indique la pétition, qui inclut Skype – Le fondateur, Jaan Tallinn, et le professeur de linguistique du MIT, Noam Chomsky, en tant que sympathisants supplémentaires contre les armes de l’IA.

Le physicien et astronome Royal, Sir Martin Rees, a mis en garde contre des événements catastrophiques tels que « des robots idiots devenant des voleurs ou un réseau développant son esprit ». Huw Price, un collègue de Rees à Cambridge, a lancé un avertissement similaire selon lequel les humains pourraient ne pas survivre lorsque le renseignement « échappe aux contraintes de la biologie ». Ces deux professeurs ont créé le Centre d’étude du risque existentiel de l’Université de Cambridge dans le but d’éviter cette menace pour l’existence humaine.

S’agissant du potentiel des systèmes plus intelligents que les humains à être utilisés militairement, le projet Open Philanthropy écrit que ces scénarios « semblent potentiellement aussi importants que les risques liés à la perte de contrôle », mais que les organisations de recherche qui étudient l’impact social à long terme d’Amnesty International ont a consacré relativement peu de temps à cette préoccupation: « cette catégorie de scénarios n’a pas constitué un objectif majeur pour les organisations les plus actives dans ce domaine, telles que le Machine Intelligence Research Institute (MIRI) et le Future of Humanity Institute (FHI) et il semble y avoir eu moins d’analyses et de débats à leur sujet « .

Ethique de la machine
L’éthique machine (ou morale machine) est le domaine de recherche qui concerne la conception d’agents moraux artificiels (AMAs), de robots ou d’ordinateurs intelligemment artificiels qui se comportent de manière morale ou comme s’ils étaient moraux.

Isaac Asimov a examiné la question dans les années 1950 dans son I, Robot. Sur l’insistance de son éditeur, John W. Campbell Jr., il a proposé les Trois lois de la robotique pour gérer des systèmes artificiellement intelligents. Une grande partie de son travail a ensuite été consacrée à la vérification des limites de ses trois lois afin de déterminer le lieu où elles seraient enfreintes ou créeraient un comportement paradoxal ou imprévu. Son travail suggère qu’aucun ensemble de lois fixes ne peut anticiper suffisamment toutes les circonstances possibles.

En 2009, lors d’une expérience réalisée au Laboratoire de systèmes intelligents de l’Ecole Polytechnique Fédérale de Lausanne en Suisse, des robots programmés pour coopérer les uns avec les autres (à la recherche d’une ressource bénéfique et en évitant une ressource toxique) ont finalement appris à se mentir à chacun. autre pour tenter de conserver la ressource utile. L’un des problèmes rencontrés dans ce cas est peut-être le fait que les objectifs étaient «terminaux» (c’est-à-dire que les motivations humaines fondamentales ont généralement la qualité d’exiger un apprentissage sans fin).

Certains experts et universitaires se sont interrogés sur l’utilisation de robots pour le combat militaire, en particulier lorsque ces robots remplissaient un certain degré de fonctions autonomes. La marine américaine a financé un rapport qui indique que, à mesure que les robots militaires deviennent de plus en plus complexes, il faudrait accorder une plus grande attention aux implications de leur capacité à prendre des décisions de manière autonome. Le président de l’Association pour l’avancement de l’intelligence artificielle a commandé une étude sur ce sujet. Ils pointent vers des programmes tels que le périphérique d’acquisition de la langue qui peuvent émuler une interaction humaine.

Vernor Vinge a suggéré qu’un moment pourrait survenir lorsque certains ordinateurs sont plus intelligents que les humains. Il appelle cela « la singularité ». Il suggère que cela peut être quelque peu ou peut-être très dangereux pour les humains. Ceci est discuté par une philosophie appelée Singularitarianism. Le Machine Intelligence Research Institute a suggéré la nécessité de créer une « AI conviviale », ce qui signifie que les progrès déjà réalisés dans le domaine de l’IA devraient également viser à rendre l’IA intrinsèquement amicale et humaine.

En 2009, des universitaires et des experts techniques ont assisté à une conférence organisée par l’Association pour l’avancement de l’intelligence artificielle afin de discuter de l’impact potentiel des robots et des ordinateurs et de l’hypothèse selon laquelle ils pourraient devenir autonomes et capables de prendre leurs propres décisions. . Ils ont discuté de la possibilité et de la mesure dans laquelle les ordinateurs et les robots pourraient être en mesure d’acquérir n’importe quel niveau d’autonomie, et dans quelle mesure ils pourraient utiliser ces capacités pour éventuellement constituer une menace ou un danger. Ils ont noté que certaines machines avaient acquis diverses formes de semi-autonomie, notamment être capable de trouver elles-mêmes des sources d’énergie et de pouvoir choisir indépendamment les cibles à attaquer avec des armes. Ils ont également noté que certains virus informatiques peuvent échapper à l’élimination et ont atteint « l’intelligence de cafards ». Ils ont noté que la conscience de soi telle qu’elle est décrite dans la science-fiction est probablement improbable, mais qu’il y avait d’autres dangers et pièges potentiels.

Cependant, il existe une technologie en particulier qui pourrait véritablement concrétiser la possibilité de robots dotés d’une compétence morale. Dans un article sur l’acquisition de valeurs morales par des robots, Nayef Al-Rodhan mentionne le cas des puces neuromorphes, qui visent à traiter les informations de la même manière que l’homme, de manière non linéaire et avec des millions de neurones artificiels interconnectés. Les robots intégrés à la technologie neuromorphique pourraient apprendre et développer des connaissances d’une manière uniquement humaine. Inévitablement, cela pose la question de l’environnement dans lequel de tels robots apprendraient du monde et de la moralité dont ils hériteraient – ou s’ils développaient également des «faiblesses» humaines: égoïsme, attitude pro-survie, hésitation, etc.

Dans Moral Machines: Enseigner des robots parfaitement faux, Wendell Wallach et Colin Allen concluent que tenter d’enseigner correctement aux robots fera progresser la compréhension de l’éthique humaine en motivant les humains à combler les lacunes de la théorie normative moderne et en fournissant une plate-forme de recherche expérimentale. À titre d’exemple, il a présenté aux éthiciens normatifs la question controversée des algorithmes d’apprentissage spécifiques à utiliser dans les machines. Nick Bostrom et Eliezer Yudkowsky ont plaidé pour des arbres de décision (tels que ID3) sur des réseaux de neurones et des algorithmes génétiques, estimant que ceux-ci respectaient les normes sociales modernes de transparence et de prévisibilité (par exemple, stare decisis), tandis que Chris Santos-Lang affirmait à l’opposé. l’instruction au motif que les normes de tout âge doivent pouvoir changer et que l’échec naturel à satisfaire pleinement à ces normes particulières a été essentiel pour rendre les êtres humains moins vulnérables aux « pirates » criminels.

Conséquences inattendues
De nombreux chercheurs ont fait valoir que, par le biais d’une « explosion de l’intelligence » au cours du 21ème siècle, une IA auto-améliorant pourrait devenir tellement plus puissante que les humains que nous ne pourrions pas l’empêcher d’atteindre ses objectifs. Dans son article intitulé « Problèmes éthiques dans l’intelligence artificielle avancée », le philosophe Nick Bostrom affirme que l’intelligence artificielle est en mesure de provoquer l’extinction de l’homme. Il affirme que la super-intelligence générale serait capable d’initiative indépendante et de faire ses propres plans, et pourrait donc être considérée de manière plus appropriée comme un agent autonome. Puisque les intelligences artificielles n’ont pas besoin de partager nos tendances en matière de motivation humaine, il appartiendrait aux concepteurs de la super-intelligence de spécifier ses motivations d’origine. En théorie, une intelligence artificielle super intelligente serait en mesure de produire presque tous les résultats possibles et de contrecarrer toute tentative d’empêcher la réalisation de son objectif principal, de nombreuses conséquences imprévues et non contrôlées pourraient en résulter. Cela pourrait tuer tous les autres agents, les persuader de changer de comportement ou bloquer leurs tentatives d’interférence.

Cependant, au lieu de submerger la race humaine et d’entraîner notre destruction, Bostrom a également affirmé que la super-intelligence pouvait nous aider à résoudre de nombreux problèmes difficiles tels que la maladie, la pauvreté et la destruction de l’environnement, et pourrait également nous aider à nous «améliorer».

En raison de la complexité des systèmes de valeurs humaines, il est très difficile de rendre les motivations d’AI conviviales. À moins que la philosophie morale ne nous fournisse une théorie éthique sans faille, la fonction d’utilité d’une intelligence artificielle pourrait permettre de nombreux scénarios potentiellement néfastes, conformes à un cadre éthique donné, mais non au « sens commun ». Selon Eliezer Yudkowsky, il y a peu de raisons de penser qu’un esprit conçu artificiellement aurait une telle adaptation.

Bill Hibbard propose une conception de l’IA qui évite plusieurs types de comportement involontaire de l’IA, y compris l’auto-illusion, les actions instrumentales non intentionnelles et la corruption du générateur de récompense.

Les organisations
Amazon, Google, Facebook, IBM et Microsoft ont établi un partenariat à but non lucratif afin de formuler les meilleures pratiques en matière de technologies d’intelligence artificielle, de faire mieux comprendre le public et de servir de plate-forme sur l’intelligence artificielle. Ils ont déclaré: « Ce partenariat sur l’IA mènera des recherches, organisera des discussions, fournira un leadership éclairé, consultera des tiers concernés, répondra aux questions du public et des médias, et créera du matériel pédagogique qui fera progresser la compréhension des technologies de l’IA, notamment la et raisonnement automatisé « . Apple a rejoint d’autres sociétés technologiques en tant que membre fondateur du Partenariat sur l’intelligence artificielle en janvier 2017. Les sociétés membres apporteront des contributions financières et en matière de recherche au groupe, tout en collaborant avec la communauté scientifique pour intégrer des universitaires au conseil d’administration.

Dans la fiction
Le film The Thirteenth Floor suggère un avenir où des mondes simulés avec des habitants sensibles sont créés par des consoles de jeux informatiques à des fins de divertissement. Le film The Matrix suggère un avenir où les espèces dominantes sur la planète Terre sont des machines sensibles et l’humanité traitée avec le plus grand spécisme. La nouvelle « The Planck Dive » suggère un avenir où l’humanité s’est transformée en un logiciel pouvant être dupliqué et optimisé et où la distinction pertinente entre les types de logiciels est sensible et non sensible. La même idée peut être trouvée dans l’hologramme médical d’urgence de Starship Voyager, qui est une copie apparemment sensible d’un sous-ensemble réduit de la conscience de son créateur, le Dr Zimmerman, qui, pour les meilleures raisons, a créé le système de assistance en cas d’urgence. Les films Bicentennial Man et AI traitent de la possibilité que des robots sensibles puissent aimer. Moi, Robot, j’ai exploré certains aspects des trois lois d’Asimov. Tous ces scénarios tentent de prévoir les conséquences éventuellement contraires à l’éthique de la création d’ordinateurs sensibles.

L’éthique de l’intelligence artificielle est l’un des thèmes principaux de la série de jeux Mass Effect de BioWare. Il explore le scénario d’une civilisation créant accidentellement une IA par le biais d’une augmentation rapide de la puissance de calcul via un réseau de neurones à l’échelle mondiale. Cet événement a provoqué un schisme éthique entre ceux qui estimaient qu’il était approprié d’accorder des droits organiques au nouveau Geth conscient et ceux qui continuaient à les considérer comme des machines jetables et qui se battaient pour les détruire. Au-delà du conflit initial, la complexité de la relation entre les machines et leurs créateurs est un autre thème récurrent de l’histoire.

Au fil du temps, les débats ont eu tendance à se focaliser de moins en moins sur la possibilité et davantage sur la désirabilité, comme l’ont souligné les débats « Cosmist » et « Terran » initiés par Hugo de Garis et Kevin Warwick. Selon Hugo de Garis, un cosmiste cherche en réalité à construire des successeurs plus intelligents à l’espèce humaine.

Littérature
La bibliographie standard sur l’éthique de l’IA concerne PhilPapers. Une collection récente est VC Müller (ed.) (2016).