Lois de la robotique

Les lois de la robotique constituent un ensemble de lois, règles ou principes destinés à servir de cadre fondamental au comportement des robots conçus pour avoir un degré d’autonomie. Des robots de ce degré de complexité n’existent pas encore, mais ils ont été largement anticipés dans la science-fiction, les films et sont un sujet de recherche et développement actif dans les domaines de la robotique et de l’intelligence artificielle.

Les lois les plus connues sont celles écrites par Isaac Asimov dans les années 1940, ou fondées sur celles-ci, mais d’autres séries de lois ont été proposées par les chercheurs au cours des décennies qui ont suivi.

Les trois lois de la robotique d’Isaac Asimov
Les lois les plus connues sont les « Trois lois de la robotique » d’Isaac Asimov. Celles-ci ont été introduites dans sa nouvelle « Runaround » de 1942, bien qu’elles aient été annoncées dans quelques histoires précédentes. Les trois lois sont:

Un robot ne peut pas blesser un être humain ni, par son inaction, permettre à un être humain de se blesser.
Un robot doit obéir aux ordres donnés par des êtres humains, sauf si de tels ordres sont contraires à la Première Loi.
Un robot doit protéger sa propre existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Vers la fin de son livre Foundation and Earth, une loi zéro a été introduite:

0. Un robot ne peut pas nuire à l’humanité, ni, par son inaction, permettre à l’humanité de nuire.

Des adaptations et des extensions existent en fonction de ce cadre. À partir de 2011, ils restent un « dispositif fictif ».

Principes de la robotique EPSRC / AHRC
En 2011, le Conseil de recherches en génie et en sciences physiques (EPSRC) et le Conseil de recherches sur les arts et les humanités (AHRC) de Grande-Bretagne ont publié conjointement un ensemble de cinq « principes éthiques pour les concepteurs, les constructeurs et les utilisateurs de robots » dans le monde réel. sur sept « messages de haut niveau » destinés à être transmis, sur la base d’un atelier de recherche de septembre 2010:

Les robots ne devraient pas être conçus uniquement ou principalement pour tuer ou nuire à l’homme.
Les humains, pas les robots, sont des agents responsables. Les robots sont des outils conçus pour atteindre des objectifs humains.
Les robots doivent être conçus de manière à assurer leur sûreté et leur sécurité.
Les robots sont des artefacts. ils ne doivent pas être conçus pour exploiter des utilisateurs vulnérables en évoquant une réaction émotionnelle ou une dépendance. Il devrait toujours être possible de distinguer un robot d’un humain.
Il devrait toujours être possible de savoir qui est légalement responsable d’un robot.

Les messages destinés à être transmis étaient:

Nous pensons que les robots ont le potentiel d’apporter un immense impact positif à la société. Nous voulons encourager la recherche responsable sur les robots.
Une mauvaise pratique nous fait mal à tous.
Répondre aux préoccupations évidentes du public nous aidera tous à progresser.
Il est important de démontrer qu’en tant que robotistes, nous nous engageons à respecter les meilleures normes de pratique.
Pour comprendre le contexte et les conséquences de nos recherches, nous devrions travailler avec des experts d’autres disciplines, notamment les sciences sociales, le droit, la philosophie et les arts.
Nous devrions envisager l’éthique de la transparence: existe-t-il des limites à ce qui devrait être ouvertement disponible?
Lorsque nous voyons des comptes erronés dans la presse, nous nous engageons à prendre le temps de contacter les journalistes.

Les principes de l’EPSRC sont largement reconnus comme un point de départ utile. En 2016, Tony Prescott a organisé un atelier pour réviser ces principes, par exemple pour différencier les principes éthiques des principes juridiques.

Développement judiciaire
Une autre codification terminologique complète pour l’évaluation juridique des développements technologiques dans l’industrie de la robotique a déjà commencé, principalement dans les pays asiatiques. Ce progrès représente une réinterprétation contemporaine du droit (et de l’éthique) dans le domaine de la robotique, interprétation qui suppose de repenser les structures juridiques traditionnelles. Celles-ci comprennent principalement des questions de responsabilité juridique en droit civil et pénal.

Les lois de Satya Nadella
En juin 2016, Satya Nadella, PDG de Microsoft Corporation à l’époque, avait eu une interview avec le magazine Slate et avait esquissé cinq règles concernant les intelligences artificielles à observer par leurs concepteurs:

« L’intelligence artificielle doit être conçue pour aider l’humanité », ce qui signifie que l’autonomie humaine doit être respectée.
« L’IA doit être transparente », ce qui signifie que les humains doivent savoir et pouvoir comprendre comment ils fonctionnent.
« AI doit maximiser l’efficacité sans détruire la dignité des personnes ».
« L’intelligence artificielle doit être conçue pour la confidentialité intelligente », ce qui signifie qu’elle gagne la confiance en protégeant leurs informations.
« L’intelligence artificielle doit avoir une comptabilité algorithmique afin que les humains puissent réparer les torts involontaires ».
« Amnesty International doit se garder de tout préjugé » afin de ne pas discriminer les personnes.

Les lois de la robotique de Tilden
Mark W. Tilden est un physicien en robotique qui a été un pionnier du développement de la robotique simple. Ses trois principes directeurs / règles pour les robots sont:

Un robot doit protéger son existence à tout prix.
Un robot doit obtenir et conserver l’accès à sa propre source d’alimentation.
Un robot doit continuellement rechercher de meilleures sources d’énergie.
Ce qui est remarquable dans ces trois règles, c’est qu’il s’agit essentiellement de règles relatives à la vie « sauvage ». Tilden a donc déclaré ce qu’il souhaitait, c’est « surveiller une espèce de silicium dans la conscience, mais avec un contrôle total sur les spécifications. Ne pas planter. Pas un animal. Quelque chose d’autre. «