Gesetze der Robotik

Die Gesetze der Robotik sind eine Reihe von Gesetzen, Regeln oder Prinzipien, die als grundlegender Rahmen für das Verhalten von Robotern gedacht sind, die ein gewisses Maß an Autonomie haben sollen. Roboter dieser Komplexität gibt es noch nicht, aber sie wurden in Science-Fiction-Filmen und Filmen weithin erwartet und sind Gegenstand aktiver Forschung und Entwicklung in den Bereichen Robotik und künstliche Intelligenz.

Die bekanntesten Gesetze sind die von Isaac Asimov in den 1940er Jahren verfassten oder darauf basierenden Gesetze. In den letzten Jahrzehnten wurden jedoch andere Gesetze von Forschern vorgeschlagen.

Isaac Asimovs „Drei Gesetze der Robotik“
Die bekanntesten Gesetze sind die „Drei Gesetze der Robotik“ von Isaac Asimov. Diese wurden 1942 in seiner Kurzgeschichte „Runaround“ vorgestellt, obwohl sie in einigen früheren Geschichten vorhergesagt wurden. Die drei Gesetze sind:

Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit einem Menschen Schaden zufügen lassen.
Ein Roboter muss den von Menschen erteilten Befehlen gehorchen, es sei denn, solche Aufträge würden mit dem Ersten Gesetz kollidieren.
Ein Roboter muss seine eigene Existenz schützen, solange ein solcher Schutz nicht mit dem Ersten oder Zweiten Gesetz in Konflikt steht.

Gegen Ende seines Buches Stiftung und Erde wurde ein nulltes Gesetz eingeführt:

0. Ein Roboter darf die Menschheit nicht verletzen oder durch Untätigkeit der Menschheit Schaden zufügen.

Anpassungen und Erweiterungen basieren auf diesem Rahmen. Ab 2011 bleiben sie ein „fiktives Gerät“.

EPSRC / AHRC-Prinzipien der Robotik
Im Jahr 2011 veröffentlichten der Research Council für Ingenieurwissenschaften und Physikalische Wissenschaften (EPSRC) und der Arts and Humanities Research Council (AHRC) von Großbritannien gemeinsam eine Reihe von fünf ethischen „Prinzipien für Konstrukteure, Konstrukteure und Benutzer von Robotern“ in der realen Welt mit sieben „hochrangigen Botschaften“, die auf der Grundlage eines Forschungsworkshops vom September 2010 übermittelt werden sollen:

Roboter sollten nicht ausschließlich oder in erster Linie dafür ausgelegt sein, Menschen zu töten oder zu schädigen.
Menschen, keine Roboter, sind verantwortliche Agenten. Roboter sind Werkzeuge zur Erreichung menschlicher Ziele.
Roboter sollten so konstruiert sein, dass ihre Sicherheit gewährleistet ist.
Roboter sind Artefakte; Sie sollten nicht darauf ausgelegt sein, schutzbedürftige Benutzer zu nutzen, indem sie eine emotionale Reaktion oder Abhängigkeit auslösen. Es sollte immer möglich sein, einen Roboter von einem Menschen zu unterscheiden.
Es sollte immer möglich sein, herauszufinden, wer für einen Roboter rechtlich verantwortlich ist.

Die zu übermittelnden Botschaften waren:

Wir glauben, dass Roboter das Potenzial haben, einen immensen positiven Einfluss auf die Gesellschaft zu haben. Wir wollen verantwortungsvolle Roboterforschung fördern.
Schlechte Praxis tut uns allen weh.
Offensichtliche Bedenken der Öffentlichkeit anzugehen, wird uns allen dabei helfen, Fortschritte zu erzielen.
Es ist wichtig zu zeigen, dass wir als Robotiker bestmögliche Praxisstandards befolgen.
Um den Kontext und die Konsequenzen unserer Forschung zu verstehen, sollten wir mit Experten aus anderen Disziplinen zusammenarbeiten, darunter Sozialwissenschaften, Recht, Philosophie und Kunst.
Wir sollten die Ethik der Transparenz in Betracht ziehen: Gibt es Grenzen, was offen verfügbar sein sollte?
Wenn wir in der Presse falsche Konten sehen, nehmen wir uns die Zeit, die berichtenden Journalisten zu kontaktieren.

Die EPSRC-Prinzipien werden allgemein als nützlicher Ausgangspunkt anerkannt. 2016 organisierte Tony Prescott einen Workshop, um diese Prinzipien zu überarbeiten, z. B. um ethische von rechtlichen Prinzipien zu unterscheiden.

Gerichtliche Entwicklung
Eine weitere umfassende terminologische Kodifizierung zur rechtlichen Bewertung der technologischen Entwicklungen in der Robotikbranche hat bereits vor allem in den asiatischen Ländern begonnen. Dieser Fortschritt stellt eine zeitgenössische Neuinterpretation des Gesetzes (und der Ethik) auf dem Gebiet der Robotik dar, eine Interpretation, die ein Umdenken der traditionellen Rechtskonstellationen voraussetzt. Dazu gehören vor allem rechtliche Haftungsfragen im Zivil- und Strafrecht.

Satya Nadellas Gesetze
Im Juni 2016 führte Satya Nadella, ein CEO der Microsoft Corporation, ein Interview mit dem Slate-Magazin und skizzierte ungefähr fünf Regeln für künstliche Intelligenzen, die von ihren Designern beachtet werden sollten:

„KI muss so gestaltet sein, dass sie die Menschheit unterstützt“, was bedeutet, dass die menschliche Autonomie respektiert werden muss.
„KI muss transparent sein“, dh der Mensch sollte wissen und verstehen können, wie er arbeitet.
„AI muss die Effizienz maximieren, ohne die Menschenwürde zu zerstören“.
„KI muss auf intelligente Privatsphäre ausgelegt sein“, was bedeutet, dass sie durch den Schutz ihrer Informationen Vertrauen erlangt.
„KI muss über eine algorithmische Rechenschaftspflicht verfügen, damit Menschen unbeabsichtigte Schäden rückgängig machen können“.
„KI muss vor Voreingenommenheit schützen“, damit sie Menschen nicht diskriminieren dürfen.

Tildens „Gesetze der Robotik“
Mark W. Tilden ist ein Roboterphysiker, der Pionier bei der Entwicklung einfacher Robotik war. Seine drei Leitsätze / Regeln für Roboter sind:

Ein Roboter muss um jeden Preis sein Dasein schützen.
Ein Roboter muss Zugang zu seiner eigenen Stromquelle erhalten und aufrechterhalten.
Ein Roboter muss ständig nach besseren Stromquellen suchen.
Was bei diesen drei Regeln bemerkenswert ist, ist, dass dies im Wesentlichen Regeln für „wildes“ Leben sind. Tilden meinte im Wesentlichen, dass er wollte, „eine Siliziumspezies in die Wahrnehmung zu lenken, jedoch mit voller Kontrolle über die Spezifikationen. Nicht pflanzlich.“ Kein Tier. Etwas anderes. „