Ethik der künstlichen Intelligenz

Die Ethik der künstlichen Intelligenz ist der Teil der Ethik der Technologie, die für Roboter und andere künstlich intelligente Wesen spezifisch ist. Es ist typischerweise in Roboethik unterteilt, eine Sorge um das moralische Verhalten von Menschen, wenn sie künstlich intelligente Wesen entwerfen, konstruieren, verwenden und behandeln, und Maschinenethik, die sich mit dem moralischen Verhalten von künstlichen moralischen Agenten (AMAs) beschäftigt.

Roboterethik
Der Begriff „Roboterethik“ (manchmal „Roboethik“) bezieht sich auf die Moral, wie Menschen Roboter und andere künstlich intelligente Wesen entwerfen, konstruieren, verwenden und behandeln. Es wird sowohl überlegt, wie künstlich intelligente Wesen verwendet werden können, um den Menschen zu schädigen, als auch, wie sie für den Menschen von Nutzen sein können.

Roboterrechte
„Roboterrechte“ ist das Konzept, dass Menschen moralische Verpflichtungen gegenüber ihren Maschinen haben sollten, ähnlich den Menschen- oder Tierrechten. Es wurde vermutet, dass Roboterrechte, wie etwa das Recht, zu existieren und ihre eigene Mission zu erfüllen, mit der Pflicht des Roboters verbunden sein könnten, dem Menschen zu dienen, analog dazu, dass die Menschenrechte mit den Pflichten der Menschen vor der Gesellschaft verknüpft werden. Dazu gehören das Recht auf Leben und Freiheit, Gedanken- und Meinungsfreiheit sowie die Gleichheit vor dem Gesetz. Das Thema wurde vom Institut für Zukunft und vom britischen Handels- und Industrieministerium geprüft.

Experten sind sich nicht einig, ob in nächster Zukunft konkrete und detaillierte Gesetze erforderlich sind oder in absehbarer Zukunft. Glenn McGee berichtet, dass bis 2020 ausreichend humanoide Roboter auftauchen könnten. Ray Kurzweil setzt das Datum auf 2029. Eine andere Gruppe von Wissenschaftlern, die sich im Jahr 2007 versammelten, vermutete, dass mindestens 50 Jahre vergehen müssten, bevor ein ausreichend fortgeschrittenes System existieren würde.

Die Regeln für den Loebner-Preiswettbewerb 2003 sahen die Möglichkeit von Robotern vor, eigene Rechte zu haben:

61. Wenn in einem bestimmten Jahr ein öffentlich zugänglicher, von der University of Surrey oder dem Cambridge Centre eingereichter Open Source-Beitrag die Silbermedaille oder die Goldmedaille gewinnt, werden die Medaille und der Cash-Preis an die für das Institut zuständige Stelle vergeben Entwicklung dieses Eintrags. Kann keine solche Einrichtung ermittelt werden oder besteht zwischen zwei oder mehr Antragstellern Meinungsverschiedenheiten, werden die Medaille und der Cash Award so lange treuhänderisch gehalten, bis die Eintragung entweder in den Vereinigten Staaten von Amerika oder in den USA legal ist Austragungsort des Wettbewerbs, des Cash Awards und der Goldmedaille.

Im Oktober 2017 wurde dem Androiden Sophia die Staatsbürgerschaft in Saudi-Arabien verliehen, obwohl einige Beobachter dies für einen Werbegag eher als eine sinnvolle rechtliche Anerkennung hielten.

Bedrohung der Menschenwürde
Joseph Weizenbaum argumentierte 1976, dass die KI-Technologie nicht eingesetzt werden sollte, um Menschen in Positionen zu ersetzen, die Respekt und Fürsorge erfordern, wie zum Beispiel:

Ein Kundendienstmitarbeiter (KI-Technologie wird bereits heute für telefonbasierte interaktive Sprachantwortsysteme verwendet)
Ein Therapeut (wie von Kenneth Colby in den 70er Jahren vorgeschlagen)
Ein Kindermädchen für ältere Menschen (wie Pamela McCorduck in ihrem Buch The Fifth Generation berichtete)
Ein Soldat
Ein Richter
Ein Polizist

Weizenbaum erklärt, dass wir von Menschen in diesen Positionen ein authentisches Gefühl der Empathie verlangen. Wenn Maschinen sie ersetzen, werden wir uns entfremdet, entwertet und frustriert fühlen. Künstliche Intelligenz bedeutet auf diese Weise eine Bedrohung der Menschenwürde. Weizenbaum argumentiert, dass die Tatsache, dass wir die Möglichkeit von Maschinen in diesen Positionen unterhalten, darauf hindeutet, dass wir eine „Atrophie des menschlichen Geistes erlebt haben, die entsteht, wenn wir uns selbst als Computer betrachten.“

Pamela McCorduck entgegnet, dass sie für Frauen und Minderheiten spricht: „Ich gehe lieber mit einem unparteiischen Computer ins Spiel“ und wies darauf hin, dass es Bedingungen gibt, unter denen wir automatisierte Richter und Polizisten vorziehen würden, die keinerlei persönliche Agenda haben. KI-Gründer John McCarthy wendet sich gegen den moralisierenden Ton von Weizenbaums Kritik. „Wenn Moralisierung sowohl vehement als auch vage ist, fordert sie autoritäre Misshandlungen auf“, schreibt er.

Bill Hibbard schreibt: „Die Würde des Menschen erfordert, dass wir uns bemühen, unsere Unkenntnis über die Natur der Existenz zu beseitigen, und für dieses Streben ist eine KI erforderlich.“

Transparenz und Open Source
Bill Hibbard argumentiert, dass KI-Entwickler Vertreter der zukünftigen Menschheit sind und deshalb ethisch verpflichtet sind, ihre Bemühungen transparent zu machen, da AI eine so tiefgreifende Wirkung auf die Menschheit haben wird. Ben Goertzel und David Hart entwickelten OpenCog als Open Source-Framework für die AI-Entwicklung. OpenAI ist ein gemeinnütziges KI-Forschungsunternehmen, das von Elon Musk, Sam Altman und anderen gegründet wurde, um eine für die Menschheit vorteilhafte Open Source-KI zu entwickeln. Es gibt zahlreiche andere Open Source AI-Entwicklungen.

Waffenbildung künstlicher Intelligenz
Einige Experten und Wissenschaftler haben die Verwendung von Robotern für militärische Gefechte in Frage gestellt, insbesondere wenn solche Roboter ein gewisses Maß an autonomen Funktionen erhalten. Die US Navy hat einen Bericht finanziert, der besagt, dass Militärroboter mit zunehmender Komplexität der Auswirkungen ihrer Fähigkeit, autonome Entscheidungen zu treffen, stärker berücksichtigt werden sollten. Ein Forscher gibt an, dass autonome Roboter humaner sein könnten, da sie Entscheidungen wirksamer treffen könnten.

In diesem letzten Jahrzehnt wurde intensiv nach autonomen Kräften geforscht, mit der Fähigkeit, die zugewiesenen moralischen Verantwortlichkeiten zu erlernen. „Die Ergebnisse können beim Entwurf zukünftiger Militärroboter verwendet werden, um unerwünschte Tendenzen zu kontrollieren, den Robotern Verantwortung zuzuweisen.“ Aus konsequentialistischer Sicht besteht die Chance, dass Roboter die Fähigkeit entwickeln, ihre eigenen logischen Entscheidungen darüber zu treffen, wer getötet werden soll. Aus diesem Grund sollte es einen bestimmten moralischen Rahmen geben, den die KI nicht außer Kraft setzen kann.

In letzter Zeit gab es einen Aufschrei in Bezug auf die Entwicklung von künstlichen Intelligenzwaffen, zu denen auch die Idee einer Roboterübernahme der Menschheit gehörte. KI-Waffen stellen eine Art von Gefahr dar, die sich von der von durch Menschen kontrollierten Waffen unterscheidet. Viele Regierungen haben begonnen, Programme zur Entwicklung von KI-Waffen zu finanzieren. Die United States Navy kündigte kürzlich Pläne zur Entwicklung autonomer Drohnenwaffen an, die ähnliche Ankündigungen von Russland und Korea enthielten. Stephen Hawking und Max Tegmark unterzeichneten eine Petition „Future of Life“ zum Verbot von AI-Waffen. Die Nachricht von Hawking und Tegmark besagt, dass KI-Waffen eine unmittelbare Gefahr darstellen und dass Maßnahmen ergriffen werden müssen, um Katastrophen in naher Zukunft zu vermeiden.

„Wenn eine große militärische Macht die Entwicklung der KI-Waffen vorantreibt, ist ein globales Wettrüsten praktisch unvermeidlich und der Endpunkt dieser technologischen Flugbahn ist offensichtlich: Autonome Waffen werden zu den Kalaschnikows von morgen“, so die Petition, zu der Skype Co Jaan Tallinn und MIT-Professor für Linguistik Noam Chomsky als zusätzliche Unterstützer gegen AI-Waffen.

Der Physiker und Astronom Royal Sir Martin Rees hat vor katastrophalen Vorfällen wie „dummen Robotern, die Schurken oder einem Netzwerk, das einen eigenen Geist entwickelt, gewarnt“. Huw Price, ein Kollege von Rees in Cambridge, hat eine ähnliche Warnung geäußert, dass Menschen möglicherweise nicht überleben, wenn die Intelligenz „den Zwängen der Biologie entgeht“. Diese beiden Professoren gründeten das Zentrum für das Studium des Existenzrisikos an der Universität Cambridge, um diese Bedrohung für die menschliche Existenz zu vermeiden.

In Bezug auf das Potenzial, dass Systeme mit intelligenterem als dem menschlichen Einsatz militärisch eingesetzt werden können, schreibt das Open Philanthropy Project, dass diese Szenarien „potenziell so wichtig erscheinen wie die mit einem Kontrollverlust verbundenen Risiken“, aber Forschungsorganisationen, die die langfristigen sozialen Auswirkungen von AI untersuchen vergeblich wenig Zeit für dieses Anliegen: „Diese Kategorie von Szenarien war für die Organisationen, die in diesem Bereich am aktivsten waren, wie das Machine Intelligence Research Institute (MIRI) und das Future of Humanity Institute (FHI), kein Hauptaugenmerk. und es scheint, dass es weniger Analysen und Debatten über sie gegeben hat „.

Maschinenethik
Maschinenethik (oder Maschinenmoral) ist das Forschungsgebiet, das sich mit dem Design von künstlichen Moral Agents (AMAs), Robotern oder künstlich intelligenten Computern befasst, die sich moralisch oder moralisch verhalten.

Isaac Asimov hat das Problem in den fünfziger Jahren in seinem I, Robot betrachtet. Auf Drängen seines Herausgebers John W. Campbell jr. Schlug er die Drei Gesetze der Robotik vor, um künstlich intelligente Systeme zu regeln. Ein Großteil seiner Arbeit verbrachte er damit, die Grenzen seiner drei Gesetze zu testen, um herauszufinden, wo sie zusammenbrechen würden oder wo sie paradoxes oder unerwartetes Verhalten erzeugen würden. Seine Arbeit legt nahe, dass keine festen Gesetze alle möglichen Umstände ausreichend vorhersehen können.

Während eines Experiments im Labor für Intelligente Systeme der Ecole Polytechnique Fédérale in Lausanne in der Schweiz lernten Roboter, die programmiert waren, miteinander zu kooperieren (um eine nützliche Ressource ausfindig zu machen und eine giftige zu vermeiden) andere in einem Versuch, die nützliche Ressource zu horten. Ein Problem in diesem Fall könnte gewesen sein, dass die Ziele „endgültig“ waren (dh ultimative menschliche Motive haben in der Regel die Eigenschaft, niemals endendes Lernen zu erfordern).

Einige Experten und Wissenschaftler haben die Verwendung von Robotern für militärische Gefechte in Frage gestellt, insbesondere wenn solche Roboter ein gewisses Maß an autonomen Funktionen erhalten. Die US Navy hat einen Bericht finanziert, der besagt, dass Militärroboter mit zunehmender Komplexität der Auswirkungen ihrer Fähigkeit, autonome Entscheidungen zu treffen, stärker berücksichtigt werden sollten. Der Präsident der Vereinigung zur Förderung der künstlichen Intelligenz hat eine Studie in Auftrag gegeben, die sich mit dieser Frage befasst. Sie verweisen auf Programme wie das Language Acquisition Device, das menschliche Interaktion simulieren kann.

Vernor Vinge hat vorgeschlagen, dass ein Moment kommen könnte, in dem einige Computer intelligenter sind als Menschen. Er nennt dies „die Singularität“. Er schlägt vor, dass es für den Menschen etwas oder möglicherweise sehr gefährlich sein kann. Dies wird in einer Philosophie namens Singularitarismus diskutiert. Das Machine Intelligence Research Institute hat vorgeschlagen, eine „freundliche KI“ aufzubauen, was bedeutet, dass die Fortschritte, die bereits mit der KI gemacht werden, auch eine Anstrengung beinhalten sollten, um die KI intrinsisch freundlich und human zu gestalten.

Im Jahr 2009 nahmen Wissenschaftler und technische Experten an einer vom Verband zur Förderung der künstlichen Intelligenz organisierten Konferenz teil, um die potenziellen Auswirkungen von Robotern und Computern sowie die Auswirkungen der hypothetischen Möglichkeit zu diskutieren, dass sie autark werden und ihre eigenen Entscheidungen treffen können . Sie diskutierten die Möglichkeit und das Ausmaß, in dem Computer und Roboter ein beliebiges Maß an Autonomie erlangen könnten, und inwieweit sie diese Fähigkeiten nutzen könnten, um möglicherweise eine Gefahr oder Gefahr darzustellen. Sie stellten fest, dass einige Maschinen verschiedene Formen der Teilautonomie erworben haben, einschließlich der Fähigkeit, eigene Energiequellen zu finden und in der Lage zu sein, Ziele auszuwählen, die mit Waffen angegriffen werden sollen. Sie stellten auch fest, dass einige Computerviren der Ausrottung entgehen können und „Kakerlaken-Intelligenz“ erreicht haben. Sie wiesen darauf hin, dass Selbstbewusstsein, wie es in Science-Fiction dargestellt wird, wahrscheinlich unwahrscheinlich ist, dass es jedoch andere potenzielle Gefahren und Fallstricke gibt.

Es gibt jedoch eine Technologie, die tatsächlich die Möglichkeit von Robotern mit moralischer Kompetenz in die Realität umsetzen könnte. In einem Aufsatz über den Erwerb moralischer Werte durch Roboter erwähnt Nayef Al-Rodhan den Fall neuromorpher Chips, die darauf abzielen, Informationen ähnlich wie Menschen, nichtlinear und mit Millionen von miteinander verbundenen künstlichen Neuronen zu verarbeiten. Roboter, die mit neuromorpher Technologie eingebettet sind, können Wissen auf eine einzigartig menschliche Art erlernen und entwickeln. Dies wirft zwangsläufig die Frage nach der Umgebung auf, in der solche Roboter von der Welt erfahren werden und deren Moralität sie erben würden – oder ob sie letztendlich auch menschliche Schwächen entwickeln: Selbstsucht, Überlebenschance, Zögern usw.

In Moral Machines: Teaching Robots Right from Wrong schließen Wendell Wallach und Colin Allen, dass der Versuch, Roboter falsch zu unterrichten, das Verständnis der menschlichen Ethik wahrscheinlich verbessern wird, indem sie die Menschen dazu motiviert, Lücken in der modernen normativen Theorie zu schließen und eine Plattform für experimentelle Untersuchungen zu bieten. Als ein Beispiel hat es normative Ethiker in die umstrittene Frage eingeführt, welche speziellen Lernalgorithmen in Maschinen verwendet werden sollen. Nick Bostrom und Eliezer Yudkowsky haben sich für Entscheidungsbäume (wie ID3) über neuronale Netzwerke und genetische Algorithmen mit der Begründung ausgesprochen, dass Entscheidungsbäume modernen sozialen Normen der Transparenz und Vorhersagbarkeit gehorchen (z. B. Stare Decision), während Chris Santos-Lang dagegen argumentierte Richtung mit der Begründung, dass sich die Normen eines jeden Alters ändern dürfen und dass das natürliche Versagen, diese bestimmten Normen vollständig zu erfüllen, wesentlich war, um den Menschen weniger anfällig für kriminelle „Hacker“ zu machen.

Unbeabsichtigte Konsequenzen
Viele Forscher haben argumentiert, dass eine sich selbst verbessernde KI durch eine „Intelligenzexplosion“ irgendwann im 21. Jahrhundert so viel mächtiger werden könnte als Menschen, dass wir sie nicht daran hindern könnten, ihre Ziele zu erreichen. In seinem Artikel „Ethische Fragen in der fortgeschrittenen künstlichen Intelligenz“ argumentiert der Philosoph Nick Bostrom, dass künstliche Intelligenz die Fähigkeit hat, das menschliche Aussterben zu bewirken. Er behauptet, dass die allgemeine Superintelligenz zu unabhängiger Initiative und zu eigenen Plänen in der Lage wäre und daher als autonomer Agent angemessener angesehen werden könnte. Da künstliche Intellektuelle unsere menschlichen Motivationstendenzen nicht teilen müssen, müssten die Designer der Superintelligenz ihre ursprünglichen Beweggründe festlegen. Theoretisch könnte eine superintelligente KI nahezu jedes mögliche Ergebnis erzielen und jeden Versuch unterbinden, die Verwirklichung ihres obersten Ziels zu verhindern, könnten viele unkontrollierte unbeabsichtigte Folgen auftreten. Es könnte alle anderen Agenten töten, sie dazu bringen, ihr Verhalten zu ändern oder ihre Interventionsversuche zu blockieren.

Anstatt jedoch die Menschheit zu überwältigen und zu unserer Zerstörung zu führen, hat Bostrom auch behauptet, dass Superintelligenz uns helfen kann, viele schwierige Probleme wie Krankheit, Armut und Umweltzerstörung zu lösen, und uns dabei helfen könnte, uns selbst zu „verbessern“.

Die schiere Komplexität menschlicher Wertesysteme macht es sehr schwierig, die Motivationen von AI menschenfreundlich zu gestalten. Wenn die Moralphilosophie uns keine einwandfreie ethische Theorie vermittelt, könnte die Nutzenfunktion einer KI viele potenziell schädliche Szenarien zulassen, die einem bestimmten ethischen Rahmen entsprechen, jedoch nicht dem „gesunden Menschenverstand“. Eliezer Yudkowsky zufolge gibt es wenig Anlass zu der Annahme, dass ein künstlich entworfener Geist eine solche Anpassung haben würde.

Bill Hibbard schlägt ein KI-Design vor, das verschiedene Arten von unbeabsichtigtem KI-Verhalten, einschließlich Selbsttäuschung, unbeabsichtigte instrumentelle Aktionen und Beschädigung des Belohnungsgenerators, vermeidet.

Organisationen
Amazon, Google, Facebook, IBM und Microsoft haben eine gemeinnützige Partnerschaft gegründet, um Best Practices für Technologien der künstlichen Intelligenz zu formulieren, das Verständnis der Öffentlichkeit zu fördern und als Plattform für künstliche Intelligenz zu dienen. Sie erklärten: „Diese Partnerschaft bei KI wird Forschungen durchführen, Diskussionen organisieren, Gedankenführung anbieten, relevante Dritte konsultieren, auf Fragen der Öffentlichkeit und der Medien antworten und Bildungsmaterial erstellen, das das Verständnis von KI-Technologien wie Maschinenwahrnehmung und Lernen fördert und automatisierte Argumentation. “ Apple ist im Januar 2017 als Gründungsmitglied der Partnership on AI zu anderen Tech-Unternehmen gekommen. Die Konzernmitglieder werden finanzielle Beiträge und Forschungsbeiträge für die Gruppe leisten und sich mit der Wissenschaftsgemeinschaft engagieren, um Wissenschaftler in den Vorstand zu holen.

In der Fiktion
Der Film The Thirteenth Floor schlägt eine Zukunft vor, in der simulierte Welten mit lebenden Bewohnern von Computerspielkonsolen zum Zwecke der Unterhaltung erstellt werden. Der Film The Matrix schlägt eine Zukunft vor, in der die dominierenden Arten auf der Erde empfindungsfähige Maschinen sind und die Menschheit mit äußerster Speziesismus behandelt wird. Die Kurzgeschichte „The Planck Dive“ weist auf eine Zukunft hin, in der sich die Menschheit zu einer Software entwickelt hat, die dupliziert und optimiert werden kann und die relevante Unterscheidung zwischen Softwaretypen empfindungsfähig und nicht sinnvoll ist. Die gleiche Idee findet sich im Emergency Medical Hologram von Starship Voyager, einer scheinbar fühlenden Kopie einer reduzierten Teilmenge des Bewusstseins ihres Schöpfers, Dr. Zimmerman, der aus besten Gründen ein medizinisches System geschaffen hat Hilfe bei Notfällen. Die Filme Bicentennial Man und AI beschäftigen sich mit der Möglichkeit von empfindungsfähigen Robotern, die lieben könnten. Ich, Robot, untersuchte einige Aspekte von Asimovs drei Gesetzen. Alle diese Szenarien versuchen, möglicherweise unethische Konsequenzen der Erstellung von empfindungsfähigen Computern vorherzusehen.

Die Ethik der künstlichen Intelligenz ist eines von mehreren Kernthemen in der Mass Effect-Reihe von BioWare. Es untersucht das Szenario einer Zivilisation, die versehentlich eine KI erzeugt, indem die Rechenleistung durch ein globales neuronales Netzwerk rasch erhöht wird. Dieses Ereignis verursachte eine ethische Spaltung zwischen denjenigen, die das Gefühl hatten, dem neu empfindungsfähigen Geth organische Rechte zu verleihen, und denjenigen, die sie weiterhin als wegwerfbare Maschinerie betrachteten, und kämpften, sie zu zerstören. Über den anfänglichen Konflikt hinaus ist die Komplexität der Beziehung zwischen den Maschinen und ihren Schöpfern ein fortlaufendes Thema in der gesamten Geschichte.

Im Laufe der Zeit konzentrierten sich die Debatten immer weniger auf die Möglichkeit und eher auf die Attraktivität, wie in den Debatten „Cosmist“ und „Terran“ von Hugo de Garis und Kevin Warwick hervorgehoben wurde. Laut Hugo de Garis versucht ein Kosmist tatsächlich, intelligentere Nachfolger der menschlichen Spezies zu bauen.

Literatur
Die Standardbibliographie zur Ethik der KI befindet sich auf PhilPapers. Eine aktuelle Sammlung ist VC Müller (Hrsg.) (2016).