Philosophie der künstlichen Intelligenz

Künstliche Intelligenz hat enge Verbindungen zur Philosophie, da beide verschiedene Konzepte gemeinsam haben. Dazu gehören Intelligenz, Handeln, Bewusstsein, Erkenntnistheorie und sogar der freie Wille. Darüber hinaus befasst sich die Technologie mit der Schaffung künstlicher Tiere oder künstlicher Menschen (oder zumindest künstlicher Kreaturen), so dass die Disziplin für Philosophen von erheblichem Interesse ist. Diese Faktoren trugen zur Entstehung der Philosophie der künstlichen Intelligenz bei. Einige Gelehrte argumentieren, dass die Kündigung der KI-Gemeinschaft von der Philosophie abträglich ist.

Die Philosophie der künstlichen Intelligenz versucht, folgende Fragen zu beantworten:

Kann eine Maschine intelligent handeln? Kann es ein Problem lösen, das eine Person durch Nachdenken lösen würde?
Sind menschliche Intelligenz und maschinelle Intelligenz gleich? Ist das menschliche Gehirn im Wesentlichen ein Computer?
Kann eine Maschine einen Verstand, einen Geisteszustand und ein Bewusstsein haben, wie es ein Mensch kann? Kann es fühlen, wie die Dinge sind?

Diese drei Fragen spiegeln die unterschiedlichen Interessen von KI-Forschern, Linguisten, Kognitionswissenschaftlern bzw. Philosophen wider. Die wissenschaftlichen Antworten auf diese Fragen hängen von der Definition von „Intelligenz“ und „Bewusstsein“ ab und von welchen „Maschinen“ gerade die Rede ist.

Wichtige Vorschläge in der Philosophie von AI sind:

Turings „höfliche Konvention“: Wenn sich eine Maschine so intelligent wie ein Mensch verhält, dann ist sie so intelligent wie ein Mensch.
Der Vorschlag von Dartmouth: „Jeder Aspekt des Lernens oder jedes andere Merkmal der Intelligenz kann so genau beschrieben werden, dass eine Maschine dazu gemacht werden kann, es zu simulieren.“
Newell und Simons physikalische Symbolsystem-Hypothese: „Ein physikalisches Symbolsystem verfügt über die notwendigen und ausreichenden Mittel für allgemeines intelligentes Handeln.“
Searles starke KI-Hypothese: „Der entsprechend programmierte Computer mit den richtigen Ein- und Ausgängen hätte einen Geist in genau dem Sinn, in dem Menschen einen Geist haben.“
Hobbes ‚Mechanismus: „Aus“ Grund „… ist nichts anderes als“ Abrechnung „, dh Addition und Abzug der Konsequenzen allgemeiner Namen, die für das“ Markieren „und“ Zeigen „unserer Gedanken vereinbart wurden …“

Kann eine Maschine allgemeine Intelligenz anzeigen?
Ist es möglich, eine Maschine zu entwickeln, die alle Probleme löst, die Menschen mit ihrer Intelligenz lösen? Diese Frage definiert den Umfang, in dem Maschinen zukünftig arbeiten können, und leitet die Richtung der KI-Forschung ein. Es betrifft nur das Verhalten von Maschinen und ignoriert Fragen, die für Psychologen, Kognitionswissenschaftler und Philosophen von Interesse sind. Um diese Frage zu beantworten, spielt es keine Rolle, ob eine Maschine wirklich denkt (wie eine Person denkt) oder nur so handelt, als würde sie denken.

Die grundlegende Position der meisten KI-Forscher wird in dieser Aussage zusammengefasst, die im Vorschlag für den Dartmouth-Workshop von 1956 erschien:

Jeder Aspekt des Lernens oder jedes andere Merkmal der Intelligenz kann so genau beschrieben werden, dass eine Maschine so erstellt werden kann, dass es simuliert wird.
Argumente gegen die Grundannahme müssen zeigen, dass der Aufbau eines funktionierenden KI – Systems nicht möglich ist, weil die Fähigkeiten von Computern in der Praxis eingeschränkt sind oder dass eine bestimmte menschliche Denkweise für das Denken erforderlich ist, die jedoch nicht durch ein System kopiert werden kann Maschine (oder nach den Methoden der aktuellen KI-Forschung). Argumente für die Grundannahme müssen zeigen, dass ein solches System möglich ist.

Der erste Schritt zur Beantwortung der Frage ist die klare Definition von „Intelligenz“.

Intelligenz

Turing-Test
Alan Turing reduzierte das Problem der Definition von Intelligenz auf eine einfache Frage nach einem Gespräch. Er schlägt folgendes vor: Wenn eine Maschine jede Frage beantworten kann, indem sie dieselben Worte verwendet wie ein gewöhnlicher Mensch, dann können wir diese Maschine als intelligent bezeichnen. Eine moderne Version seines experimentellen Designs würde einen Online-Chatroom verwenden, bei dem einer der Teilnehmer eine reale Person ist und einer der Teilnehmer ein Computerprogramm ist. Das Programm besteht den Test, wenn niemand feststellen kann, welcher der beiden Teilnehmer ein Mensch ist. Turing stellt fest, dass niemand (außer Philosophen) jemals die Frage stellt „können die Leute denken?“ Er schreibt: „Anstatt ständig über diesen Punkt zu streiten, ist es üblich, eine höfliche Versammlung zu haben, die jeder denkt“. Turings Test erweitert diese höfliche Konvention auf Maschinen:

Wenn eine Maschine so intelligent handelt wie der Mensch, dann ist sie so intelligent wie der Mensch.
Ein Kritikpunkt des Turing-Tests ist, dass er ausdrücklich anthropomorph ist. Wenn unser Endziel darin besteht, Maschinen zu schaffen, die intelligenter sind als Menschen, warum sollten wir darauf bestehen, dass unsere Maschinen Menschen ähneln müssen? [Dieses Zitat braucht ein Zitat] Russell und Norvig schreiben, dass „Texte für Luftfahrttechnik nicht das Ziel ihrer Maschinen definieren Feld wie „Maschinen herstellen, die so genau fliegen wie Tauben, dass sie andere Tauben täuschen können“.

Intelligente Agentendefinition

Neue KI-Forschung definiert Intelligenz in Bezug auf intelligente Agenten. Ein „Agent“ ist etwas, das in einer Umgebung wahrnimmt und handelt. Ein „Leistungsmaß“ definiert, was für den Agenten als Erfolg gilt.

Wenn ein Agent so wirkt, dass er den erwarteten Wert einer Leistungskennzahl basierend auf früheren Erfahrungen und Kenntnissen maximiert, ist er intelligent.
Definitionen wie diese versuchen, die Essenz der Intelligenz einzufangen. Sie haben den Vorteil, dass sie im Gegensatz zum Turing-Test nicht auch auf menschliche Merkmale prüfen, die wir [wer?] Vielleicht nicht als intelligent betrachten wollen, wie etwa die Fähigkeit, beleidigt zu werden oder die Versuchung zu lügen [dubios – diskussion]. Sie haben den Nachteil, dass sie es nicht schaffen, den gesunden Menschenverstand [zwischen den Dingen, die denken, und den Dingen, die das nicht tun “zu unterscheiden. Nach dieser Definition hat sogar ein Thermostat eine rudimentäre Intelligenz.

Argumente, dass eine Maschine allgemeine Intelligenz anzeigen kann

Das Gehirn kann simuliert werden
Hubert Dreyfus beschreibt dieses Argument mit der Behauptung, dass „wenn das Nervensystem den Gesetzen der Physik und Chemie gehorcht, was wir allen Grund zu der Annahme haben, dass … dann … wir das Verhalten des Menschen reproduzieren können sollten Nervensystem mit einem physischen Gerät „. Dieses bereits 1943 eingeführte und 1988 von Hans Moravec anschaulich beschriebene Argument wird jetzt mit dem Zukunftsforscher Ray Kurzweil in Verbindung gebracht, der schätzt, dass die Rechenleistung für eine vollständige Gehirnsimulation bis zum Jahr 2029 ausreichen wird. Eine Nicht-Echtzeit Die Simulation eines thalamokortikalen Modells mit der Größe des menschlichen Gehirns (1011 Neuronen) wurde im Jahr 2005 durchgeführt. Es dauerte 50 Tage, um die Hirndynamik von 1 Sekunde auf einem Cluster von 27 Prozessoren zu simulieren.

Nur wenige [quantifizieren] sind der Meinung, dass eine Gehirnsimulation theoretisch möglich ist, [nach wem?] Sogar AI-Kritiker wie Hubert Dreyfus und John Searle. Searle weist jedoch darauf hin, dass im Prinzip alles von einem Computer simuliert werden kann. Wenn also die Definition an ihre Bruchstelle gebracht wird, kann daraus geschlossen werden, dass jeder Prozess technisch als „Berechnung“ betrachtet werden kann. „Was wir wissen wollten, ist das, was den Geist von Thermostaten und Lebern unterscheidet“, schreibt er. Ein bloßes Nachahmen der Funktionsweise eines Gehirns wäre an sich schon ein Eingeständnis der Unkenntnis über die Intelligenz und die Natur des Geistes.

Menschliches Denken ist Symbolverarbeitung
Im Jahr 1963 schlugen Allen Newell und Herbert A. Simon vor, dass „Symbolmanipulation“ die Essenz sowohl der menschlichen als auch der maschinellen Intelligenz ist. Sie schrieben:

Ein physisches Symbolsystem verfügt über die notwendigen und ausreichenden Mittel für allgemeines intelligentes Handeln.
Diese Behauptung ist sehr stark: Sie impliziert, dass das menschliche Denken eine Art Symbolmanipulation ist (weil ein Symbolsystem für die Intelligenz erforderlich ist) und dass Maschinen intelligent sein können (weil ein Symbolsystem für die Intelligenz ausreicht). Eine andere Version dieser Position wurde von Philosophen Hubert Dreyfus beschrieben, der sie „die psychologische Annahme“ nannte:

Der Geist kann als ein Gerät betrachtet werden, das Informationselemente nach formalen Regeln bearbeitet.
Man unterscheidet gewöhnlich [von wem?] Die Art von Symbolen höherer Ebene, die direkt Objekten der Welt entsprechen, wie und , und den komplexeren „Symbolen“, die in einer Maschine wie a vorhanden sind neurales Netzwerk. Frühe KI-Untersuchungen, die von John Haugeland als „Good old fashioned künstliche Intelligenz“ (GOFAI) bezeichnet wurden, konzentrierten sich auf diese Art von Symbolen auf hohem Niveau.

Argumente gegen die Symbolverarbeitung
Diese Argumente zeigen, dass das menschliche Denken nicht (nur) aus Symbolmanipulationen auf hoher Ebene besteht. Sie zeigen nicht, dass künstliche Intelligenz unmöglich ist, nur dass mehr als Symbolverarbeitung erforderlich ist.

Gödelianische antimechanistische Argumente
1931 bewies Kurt Gödel mit einem Unvollständigkeitssatz, dass es immer möglich ist, eine „Gödel-Anweisung“ zu konstruieren, die ein bestimmtes konsistentes formales Logiksystem (wie ein übergeordnetes Symbolmanipulationsprogramm) nicht beweisen konnte. Obwohl es sich um eine wahre Aussage handelt, ist die konstruierte Gödel-Anweisung im gegebenen System nicht beweisbar. (Die Wahrheit der konstruierten Gödel-Anweisung hängt von der Konsistenz des gegebenen Systems ab; die Anwendung desselben Prozesses auf ein subtil inkonsistentes System scheint erfolgreich zu sein, führt jedoch tatsächlich zu einer falschen „Gödel-Anweisung“.) Spekulativer, vermutete Gödel dass der menschliche Geist die Wahrheit oder Falschheit einer fundierten mathematischen Aussage (einschließlich aller möglichen Gödel-Aussagen) letztendlich richtig bestimmen kann, und dass daher die Macht des menschlichen Geistes nicht auf einen Mechanismus reduziert werden kann. Der Philosoph John Lucas (seit 1961) und Roger Penrose (seit 1989) haben sich für dieses philosophische antimechanistische Argument eingesetzt. Gödelianische antimechanistische Argumente stützen sich in der Regel auf die harmlos anmutende Behauptung, ein System menschlicher Mathematiker (oder eine Idealisierung menschlicher Mathematiker) sei sowohl konsistent (völlig fehlerfrei) als auch völlig überzeugt von seiner eigenen Konsistenz (und kann alles logisch machen Folgerungen, die sich aus seiner eigenen Konsistenz ergeben, einschließlich des Glaubens an seine Gödel-Aussage). Dies ist nachweislich unmöglich für eine Turing-Maschine (zur Klarstellung erforderlich) (und durch eine informelle Erweiterung für jeden bekannten mechanischen Computer). Der Gödelian kommt daher zu dem Schluss, dass menschliches Denken zu mächtig ist, um in einer Maschine festgehalten zu werden [dubious – diskussion].

Der moderne Konsens in der wissenschaftlichen und mathematischen Gemeinschaft ist jedoch, dass die tatsächliche menschliche Vernunft inkonsistent ist. dass jede konsequente „idealisierte Version“ H des menschlichen Denkens logischerweise gezwungen wäre, eine gesunde, aber kontraintuitive aufgeschlossene Skepsis gegenüber der Konsistenz von H anzunehmen (andernfalls ist H nachweislich inkonsistent); und dass Gödels Theoreme nicht zu einem gültigen Argument führen, dass Menschen über mathematische Denkfähigkeiten verfügen, die über das hinausgehen, was eine Maschine jemals duplizieren könnte. Dieser Konsens, dass gödelianische antimechanistische Argumente zum Scheitern verurteilt sind, ist in der Künstlichen Intelligenz fest verankert: „Jeder Versuch (Gödels Unvollständigkeitsergebnisse) zum Angriff auf die Computertheorie zu verwenden, ist unrechtmäßig, da diese Ergebnisse durchaus mit dem Computerarbeiter übereinstimmen These.“

Pragmatischer ausgedrückt, stellen Russell und Norvig fest, dass Gödels Argumente nur für das gilt, was theoretisch bewiesen werden kann, angesichts einer unendlichen Menge an Speicher und Zeit. In der Praxis verfügen reale Maschinen (einschließlich Menschen) über begrenzte Ressourcen und haben Schwierigkeiten, viele Theoreme zu beweisen. Es ist nicht notwendig, alles zu beweisen, um intelligent zu sein [wenn als definiert?].

Weniger formell sagt Douglas Hofstadter in seinem Pulitzer-Preisträger-Buch „Gödel, Escher, Bach: Ein ewiges goldenes Geflecht“, dass sich diese „Gödel-Aussagen“ immer auf das System selbst beziehen und eine Analogie zu der Art und Weise aufführen, wie das Epimenides-Paradoxon dies verwendet beziehen sich auf sich selbst, wie „Diese Aussage ist falsch“ oder „Ich lüge“. Natürlich gilt das Paradox von Epimenides für alles, was Aussagen macht, ob Maschinen oder Menschen, auch Lucas selbst. Erwägen:

Lucas kann die Wahrheit dieser Aussage nicht behaupten.
Diese Aussage ist wahr, kann aber von Lucas nicht behauptet werden. Dies zeigt, dass Lucas selbst den gleichen Grenzen unterliegt, die er für Maschinen beschreibt, wie alle Menschen, und Lucas ‚Argumente sind deshalb sinnlos.

Nachdem Penrose zu dem Schluss gekommen ist, dass das menschliche Denken nicht berechenbar ist, spekulierte Penrose kontrovers, dass hypothetische nichtberechenbare Prozesse, die den Zusammenbruch quantenmechanischer Zustände beinhalten, den Menschen einen besonderen Vorteil gegenüber bestehenden Computern verschaffen. Bestehende Quantencomputer sind nur in der Lage, die Komplexität von berechenbaren Turing-Aufgaben zu reduzieren, und sind weiterhin auf Aufgaben im Rahmen von Turing-Maschinen beschränkt. Nach Penrose und Lucas ‚Argumenten reichen vorhandene Quantencomputer nicht aus [Klärung erforderlich] [warum?], Weshalb Penrose nach einem anderen Prozess sucht, der neue Physik einschließt, beispielsweise die Quantengravitation, die durch spontane neue Physik auf der Skala der Planck-Masse manifestieren könnte Quantenzusammenbruch der Wellenfunktion. Er schlug vor, dass diese Zustände sowohl in Neuronen als auch in mehr als einem Neuron vorkommen. Andere Wissenschaftler weisen jedoch darauf hin, dass es im Gehirn keinen plausiblen organischen Mechanismus für die Nutzung von Quantenberechnungen gibt und dass die Zeitskala der Quantendekohärenz zu schnell scheint, um das Abfeuern von Neuronen zu beeinflussen.

Dreyfus: der Primat unbewusster Fähigkeiten
Hubert Dreyfus argumentierte, dass menschliche Intelligenz und Expertise in erster Linie von unbewussten Instinkten und nicht von bewussten symbolischen Manipulationen abhängig seien, und argumentierte, dass diese unbewussten Fähigkeiten niemals in formalen Regeln festgehalten würden.

Dreyfus ‚Argument war von Turing in seiner 1950 erschienenen Arbeit „Computing Machinery and Intelligence“ vorgetragen worden, in der er dies als „Argument der Informalität des Verhaltens“ eingestuft hatte. Turing argumentierte als Antwort, dass dies nicht bedeutet, dass solche Regeln nicht existieren, weil wir die Regeln nicht kennen, die ein komplexes Verhalten regeln. Er schrieb: „Wir können uns nicht so leicht vom Fehlen vollständiger Verhaltensgesetze überzeugen … Der einzige Weg, um solche Gesetze zu finden, ist wissenschaftliche Beobachtung, und wir kennen sicherlich keine Umstände, unter denen wir sagen könnten:“ Wir habe genug gesucht. Solche Gesetze gibt es nicht. ‚“

Russell und Norvig weisen darauf hin, dass in den Jahren, seit Dreyfus seine Kritik veröffentlicht hat, Fortschritte bei der Entdeckung der „Regeln“ gemacht wurden, die das unbewusste Denken regeln. Die in der Robotik angesiedelte Bewegung versucht, unsere unbewussten Fähigkeiten in Bezug auf Wahrnehmung und Aufmerksamkeit zu erfassen. Computational Intelligence-Paradigmen wie neuronale Netze, evolutionäre Algorithmen usw. richten sich meist auf simuliertes unbewusstes Denken und Lernen. Statistische Ansätze für die KI können Vorhersagen treffen, die der Genauigkeit von intuitiven menschlichen Vermutungen nahekommen. Die Erforschung des Wissens des gesunden Menschenverstands konzentrierte sich auf die Reproduktion des „Hintergrunds“ oder des Kontextes von Wissen. Tatsächlich hat sich die KI-Forschung im Allgemeinen von der Manipulation von Symbolen auf hoher Ebene oder „GOFAI“ hin zu neuen Modellen entwickelt, die mehr unserer unbewussten Argumentation erfassen sollen (nach wem?). Der Historiker und KI-Forscher Daniel Crevier schrieb: „Die Zeit hat die Genauigkeit und das Wahrnehmungsvermögen einiger Kommentare von Dreyfus unter Beweis gestellt. Hätte er sie weniger aggressiv formuliert, wären konstruktive Maßnahmen, die sie vorgeschlagen hatten, möglicherweise viel früher ergriffen worden.“

Kann eine Maschine einen Verstand, ein Bewusstsein und einen psychischen Zustand haben?
Dies ist eine philosophische Frage, die sich auf das Problem anderer Geister und das harte Problem des Bewusstseins bezieht. Die Frage dreht sich um eine Position, die von John Searle als „starke KI“ definiert wurde:

Ein physisches Symbolsystem kann einen mentalen und einen mentalen Zustand haben.
Searle unterschied diese Position von dem, was er „schwache KI“ nannte:

Ein physisches Symbolsystem kann intelligent agieren.
Searle führte die Begriffe ein, um starke KI von schwachen KI zu isolieren, damit er sich auf das konzentrieren konnte, was er für das interessantere und umstrittenste Problem hielt. Er argumentierte, dass selbst wenn wir davon ausgehen, dass wir ein Computerprogramm hätten, das sich genau wie ein menschlicher Geist verhalte, es immer noch eine schwierige philosophische Frage geben würde, die beantwortet werden musste.

Keine der beiden Positionen von Searle ist für die KI-Forschung von großer Bedeutung, da sie die Frage „Kann eine Maschine allgemeine Intelligenz anzeigen?“ Nicht direkt beantworten. (es sei denn, es kann auch gezeigt werden, dass Bewusstsein für Intelligenz erforderlich ist). Turing schrieb: „Ich möchte nicht den Eindruck erwecken, dass es meines Erachtens kein Geheimnis über das Bewusstsein gibt. Ich denke nicht, dass diese Geheimnisse unbedingt gelöst werden müssen, bevor wir die Frage beantworten können, ob Maschinen überhaupt denken können.“ Russell und Norvig sind sich einig: „Die meisten KI-Forscher halten die schwache KI-Hypothese für selbstverständlich und kümmern sich nicht um die starke KI-Hypothese.“

Einige Forscher glauben, dass Bewusstsein ein wesentliches Element der Intelligenz ist, wie Igor Aleksander, Stan Franklin, Ron Sun und Pentti Haikonen, obwohl ihre Definition von „Bewusstsein“ sehr nahe an „Intelligenz“ liegt. (Siehe künstliches Bewusstsein.)

Bevor wir diese Frage beantworten können, müssen wir uns klar sein, was wir unter „Geist“, „mentalen Zuständen“ und „Bewusstsein“ verstehen.

Bewusstsein, Verstand, mentale Zustände, Bedeutung
Die Wörter „Geist“ und „Bewusstsein“ werden von verschiedenen Gemeinschaften auf unterschiedliche Weise verwendet. Einige New-Age-Denker verwenden beispielsweise das Wort „Bewusstsein“, um etwas zu beschreiben, das Bergsons „Elan Vital“ ähnlich ist: eine unsichtbare, energetische Flüssigkeit, die das Leben und vor allem den Geist durchdringt. Science-Fiction-Schriftsteller verwenden das Wort, um eine wesentliche Eigenschaft zu beschreiben, die uns zu einem Menschen macht: Eine „bewusste“ Maschine oder ein Alien wird als vollständig menschlicher Charakter präsentiert, mit Intelligenz, Wünschen, Willen, Einsicht, Stolz und so weiter. (Science-Fiction-Autoren verwenden auch die Wörter „Sentience“, „Sience“, „Self-Awareness“ oder „Ghost“ – wie im Ghost in der Shell-Manga- und -Animeserie), um dieses wesentliche menschliche Eigentum zu beschreiben. Für andere [wer?] Werden die Wörter „Geist“ oder „Bewusstsein“ als eine Art weltliches Synonym für die Seele verwendet.

Für Philosophen, Neurowissenschaftler und Kognitionswissenschaftler werden die Wörter auf eine präzisere und profanere Weise verwendet: Sie beziehen sich auf die vertraute, alltägliche Erfahrung, einen „Gedanken im Kopf“ zu haben, wie eine Wahrnehmung, ein Traum, eine Absicht oder ein Plan und die Art, wie wir etwas wissen oder etwas bedeuten oder etwas verstehen. „Es ist nicht schwer, eine allgemein verständliche Definition des Bewusstseins zu geben“, stellt der Philosoph John Searle fest. Was geheimnisvoll und faszinierend ist, ist nicht so sehr das, was es ist, sondern wie es ist: Wie führt ein Klumpen Fettgewebe und Elektrizität zu dieser (bekannten) Erfahrung des Wahrnehmens, Bedeutens oder Denkens?

Philosophen nennen dies das harte Problem des Bewusstseins. Es ist die neueste Version eines klassischen Problems in der Philosophie des Geistes, das „Geist-Körper-Problem“ genannt wird. Ein verwandtes Problem ist das Problem der Bedeutung oder des Verstehens (was Philosophen als „Intentionalität“ bezeichnen): In welcher Beziehung stehen unsere Gedanken zu dem, worüber wir nachdenken (dh Objekte und Situationen auf der Welt)? Ein dritter Punkt ist das Problem der Erfahrung (oder „Phänomenologie“): Wenn zwei Personen dasselbe sehen, haben sie dieselbe Erfahrung? Oder gibt es Dinge „in ihrem Kopf“ („Qualia“ genannt), die von Person zu Person unterschiedlich sein können?

Searles chinesisches Zimmer
John Searle bittet uns, ein Gedankenexperiment in Betracht zu ziehen: Angenommen, wir haben ein Computerprogramm geschrieben, das den Turing-Test besteht und „allgemeine intelligente Aktion“ demonstriert. Angenommen, das Programm kann sich in fließendem Chinesisch unterhalten. Schreiben Sie das Programm auf 3 x 5 Karten und geben Sie es einer gewöhnlichen Person, die kein Chinesisch spricht. Schließen Sie die Person in ein Zimmer ein und lassen Sie sie die Anweisungen auf den Karten befolgen. Er kopiert chinesische Schriftzeichen und gibt sie durch einen Schlitz in den Raum und wieder heraus. Von außen sieht es so aus, als ob der chinesische Raum eine völlig intelligente Person enthält, die Chinesisch spricht. Die Frage ist folgende: Gibt es jemanden (oder irgendetwas) in dem Raum, der Chinesisch versteht? Gibt es etwas, das den mentalen Zustand des Verstehens hat oder das bewusst ist, was auf Chinesisch diskutiert wird? Der Mann ist sich offensichtlich nicht bewusst. Der Raum kann nicht bewusst sein. Die Karten wissen es sicherlich nicht. Searle kommt zu dem Schluss, dass der chinesische Raum oder ein anderes physisches Symbolsystem keinen Verstand haben kann.

Searle argumentiert weiter, dass die tatsächlichen mentalen Zustände und das Bewusstsein (noch zu beschreiben) „physikalisch-chemische Eigenschaften des menschlichen Gehirns“ erfordern. Er argumentiert, dass es besondere „kausale Eigenschaften“ von Gehirnen und Neuronen gibt, die zu Gedanken führen: in seinen Worten „Gehirne verursachen Gedanken“.

Gottfried Leibniz argumentierte 1714 im Wesentlichen mit Searle und nutzte das Gedankenexperiment, das Gehirn zu erweitern, bis es die Größe einer Mühle hatte. 1974 stellte sich Lawrence Davis vor, das Gehirn mithilfe von Telefonleitungen und von Mitarbeitern besetzten Büros zu duplizieren, und 1978 stellte Ned Block die gesamte Bevölkerung Chinas vor, die an einer solchen Gehirnsimulation beteiligt war. Dieses Gedankenexperiment wird „die chinesische Nation“ oder „das chinesische Fitnessstudio“ genannt. Ned Block schlug auch sein Blockhead-Argument vor, bei dem es sich um eine Version des chinesischen Raums handelt, in der das Programm in ein einfaches Regelwerk der Form „see this, do that“ umgewandelt wurde. Dabei werden alle Rätsel aus dem Programm entfernt.

Antworten auf das chinesische Zimmer
Die Antworten auf den chinesischen Raum betonen verschiedene Punkte.

Die Systeme antworten und der virtuelle Verstand antwortet: In dieser Antwort wird argumentiert, dass das System, einschließlich des Mannes, des Programms, des Raums und der Karten, das ist, was Chinesisch versteht. Searle behauptet, dass der Mann im Raum das Einzige ist, das möglicherweise „einen Verstand haben“ oder „verstehen“ kann, aber andere sind anderer Meinung und argumentieren, dass es möglich ist, dass zwei Köpfe am selben physischen Ort sind, ähnlich wie in der Art und Weise Ein Computer kann gleichzeitig zwei Maschinen „sein“: eine physische (wie ein Macintosh) und eine „virtuelle“ (wie eine Textverarbeitung).
Geschwindigkeit, Kraft und Komplexität: Mehrere Kritiker weisen darauf hin, dass der Mann im Raum wahrscheinlich Millionen von Jahren brauchen würde, um auf eine einfache Frage zu antworten, und „Aktenschränke“ mit astronomischen Ausmaßen erfordern würde. Dies bringt die Klarheit von Searles Intuition in Zweifel.
Roboterantwort: Um wirklich zu verstehen, glauben einige, dass der chinesische Raum Augen und Hände braucht. Hans Moravec schreibt: „Wenn wir einen Roboter in ein Denkprogramm einführen könnten, brauchen wir keine Person mehr, die die Bedeutung liefert: Er würde aus der physischen Welt stammen.“
Antwort des Gehirnsimulators: Was ist, wenn das Programm die Abfolge der Nervenzündung an den Synapsen eines tatsächlichen Gehirns eines echten chinesischen Sprechers simuliert? Der Mann im Raum würde ein echtes Gehirn simulieren. Dies ist eine Variante der „Systemantwort“, die plausibler erscheint, weil „das System“ jetzt eindeutig wie ein menschliches Gehirn funktioniert, was die Intuition verstärkt, dass es außer dem Mann im Raum noch etwas gibt, das Chinesisch verstehen könnte.
Andere Köpfe antworten und die Epiphenomena antworten: Mehrere Leute haben bemerkt, dass Searles Argument nur eine Version des Problems anderer Köpfe ist, das auf Maschinen angewendet wird. Da es schwierig ist zu entscheiden, ob die Leute „tatsächlich“ denken, sollten wir uns nicht wundern, dass es schwierig ist, dieselbe Frage über Maschinen zu beantworten.

Ist das Denken eine Art Berechnung?
Die rechnerische Theorie des Geistes oder „Computationalismus“ behauptet, dass die Beziehung zwischen Geist und Gehirn der Beziehung zwischen einem laufenden Programm und einem Computer ähnlich (wenn nicht identisch) ist. Die Idee hat philosophische Wurzeln in Hobbes (die Behauptung waren „nichts anderes als Abrechnung“), Leibniz (der versuchte, einen logischen Kalkül aller menschlichen Ideen zu erstellen), Hume (der die Wahrnehmung auf „atomare Eindrücke“ reduzieren konnte) und Sogar Kant (der alle Erfahrungen nach formalen Regeln analysierte). Die neueste Version ist mit den Philosophen Hilary Putnam und Jerry Fodor verbunden.

Diese Frage bezieht sich auf unsere früheren Fragen: Wenn das menschliche Gehirn eine Art Computer ist, können Computer sowohl intelligent als auch bewusst sein und sowohl die praktischen als auch die philosophischen Fragen der KI beantworten. In Bezug auf die praktische Frage der KI („Kann eine Maschine allgemeine Intelligenz anzeigen?“) Behaupten einige Versionen des Computationalismus, dass (wie Hobbes schrieb):

Vernunft ist nichts anderes als Abrechnung
Mit anderen Worten, unsere Intelligenz stammt aus einer Berechnungsform, ähnlich der Arithmetik. Dies ist die physikalische Symbolsystemhypothese, die oben diskutiert wurde, und impliziert, dass künstliche Intelligenz möglich ist. In Bezug auf die philosophische Frage der KI („Kann eine Maschine Geist, Geisteszustände und Bewusstsein haben?“) Behaupten die meisten Versionen des Computationalismus (wie Stevan Harnad es charakterisiert):

Geisteszustände sind nur Implementierungen (der richtigen) Computerprogramme
Dies ist John Searles „starke KI“, die oben besprochen wurde, und es ist das eigentliche Ziel des chinesischen Raumarguments (nach Harnad).

Andere verwandte Fragen
Alan Turing stellte fest, dass es viele Argumente für die Form gibt „Eine Maschine wird niemals X machen“, wobei X viele Dinge sein kann, wie zum Beispiel:

Seien Sie nett, einfallsreich, schön, freundlich, haben Sie Initiative, haben Sie einen Sinn für Humor, erzählen Sie richtig von Unrecht, machen Sie Fehler, verlieben Sie sich, genießen Sie Erdbeeren und Sahne, bringen Sie jemanden dazu, sich in ihn zu verlieben, lernen Sie aus Erfahrung, verwenden Sie Wörter richtig Seien Sie das Subjekt seines eigenen Denkens, haben Sie so unterschiedliche Verhaltensweisen wie ein Mann und tun Sie etwas wirklich Neues.

Kann eine Maschine Emotionen haben?
Wenn „Emotionen“ nur im Hinblick auf ihre Wirkung auf das Verhalten oder auf die Funktionsweise innerhalb eines Organismus definiert werden, können Emotionen als Mechanismus betrachtet werden, den ein intelligenter Agent verwendet, um den Nutzen seiner Aktionen zu maximieren. In Anbetracht dieser Definition von Emotionen glaubt Hans Moravec, dass „Roboter im Allgemeinen recht emotional sein werden, nette Menschen zu sein“. Angst ist eine Quelle der Dringlichkeit. Empathie ist ein notwendiger Bestandteil einer guten Mensch-Computer-Interaktion. Er sagt, Roboter „werden versuchen, Sie auf scheinbar selbstlose Weise zu erfreuen, weil diese positive Verstärkung einen Nervenkitzel hervorruft. Sie können dies als eine Art Liebe interpretieren.“ Daniel Crevier schreibt: „Moravecs Standpunkt ist, dass Emotionen nur Mittel sind, um Verhalten in eine Richtung zu lenken, die für das Überleben der eigenen Spezies von Vorteil ist.“

Emotionen können jedoch auch in Bezug auf ihre subjektive Qualität definiert werden, wie es sich anfühlt, eine Emotion zu haben. Die Frage, ob die Maschine tatsächlich eine Emotion empfindet oder ob sie nur so wirkt, als würde sie eine Emotion fühlen, ist die philosophische Frage: „Kann eine Maschine bei Bewusstsein sein?“ in einer anderen Form.

Kann eine Maschine selbstbewusst sein?
„Selbstbewusstsein“ wird, wie oben erwähnt, manchmal von Science-Fiction-Autoren als Name für das wesentliche menschliche Eigentum verwendet, das einen Charakter zu einem Menschen macht. Turing entfernt alle anderen Eigenschaften des Menschen und reduziert die Frage auf „Kann eine Maschine Gegenstand ihres eigenen Denkens sein?“ Kann es an sich denken? So gesehen kann ein Programm geschrieben werden, das über seine eigenen internen Zustände berichten kann, beispielsweise einen Debugger. Selbstverständlich setzt das Selbstbewusstsein oft etwas mehr Fähigkeit voraus; eine Maschine, die Bedeutung nicht nur ihrem eigenen Staat zuschreiben kann, sondern allgemein Fragen ohne feste Antworten postuliert: die kontextuelle Natur ihrer Existenz jetzt; wie es sich mit früheren Zuständen oder Plänen für die Zukunft vergleicht, die Grenzen und den Wert seines Arbeitsprodukts, wie es seine Leistung für wertschätzend hält oder mit anderen vergleicht.

Kann eine Maschine originell oder kreativ sein?
Turing reduziert dies auf die Frage, ob eine Maschine uns „überraschen kann“, und argumentiert, dies sei offensichtlich richtig, wie jeder Programmierer bestätigen kann. Er weist darauf hin, dass sich ein Computer bei ausreichender Speicherkapazität astronomisch unterschiedlich verhalten kann. Es muss möglich oder sogar trivial sein, dass ein Computer Ideen darstellen kann, um sie auf neue Weise zu kombinieren. (Der automatisierte Mathematiker von Douglas Lenat kombinierte Ideen, um neue mathematische Wahrheiten zu entdecken.)

Im Jahr 2009 haben Wissenschaftler der Aberystwyth University in Wales und der britischen Universität Cambridge einen Roboter namens Adam entwickelt, von dem sie glauben, dass er der erste ist, der unabhängig neue wissenschaftliche Erkenntnisse liefert. Ebenfalls im Jahr 2009 entwickelten die Forscher von Cornell Eureqa, ein Computerprogramm, das Formeln extrapoliert, um die eingegebenen Daten anzupassen, z. B. das Finden der Bewegungsgesetze aus einer Pendelbewegung.

Kann eine Maschine wohlwollend oder feindselig sein?
Diese Frage (wie viele andere in der Philosophie der künstlichen Intelligenz) kann in zwei Formen dargestellt werden. „Feindseligkeit“ kann in Bezug auf Funktion oder Verhalten definiert werden. In diesem Fall wird „Feindseligkeit“ gleichbedeutend mit „gefährlich“. Oder es kann als Absicht definiert werden: Kann eine Maschine „absichtlich“ Schaden anrichten? Letzteres ist die Frage „Kann eine Maschine bewusste Zustände haben?“ (wie Absichten) in anderer Form.

Die Frage, ob hoch intelligente und vollständig autonome Maschinen gefährlich sein könnten, wurde von Futuristen (wie dem Singularity Institute) eingehend untersucht. (Das offensichtliche Element des Dramas hat das Thema auch in der Science Fiction populär gemacht, was viele mögliche Szenarien in Betracht gezogen hat, in denen intelligente Maschinen eine Bedrohung für die Menschheit darstellen.)

Ein Problem ist, dass Maschinen die Autonomie und Intelligenz erwerben können, die erforderlich sind, um sehr schnell gefährlich zu sein. Vernor Vinge hat vorgeschlagen, dass Computer innerhalb weniger Jahre plötzlich tausende oder millionenfach intelligenter werden als Menschen. Er nennt dies „die Singularität“. Er schlägt vor, dass es für den Menschen etwas oder möglicherweise sehr gefährlich sein kann. Dies wird in einer Philosophie namens Singularitarismus diskutiert.

Einige Experten und Wissenschaftler haben die Verwendung von Robotern für militärische Gefechte in Frage gestellt, insbesondere wenn solche Roboter ein gewisses Maß an autonomen Funktionen erhalten. Die US Navy hat einen Bericht finanziert, der besagt, dass Militärroboter mit zunehmender Komplexität der Auswirkungen ihrer Fähigkeit, autonome Entscheidungen zu treffen, stärker berücksichtigt werden sollten.

Der Präsident der Vereinigung zur Förderung der künstlichen Intelligenz hat eine Studie in Auftrag gegeben, die sich mit dieser Frage befasst. Sie verweisen auf Programme wie das Language Acquisition Device, das menschliche Interaktion simulieren kann.

Einige haben vorgeschlagen, eine „freundliche KI“ aufzubauen, was bedeutet, dass die Fortschritte, die bereits mit der KI gemacht werden, auch die Bemühungen umfassen sollten, die KI intrinsisch freundlich und human zu gestalten.

Kann eine Maschine eine Seele haben?
Schließlich können diejenigen, die an die Existenz einer Seele glauben, argumentieren, dass „das Denken eine Funktion der unsterblichen Seele des Menschen ist“. Alan Turing nannte dies „theologischen Einwand“. Er schreibt

Beim Versuch, solche Maschinen zu konstruieren, sollten wir nicht unerbittlich seine Macht, Seelen zu erschaffen, so wenig wie wir in der Zeugung von Kindern mitnehmen. Vielmehr sind wir in jedem Fall Instrumente seines Willens, die den von ihm geschaffenen Seelen Villen zur Verfügung stellen.

Ansichten über die Rolle der Philosophie
Einige Gelehrte argumentieren, dass die Kündigung der KI-Gemeinschaft von der Philosophie abträglich ist. In der Stanford Encyclopedia of Philosophy argumentieren einige Philosophen, dass die Rolle der Philosophie in der KI unterbewertet wird.Der Physiker David Deutsch argumentiert, dass ohne das Verständnis der Philosophie oder ihrer Konzepte die Entwicklung der KI unter mangelnden Fortschritten leiden würde.

Bibliographie & Konferenzen
Die Hauptbibliographie zu diesem Thema mit mehreren Unterabschnitten ist auf PhilPapers.

Die Hauptkonferenzreihe zum Thema lautet „Philosophie und Theorie der KI“ (PT-AI), die von Vincent C. Müller