Auswirkungen künstlicher Intelligenz

Die künstliche Intelligenz (KI) ist die Intelligenz, die von Maschinen dargestellt wird. In der Informatik ist eine ideale „intelligente“ Maschine ein flexibler rationaler Agent, der seine Umgebung wahrnimmt und Maßnahmen ausführt, die seine Erfolgschancen in einer bestimmten Zielsetzung oder Aufgabe maximieren. Umgangssprachlich wird der Begriff „künstliche Intelligenz“ verwendet, wenn eine Maschine die „kognitiven“ Funktionen imitiert, die Menschen mit anderen menschlichen Köpfen verbinden, wie zum Beispiel: „Lernen“ und „Probleme lösen“. 2Wenn Maschinen immer leistungsfähiger werden, wird eine Technologie, die früher Intelligenz erfordert, von der Definition genommen. Beispielsweise wird die optische Zeichenerkennung nicht mehr als ein Beispiel dafür angesehen, dass „künstliche Intelligenz“ zu einer verbreiteten Technologie geworden ist. Technologische Fortschritte, die immer noch als künstliche Intelligenz eingestuft werden, sind autonome Fahrsysteme oder solche, die Schach oder Go spielen können.

Nach Takeyas (2007) ist AI ein Zweig der Computerwissenschaften, der für das Studium von Computermodellen zuständig ist, die in der Lage sind, Aktivitäten von Menschen aufgrund zweier ihrer Hauptmerkmale auszuführen: Vernunft und Verhalten.

1956 prägte John McCarthy den Begriff „künstliche Intelligenz“ und definierte ihn als „Wissenschaft und Einfallsreichtum der Herstellung intelligenter Maschinen, insbesondere intelligenter Computerprogramme“.

Für Nils John Nilsson gibt es vier Grundpfeiler, auf denen künstliche Intelligenz basiert:

Suchen Sie nach dem erforderlichen Status in der Menge der durch mögliche Aktionen erzeugten Status.
Genetische Algorithmen (analog zum Prozess der Evolution von DNA-Ketten).
Künstliche neuronale Netzwerke (analog zur physischen Funktionsweise des Gehirns von Tieren und Menschen).
Argumentation durch eine formale Logik analog zum abstrakten Denken des Menschen.

Es gibt auch verschiedene Arten von Wahrnehmungen und Aktionen, die durch physikalische Sensoren und mechanische Sensoren in Maschinen, elektrische oder optische Impulse in Computern sowie durch Bit-Ein- und Ausgänge einer Software und ihrer Softwareumgebung erhalten und erzeugt werden können .

Einige Beispiele sind im Bereich der Systemsteuerung, der automatischen Planung, der Fähigkeit, auf Diagnosen und Verbraucheranfragen zu reagieren, der Handschrifterkennung, der Spracherkennung und der Mustererkennung. KI-Systeme gehören derzeit zur Routine in Bereichen wie Wirtschaft, Medizin, Ingenieurwesen und Militär und werden in einer Vielzahl von Softwareanwendungen, Strategiespielen wie Computerschach und anderen Videospielen verwendet.

Geschichte
Denkfähige künstliche Wesen erschienen in der Antike als Geschichtenerzähler und waren in der Belletristik weit verbreitet, wie in Mary Shelleys Frankenstein oder Karel Čapeks RUR (Rossums Universal Robots). Diese Charaktere und ihre Schicksale haben viele der gleichen Fragen aufgeworfen, die jetzt in der Ethik der künstlichen Intelligenz diskutiert werden.

Das Studium des mechanischen oder „formalen“ Denkens begann in der Antike bei Philosophen und Mathematikern. Das Studium der mathematischen Logik führte direkt zu Alan Turings Rechentheorie, wonach eine Maschine durch das Mischen von Symbolen wie „0“ und „1“ jeden denkbaren mathematischen Akt simulieren könnte. Diese Erkenntnis, dass digitale Computer jeden Prozess des formalen Denkens simulieren können, wird als Church-Turing-These bezeichnet. Neben den gleichzeitigen Entdeckungen in der Neurobiologie, Informationstheorie und Kybernetik veranlassten die Forscher die Möglichkeit, ein elektronisches Gehirn aufzubauen. Turing schlug vor: „Wenn ein Mensch nicht zwischen Reaktionen von einer Maschine und einem Menschen unterscheiden kann, könnte die Maschine als“ intelligent „betrachtet werden. Die erste Arbeit, die jetzt allgemein als AI anerkannt wird, war McCullouch und Pitts formaler Entwurf von 1943 für Turing-vollständige „künstliche Neuronen“.

Das Gebiet der KI-Forschung wurde 1956 in einem Workshop am Dartmouth College geboren. Die Teilnehmer waren Allen Newell (CMU), Herbert Simon (CMU), John McCarthy (MIT), Marvin Minsky (MIT) und Arthur Samuel (IBM) Führer der KI-Forschung. Sie und ihre Schüler produzierten Programme, die von der Presse als „erstaunlich“ beschrieben wurden: Computer lernten die Strategie von Checker-Checkern (ca. 1954) (und spielten angeblich besser als der Durchschnittsmensch), lösten Wortprobleme in der Algebra und bewiesen logische Theoreme (Logic Theoretiker, erste Auflage ca. 1956) und Englisch sprechen. Mitte der 1960er Jahre wurde die Forschung in den USA stark vom US-Verteidigungsministerium finanziert und Laboratorien wurden weltweit gegründet. Die Gründer von AI waren optimistisch in die Zukunft: Herbert Simon sagte voraus: „Maschinen werden in den nächsten zwanzig Jahren in der Lage sein, jede Arbeit zu erledigen, die ein Mann leisten kann“. Marvin Minsky stimmte zu und schrieb „innerhalb einer Generation … das Problem der Schaffung künstlicher Intelligenz wird im Wesentlichen gelöst werden“.

Sie konnten die Schwierigkeit einiger verbleibender Aufgaben nicht erkennen. Der Fortschritt verlangsamte sich, und als Reaktion auf die Kritik von Sir James Lighthill und den anhaltenden Druck des US-Kongresses, produktivere Projekte zu finanzieren, wurde 1974 die Erforschung der AI-Forschung von den USA und Großbritannien unterbrochen. Die nächsten Jahre wurden später als „AI Winter“ bezeichnet, eine Zeit, in der die Finanzierung von AI-Projekten schwierig war.

In den frühen achtziger Jahren wurde die KI-Forschung durch den kommerziellen Erfolg von Expertensystemen wiederbelebt, einer Form des KI-Programms, mit der das Wissen und die analytischen Fähigkeiten von menschlichen Experten simuliert wurden. Bis 1985 hatte der Markt für AI mehr als eine Milliarde Dollar erreicht. Zur gleichen Zeit inspirierte Japans Computerprojekt der fünften Generation die Regierungen der USA und Großbritanniens, die Finanzierung der akademischen Forschung wiederherzustellen. Mit dem Zusammenbruch des Lisp-Maschinenmarktes im Jahr 1987 geriet die KI jedoch erneut in Verruf und eine zweite, länger anhaltende Pause begann.

In den späten 1990er Jahren und zu Beginn des 21. Jahrhunderts wurde AI für die Bereiche Logistik, Data Mining, medizinische Diagnose und andere Bereiche eingesetzt. Der Erfolg beruhte auf einer zunehmenden Rechenleistung (siehe Moores Gesetz), einer stärkeren Betonung der Lösung spezifischer Probleme, neuer Verbindungen zwischen der KI und anderen Bereichen (wie Statistik, Wirtschaft und Mathematik) und der Verpflichtung der Forscher zu mathematischen Methoden und wissenschaftlichen Standards. Deep Blue war das erste Computer-Schachspiel, das am 11. Mai 1997 den amtierenden Schachweltmeister Garry Kasparov besiegte.

Im Jahr 2011 eine Gefahr! Quizshow-Ausstellungsspiel, das Frage-Antwort-System von IBM, Watson, besiegte die beiden größten Gefahren! Champions, Brad Rutter und Ken Jennings, mit deutlichem Vorsprung. Schnellere Computer, algorithmische Verbesserungen und Zugriff auf große Datenmengen ermöglichten Fortschritte beim maschinellen Lernen und bei der Wahrnehmung. Datenhungrige Deep-Learning-Methoden dominierten um das Jahr 2012 herum. Die Kinect, die eine 3D-Body-Motion-Schnittstelle für die Xbox 360 und die Xbox One bietet, verwendet Algorithmen, die aus langwieriger KI-Forschung hervorgegangen sind, ebenso wie intelligente persönliche Assistenten bei Smartphones. Im März 2016 gewann AlphaGo 4 von 5 Go-Spielen in einem Spiel mit Go-Champion Lee Sedol und wurde damit das erste Go-Playing-System, das einen professionellen Go-Spieler ohne Behinderung schlug. Beim Future of Go Summit 2017 gewann AlphaGo ein Drei-Spiele-Spiel mit Ke Jie, der zu dieser Zeit zwei Jahre lang ununterbrochen die Nummer 1 der Weltrangliste belegte. Dies war der Abschluss eines bedeutenden Meilensteins in der Entwicklung der künstlichen Intelligenz, da Go ein äußerst komplexes Spiel ist, mehr als Schach.

Laut Bloombergs Jack Clark war 2015 ein Meilenstein für künstliche Intelligenz. Die Zahl der Software-Projekte, die KI in Google nutzen, stieg von „sporadischer Nutzung“ im Jahr 2012 auf über 2.700 Projekte. Clark legt auch Fakten vor, aus denen hervorgeht, dass die Fehlerraten bei Bildverarbeitungsaufgaben seit 2011 deutlich gesunken sind. Er führt dies auf einen Anstieg der erschwinglichen neuronalen Netze aufgrund einer Zunahme der Cloud-Computing-Infrastruktur und eines Anstiegs an Forschungstools und -datensätzen zurück. Andere angeführte Beispiele sind die Entwicklung eines Skype-Systems von Microsoft, das automatisch von einer Sprache in eine andere übersetzt werden kann, und das Facebook-System, das blinde Menschen Bilder beschreiben kann. In einer Umfrage von 2017 gab jedes fünfte Unternehmen an, „AI in einige Angebote oder Prozesse integriert zu haben“. Um 2016 beschleunigte China seine Regierungsfinanzierung erheblich. Einige Beobachter gehen davon aus, dass es aufgrund des großen Datenangebots und der rasch steigenden Forschungsleistung auf dem Weg ist, eine „KI-Supermacht“ zu werden.

Grundlagen
Eine typische KI nimmt ihre Umgebung wahr und ergreift Maßnahmen, um die Chance zu maximieren, ihre Ziele erfolgreich zu erreichen. Die beabsichtigte Zielfunktion einer KI kann einfach sein („1, wenn die KI ein Go gewinnt, sonst 0“) oder komplex („Aktionen mathematisch ausführen, die den Aktionen ähnlich sind, die Sie in der Vergangenheit belohnt haben“). Ziele können explizit definiert oder induziert werden. Wenn die KI für „Verstärkungslernen“ programmiert ist, können Ziele implizit eingeführt werden, indem einige Verhaltensweisen belohnt und andere bestraft werden. Alternativ kann ein evolutionäres System Ziele durch Verwendung einer „Fitness-Funktion“ induzieren, um KI-Systeme mit hoher Bewertung zu mutieren und vorzugsweise zu replizieren; Dies ist vergleichbar damit, wie sich Tiere entwickelt haben, um angeboren bestimmte Ziele zu erreichen, wie z. B. das Finden von Nahrung oder wie Hunde durch künstliche Selektion gezüchtet werden können, um die gewünschten Eigenschaften zu besitzen. Einige KI-Systeme, wie zum Beispiel der nächstgelegene Nachbar, lassen sich durch Analogie begründen. Diese Systeme haben im Allgemeinen keine Ziele, es sei denn, diese sind in ihren Trainingsdaten enthalten. Solche Systeme können immer noch verglichen werden, wenn das Nichtzielsystem als ein System bezeichnet wird, dessen „Ziel“ darin besteht, seine enge Klassifizierungsaufgabe erfolgreich zu erfüllen.

KI dreht sich oft um die Verwendung von Algorithmen. Ein Algorithmus ist ein Satz eindeutiger Anweisungen, die ein mechanischer Computer ausführen kann. Ein komplexer Algorithmus wird oft auf anderen, einfacheren Algorithmen aufgebaut. Ein einfaches Beispiel für einen Algorithmus ist das folgende Rezept für ein optimales Spiel bei Tic-Tac-Toe:

Wenn jemand eine „Bedrohung“ hat (dh zwei hintereinander), nehmen Sie das verbleibende Quadrat. Andernfalls,
Wenn sich ein Zug „verzweigt“, um zwei Bedrohungen gleichzeitig zu erstellen, spielen Sie diesen Zug. Andernfalls,
nimm das mittlere Quadrat, wenn es frei ist. Andernfalls,
Wenn Ihr Gegner in einer Ecke gespielt hat, nehmen Sie die gegenüberliegende Ecke. Andernfalls,
nehmen Sie eine leere Ecke, falls vorhanden. Andernfalls,
nimm ein leeres Quadrat.

Viele AI-Algorithmen können aus Daten lernen. Sie können sich verbessern, indem sie neue Heuristiken lernen (Strategien oder „Faustregeln“, die in der Vergangenheit gut funktioniert haben), oder sie können selbst andere Algorithmen schreiben. Einige der im Folgenden beschriebenen „Lernenden“, darunter Bayes-Netzwerke, Entscheidungsbäume und Nachbarn, könnten theoretisch lernen, wenn sie unendliche Daten, Zeit und Speicher erhalten, sich jede Funktion anzunähern, einschließlich der Kombination der mathematischen Funktionen, die diese am besten beschreiben ganze Welt. Diese Lernenden könnten daher theoretisch alles mögliche Wissen ableiten, indem sie jede mögliche Hypothese berücksichtigen und mit den Daten abgleichen. In der Praxis ist es fast nie möglich, jede Möglichkeit in Betracht zu ziehen, weil das Phänomen der „kombinatorischen Explosion“ auftritt, bei der die zur Lösung eines Problems erforderliche Zeit exponentiell zunimmt. Ein großer Teil der KI-Forschung besteht darin, herauszufinden, wie man breite Bereiche von Möglichkeiten ausfindig macht, die unwahrscheinlich sind. Wenn Sie zum Beispiel eine Karte anzeigen und nach der kürzesten Fahrtroute von Denver nach New York im Osten suchen, können Sie in den meisten Fällen den Blick auf einen beliebigen Weg durch San Francisco oder andere Gegenden weit nach Westen überspringen. Daher kann eine KI, die einen Wegfindungsalgorithmus wie A * verwendet, die kombinatorische Explosion vermeiden, die sich ergeben würde, wenn jede mögliche Route abwechselnd berücksichtigt werden müsste.

Die früheste (und am leichtesten zu verstehende) Herangehensweise an die KI war die Symbolik (z. B. formale Logik): „Wenn ein sonst gesunder Erwachsener Fieber hat, dann kann es zu einer Influenza kommen“. Ein zweiter, allgemeinerer Ansatz ist der Bayes’sche Schlußfolgerung: „Wenn der gegenwärtige Patient Fieber hat, passen Sie die Wahrscheinlichkeit an, dass sie eine Influenza haben.“ Der dritte wichtige Ansatz, der in Routine-Business-KI-Anwendungen äußerst beliebt ist, sind Analogisierer wie SVM und Nächster Nachbar: „Nach Prüfung der Aufzeichnungen von bekannten Patienten, deren Temperatur, Symptome, Alter und andere Faktoren meistens mit dem aktuellen Patienten übereinstimmen, machen X% von diesen Patienten erwies sich als Influenza „. Ein vierter Ansatz ist schwieriger intuitiv zu verstehen, aber er ist inspiriert von der Funktionsweise des Gehirns: Der Ansatz des künstlichen neuronalen Netzwerks verwendet künstliche „Neuronen“, die lernen können, indem sie sich mit dem gewünschten Output vergleichen und die Stärke der Verbindungen zwischen ihren internen Neuronen verändern Verbindungen zu „verstärken“, die sich als nützlich erwiesen haben. Diese vier Hauptansätze können sich untereinander und mit evolutionären Systemen überschneiden. Zum Beispiel können neuronale Netze lernen, Schlussfolgerungen zu ziehen, zu verallgemeinern und Analogien herzustellen. Einige Systeme verwenden implizit oder explizit mehrere dieser Ansätze neben vielen anderen AI- und Nicht-AI-Algorithmen. Der beste Ansatz unterscheidet sich häufig je nach Problem.

Lernalgorithmen basieren auf der Grundlage, dass Strategien, Algorithmen und Folgerungen, die in der Vergangenheit gut funktionierten, wahrscheinlich auch in Zukunft gut funktionieren werden. Diese Schlussfolgerungen können offensichtlich sein, zum Beispiel „seit die Sonne jeden Morgen die letzten 10.000 Tage aufging, wird sie wahrscheinlich auch morgen früh aufgehen“. Sie können differenziert werden, z. B. „X% der Familien haben geografisch getrennte Arten mit Farbvarianten, daher besteht eine Chance von Y%, dass unentdeckte schwarze Schwäne existieren“. Die Lernenden arbeiten auch auf der Basis von „Occams Rasiermesser“: Die einfachste Theorie, die die Daten erklärt, ist die wahrscheinlichste. Um erfolgreich zu sein, muss ein Lernender so gestaltet sein, dass er einfachere Theorien gegenüber komplexen Theorien bevorzugt, außer in Fällen, in denen die komplexe Theorie wesentlich besser bewiesen wird. Sich auf eine schlechte, übermäßig komplexe Theorie zu einigen, die an die bisherigen Trainingsdaten angepasst wurde, wird als Überanpassung bezeichnet. Viele Systeme versuchen, die Überanpassung zu reduzieren, indem sie eine Theorie belohnen, je nachdem, wie gut sie zu den Daten passt. Die Theorie wird jedoch entsprechend der Komplexität der Theorie bestraft. Neben der klassischen Überanpassung können die Lernenden auch enttäuschen, wenn sie „die falsche Lektion lernen“. Ein Spielzeugbeispiel ist, dass ein Bildklassifizierer, der nur mit Bildern von braunen Pferden und schwarzen Katzen trainiert wurde, möglicherweise zu dem Schluss kommt, dass alle braunen Flecken wahrscheinlich Pferde sind. Ein reales Beispiel ist, dass aktuelle Bildklassifizierer im Gegensatz zum Menschen nicht die räumliche Beziehung zwischen Bildkomponenten bestimmen. Stattdessen lernen sie abstrakte Pixelmuster, die der Mensch nicht wahrnimmt, die jedoch linear mit Bildern bestimmter Arten von realen Objekten korrelieren. Wenn ein solches Muster nur schwach einem legitimen Bild überlagert wird, entsteht ein „kontroverses“ Bild, das vom System falsch eingestuft wird.

Im Vergleich zum Menschen sind bei der bestehenden KI einige Merkmale des „gesunden Menschenverstandes“ nicht vorhanden. Menschen haben vor allem mächtige Mechanismen, um über „naive Physik“ wie Raum, Zeit und physikalische Interaktionen zu argumentieren. So können auch kleine Kinder leicht Rückschlüsse auf folgende Faktoren ziehen: „Wenn ich diesen Stift von einem Tisch rolle, fällt er auf den Boden“. Menschen haben auch einen mächtigen Mechanismus der „Volkspsychologie“, der ihnen hilft, Sätze in natürlicher Sprache zu interpretieren, wie „Die Stadträte haben den Demonstranten eine Genehmigung verweigert, weil sie sich für Gewalt ausgesprochen haben“. (Eine generische KI kann nur schwer feststellen, ob es sich bei Ratsmitgliedern oder Demonstranten um Gewaltanwendung handelt.) Dieses Fehlen von „allgemeinem Wissen“ bedeutet, dass KI oft andere Fehler macht als Menschen, und dies auf eine Weise, die unverständlich erscheint. Beispielsweise können bestehende autonome Autos weder über den Standort noch über die Absichten von Fußgängern genau wie Menschen denken, sondern müssen nichtmenschliche Denkweisen verwenden, um Unfälle zu vermeiden.

Probleme
Das übergeordnete Forschungsziel der künstlichen Intelligenz besteht in der Entwicklung einer Technologie, mit der Computer und Maschinen auf intelligente Weise funktionieren können. Das allgemeine Problem der Simulation (oder Erzeugung) von Intelligenz wurde in Unterprobleme zerlegt. Diese bestehen aus bestimmten Merkmalen oder Fähigkeiten, von denen Forscher erwarten, dass ein intelligentes System angezeigt wird. Die unten beschriebenen Merkmale haben die meiste Aufmerksamkeit erhalten.

Begründung, Problemlösung
Frühe Forscher entwickelten Algorithmen, die Schritt-für-Schritt-Überlegungen imitierten, die Menschen verwenden, wenn sie Rätsel lösen oder logische Schlussfolgerungen ziehen. In den späten 1980er und 1990er Jahren hatte die KI-Forschung Methoden entwickelt, um mit unsicheren oder unvollständigen Informationen umzugehen, wobei Begriffe aus der Wahrscheinlichkeits- und Ökonomie verwendet wurden.

Diese Algorithmen erwiesen sich als unzureichend für die Lösung großer Denkprobleme, da sie eine „kombinatorische Explosion“ erlebten: Sie wurden exponentiell langsamer, je größer die Probleme wurden. Tatsächlich verwenden sogar Menschen selten die schrittweise Schlussfolgerung, die die frühe KI-Forschung modellieren konnte. Sie lösen die meisten ihrer Probleme mit schnellen, intuitiven Beurteilungen.

Wissensrepräsentation
Wissensrepräsentation und Knowledge Engineering sind für die klassische KI-Forschung von zentraler Bedeutung. Einige „Expertensysteme“ versuchen, das explizite Wissen von Experten auf engstem Raum zusammenzutragen. Darüber hinaus versuchen einige Projekte, das „Durchschnittswissen“, das dem Durchschnittsfachmann bekannt ist, in einer Datenbank zu sammeln, die umfangreiches Wissen über die Welt enthält. Zu den Dingen, die eine umfassende Commonsense-Wissensbasis enthalten würde, gehören: Objekte, Eigenschaften, Kategorien und Beziehungen zwischen Objekten; Situationen, Ereignisse, Zustände und Zeit; Ursachen und Wirkungen; Wissen über Wissen (was wir darüber wissen, was andere wissen); und viele andere, weniger gut erforschte Domänen. Eine Darstellung von „was existiert“ ist eine Ontologie: die Menge von Objekten, Beziehungen, Konzepten und Eigenschaften, die formal beschrieben werden, sodass Software-Agenten sie interpretieren können. Die Semantik davon wird als Beschreibungslogik, Rollen und Individuen erfasst und in der Regel als Klassen, Eigenschaften und Individuen in der Web Ontology Language implementiert. Die allgemeinsten Ontologien werden als obere Ontologien bezeichnet, die versuchen, eine Grundlage für alles andere Wissen zu schaffen, indem sie als Mediatoren zwischen Domain-Ontologien fungieren, die spezifisches Wissen über einen bestimmten Wissensbereich (Interessenbereich oder Problembereich) abdecken. Solche formalen Wissensrepräsentationen können bei der inhaltsbasierten Indexierung und beim Abrufen, bei der Interpretation von Szenen, bei der Unterstützung klinischer Entscheidungen, bei der Erkennung von Wissen (Mining „interessante“ und auswertbare Schlussfolgerungen aus großen Datenbanken) und in anderen Bereichen verwendet werden.

Zu den schwierigsten Problemen bei der Wissensrepräsentation gehören:

Standardargumentation und das Qualifikationsproblem
Viele der Dinge, die Menschen wissen, haben die Form von „Arbeitsannahmen“. Wenn zum Beispiel ein Vogel im Gespräch auftaucht, stellen sich die Menschen normalerweise ein Tier vor, das faustgroß ist, singt und fliegt. Nichts davon trifft auf alle Vögel zu. John McCarthy identifizierte dieses Problem im Jahr 1969 als das Qualifikationsproblem: Für jede Regel des gesunden Menschenverstands, die KI-Forscher vertreten möchten, gibt es eine Vielzahl von Ausnahmen. Fast nichts ist einfach wahr oder falsch in der Weise, die abstrakte Logik erfordert. Die KI-Forschung hat eine Reihe von Lösungen für dieses Problem untersucht.

Die Breite des gesunden Menschenverstandes
Die Anzahl der Sachverhalte, die der Durchschnittsfachmann kennt, ist sehr groß. Forschungsprojekte, bei denen versucht wird, eine vollständige Wissensbasis des Wissens von allgemeinem Verstand (z. B. Cyc) aufzubauen, erfordern eine enorme Menge an aufwändiger ontologischer Technik – sie müssen jeweils von Hand nach einem komplizierten Konzept erstellt werden.

Die subsymbolische Form von Wissen über das Allgemeinwissen
Vieles, was die Leute wissen, wird nicht als „Fakten“ oder „Aussagen“ dargestellt, die sie verbal ausdrücken könnten. Zum Beispiel wird ein Schachmeister eine bestimmte Schachposition vermeiden, weil er sich „zu exponiert“ fühlt, oder ein Kunstkritiker kann einen Blick auf eine Statue werfen und feststellen, dass es eine Fälschung ist. Dies sind unbewusste und subsymbolische Anschauungen oder Tendenzen im menschlichen Gehirn. Wissen wie dieses informiert, unterstützt und liefert einen Kontext für symbolisches, bewusstes Wissen. Wie bei dem damit verbundenen Problem des subsymbolischen Denkens wird gehofft, dass die positionierte KI, die rechnergestützte Intelligenz oder die statistische KI Möglichkeiten bieten werden, um diese Art von Wissen darzustellen.

Planung
Intelligente Agenten müssen sich Ziele setzen und diese erreichen können. Sie brauchen einen Weg, um die Zukunft zu visualisieren – eine Darstellung des Zustands der Welt, und sie können Vorhersagen darüber treffen, wie ihre Handlungen sie verändern werden – und sie können Entscheidungen treffen, die den Nutzen (oder „Wert“) der verfügbaren Entscheidungen maximieren .

Bei klassischen Planungsproblemen kann der Agent davon ausgehen, dass er das einzige auf der Welt agierende System ist, wodurch der Agent die Konsequenzen seiner Aktionen sicher sein kann. Wenn der Agent jedoch nicht der einzige Akteur ist, muss der Agent unter Unsicherheit argumentieren können. Dies erfordert einen Agenten, der nicht nur seine Umgebung beurteilen und Vorhersagen treffen kann, sondern auch seine Vorhersagen auswerten und basierend auf seiner Beurteilung anpassen kann.

Multi-Agent-Planung nutzt die Kooperation und den Wettbewerb vieler Agenten, um ein bestimmtes Ziel zu erreichen. Emerging-Verhalten wie dieses wird von evolutionären Algorithmen und Schwarmintelligenz genutzt.

Lernen
Maschinelles Lernen, ein grundlegendes Konzept der KI-Forschung seit seiner Einführung, ist das Studium von Computeralgorithmen, die sich durch Erfahrung automatisch verbessern.

Unüberwachtes Lernen ist die Fähigkeit, Muster in einem Eingabestrom zu finden. Überwachtes Lernen umfasst sowohl Klassifizierung als auch numerische Regression. Klassifizierung wird verwendet, um zu bestimmen, in welche Kategorie etwas gehört, nachdem einige Beispiele aus verschiedenen Kategorien angezeigt wurden. Regression ist der Versuch, eine Funktion zu erzeugen, die die Beziehung zwischen Ein- und Ausgängen beschreibt und vorhersagt, wie sich die Ausgänge ändern sollen, wenn sich die Eingänge ändern. Sowohl Klassifizierer als auch Regressionslerner können als „Funktionsapproximatoren“ betrachtet werden, die versuchen, eine unbekannte (möglicherweise implizite) Funktion zu lernen. Ein Spam-Klassifizierer kann beispielsweise als Lernen einer Funktion betrachtet werden, die aus dem Text einer E-Mail eine der beiden Kategorien „Spam“ oder „Nicht Spam“ abbildet. Die Theorie des rechnergestützten Lernens kann die Lernenden anhand der rechnerischen Komplexität, anhand der Stichproben-Komplexität (wie viele Daten erforderlich) oder anhand anderer Optimierungsvorstellungen beurteilen. Beim Verstärkungslernen wird der Agent für gute Antworten belohnt und für schlechte bestraft. Der Agent verwendet diese Abfolge von Belohnungen und Strafen, um eine Strategie für das Arbeiten in seinem Problembereich zu bilden.

Verarbeitung natürlicher Sprache
Natural Language Processing (NLP) ermöglicht Maschinen, menschliche Sprache zu lesen und zu verstehen. Ein ausreichend leistungsfähiges System für die Verarbeitung natürlicher Sprache würde Benutzeroberflächen in natürlicher Sprache und den Erwerb von Wissen direkt aus von Menschen geschriebenen Quellen, wie z. B. Newswire-Texten, ermöglichen. Einige unkomplizierte Anwendungen der Verarbeitung natürlicher Sprache umfassen das Abrufen von Informationen, das Text-Mining, das Beantworten von Fragen und die maschinelle Übersetzung. Viele derzeitige Ansätze verwenden Worthäufigkeiten, um syntaktische Darstellungen von Text zu erstellen. „Keyword-Spotting“ -Strategien für die Suche sind beliebt und skalierbar, aber dumm. Eine Suchanfrage nach „Hund“ kann nur Dokumente mit dem Wort „Hund“ abgleichen und ein Dokument mit dem Wort „Pudel“ verpassen. „Lexikalische Affinitätsstrategien“ verwenden das Auftreten von Wörtern wie „Unfall“, um das Gefühl eines Dokuments zu bewerten. Moderne statistische NLP-Ansätze können all diese Strategien und andere kombinieren und erreichen oft eine akzeptable Genauigkeit auf Seiten- oder Absatzebene, es fehlt jedoch immer noch das semantische Verständnis, das zur Klassifizierung isolierter Sätze erforderlich ist. Abgesehen von den üblichen Schwierigkeiten bei der Kodierung von Wissen über semantisches Allgemeinwissen ist das vorhandene semantische NLP manchmal zu schlecht skalierbar, um in geschäftlichen Anwendungen eingesetzt zu werden. Jenseits des semantischen NLP besteht das ultimative Ziel des „narrativen“ NLP darin, ein umfassendes Verständnis der Vernunft zu vermitteln.

Wahrnehmung
Maschinenwahrnehmung ist die Fähigkeit, Eingaben von Sensoren (z. B. Kameras (sichtbares Spektrum oder Infrarot), Mikrofone, drahtlose Signale sowie aktive Lidar-, Sonar-, Radar- und Berührungssensoren) zu verwenden, um Aspekte der Welt abzuleiten. Zu den Anwendungen zählen Spracherkennung, Gesichtserkennung und Objekterkennung. Computer Vision ist die Fähigkeit, visuelle Eingaben zu analysieren. Eine solche Eingabe ist normalerweise mehrdeutig. Ein riesiger, fünfzig Meter großer Fußgänger in der Ferne erzeugt möglicherweise genau dieselben Pixel wie ein normaler Fußgänger in der Nähe, so dass die KI die relative Wahrscheinlichkeit und Angemessenheit der verschiedenen Interpretationen beurteilen muss, beispielsweise anhand ihres „Objektmodells“ zur Bewertung dass fünfzig Meter Fußgänger nicht existieren.

Bewegung und Manipulation
KI wird in der Robotik stark eingesetzt. Fortgeschrittene Roboterarme und andere Industrieroboter, die in modernen Fabriken weit verbreitet sind, können aus Erfahrung lernen, wie sie sich trotz Reibung und Rutschgefahr effizient bewegen können. Ein moderner mobiler Roboter kann in einer kleinen, statischen und sichtbaren Umgebung seinen Standort leicht bestimmen und seine Umgebung zuordnen. Dynamische Umgebungen, wie (in der Endoskopie) das Innere des Atmungskörpers eines Patienten, stellen jedoch eine größere Herausforderung dar. Bewegungsplanung ist der Prozess, bei dem eine Bewegungsaufgabe in „Primitive“ wie einzelne Gelenkbewegungen zerlegt wird. Eine solche Bewegung beinhaltet häufig eine nachgiebige Bewegung, einen Vorgang, bei dem Bewegung den physischen Kontakt mit einem Objekt erfordert. Das Paradoxon von Moravec verallgemeinert, dass die Sensibilitätsfähigkeiten der Menschen, die der Mensch als selbstverständlich erachtet, nicht intuitiv in einen Roboter programmiert werden können; Das Paradoxon ist nach Hans Moravec benannt, der 1988 erklärte: „Es ist vergleichsweise einfach, Computer bei Intelligenztests oder beim Spielen von Kontrolleuren für Erwachsene zu zeigen, und es ist schwierig oder unmöglich, ihnen die Fähigkeiten eines einjährigen Mannes zu vermitteln kommt zur Wahrnehmung und Mobilität „. Dies ist der Tatsache zuzuschreiben, dass körperliche Fingerfertigkeit im Gegensatz zu Schachfiguren seit Millionen von Jahren ein direktes Ziel natürlicher Selektion ist.

Soziale Intelligenz
Moravecs Paradox kann auf viele Formen sozialer Intelligenz ausgedehnt werden. Die verteilte Multi-Agent-Koordination autonomer Fahrzeuge bleibt ein schwieriges Problem. Affective Computing ist ein interdisziplinäres Dach, das Systeme umfasst, die menschliche Affekte erkennen, interpretieren, verarbeiten oder simulieren. Mäßige Erfolge im Zusammenhang mit affektivem Computing umfassen die Analyse der textlichen Gefühle und in jüngster Zeit die multimodale Affektanalyse (siehe Analyse der multimodalen Stimmung), wobei AI die von einem auf Video aufgezeichneten Probanden angezeigten Auswirkungen klassifiziert.

Langfristig wären soziale Fähigkeiten und ein Verständnis der menschlichen Emotionen und der Spieltheorie für einen sozialen Agenten wertvoll. In der Lage zu sein, die Handlungen anderer Personen durch das Verständnis ihrer Motive und ihres emotionalen Zustands vorherzusagen, würde es einem Agenten ermöglichen, bessere Entscheidungen zu treffen. Einige Computersysteme ahmen menschliche Emotionen und Ausdrücke nach, um empfindlicher für die emotionale Dynamik menschlicher Interaktionen zu wirken oder anderweitig die Interaktion zwischen Mensch und Computer zu erleichtern. In ähnlicher Weise sind einige virtuelle Assistenten so programmiert, dass sie sich unterhalten oder sogar humorvoll scherzen. naive Benutzer erhalten so eine unrealistische Vorstellung davon, wie intelligent vorhandene Computeragenten tatsächlich sind.

Generelle Intelligenz
In der Vergangenheit versuchten Projekte wie die Cyc-Wissensdatenbank (1984–) und die massive Initiative der japanischen fünften Generation von Computersystemen (1982–1992), die gesamte menschliche Wahrnehmung abzudecken. Diese frühen Projekte konnten sich den Einschränkungen nicht quantitativer symbolischer Logikmodelle nicht entziehen und im Nachhinein die Schwierigkeit der domänenübergreifenden KI stark unterschätzen. Heutzutage arbeitet die überwiegende Mehrheit der derzeitigen KI-Forscher stattdessen an veränderbaren „schmalen KI“ -Anwendungen (z. B. medizinische Diagnose oder Autonavigation). Viele Forscher sagen voraus, dass solche „engen KI“ in verschiedenen individuellen Bereichen in eine Maschine mit künstlicher allgemeiner Intelligenz (AGI) integriert werden, die die meisten der in diesem Artikel genannten engen Fähigkeiten kombiniert und zu einem gewissen Zeitpunkt sogar die menschlichen Fähigkeiten in den meisten Ländern übersteigt all diese Bereiche. Viele Fortschritte haben eine allgemeine domänenübergreifende Bedeutung. Ein prominentes Beispiel ist, dass DeepMind in den 2010er Jahren eine „generalisierte künstliche Intelligenz“ entwickelte, die viele verschiedene Atari-Spiele selbst erlernen konnte, und später eine Variante des Systems entwickelte, die beim sequentiellen Lernen Erfolg hat. Hypothetische AGI-Durchbrüche könnten neben dem Transferlernen die Entwicklung reflektierender Architekturen umfassen, die sich in entscheidetheoretische Metaisoning-Verfahren einbringen lassen, und herausfinden, wie eine umfassende Wissensbasis aus dem gesamten unstrukturierten Web „herausgeholt“ wird. Einige argumentieren, dass eine Art (derzeit unentdeckter) konzeptioneller, aber mathematisch schwieriger „Master-Algorithmus“ zu AGI führen könnte. Schließlich wollen einige „aufkommende“ Ansätze die menschliche Intelligenz äußerst genau simulieren und glauben, dass anthropomorphe Merkmale wie ein künstliches Gehirn oder eine simulierte Kinderentwicklung eines Tages einen kritischen Punkt erreichen können, an dem allgemeine Intelligenz entsteht.

Viele der Probleme in diesem Artikel können auch allgemeine Intelligenz erfordern, wenn Maschinen die Probleme ebenso lösen sollen wie Menschen. Selbst für bestimmte unkomplizierte Aufgaben wie die maschinelle Übersetzung ist es zum Beispiel erforderlich, dass ein Computer in beiden Sprachen (NLP) liest und schreibt, dem Argument des Autors (Grund) folgt, weiß, worüber gesprochen wird (Wissen), und das Original des Autors getreu reproduziert Absicht (soziale Intelligenz). Ein Problem wie die maschinelle Übersetzung wird als „AI-vollständig“ betrachtet, da alle diese Probleme gleichzeitig gelöst werden müssen, um die Maschinenleistung auf menschlicher Ebene zu erreichen.