Künstliche Intelligenz

Künstliche Intelligenz (KI), manchmal auch maschinelle Intelligenz genannt, ist Intelligenz, die von Maschinen demonstriert wird, im Gegensatz zu der natürlichen Intelligenz, die von Menschen und anderen Tieren gezeigt wird. In der Informatik wird die KI-Forschung als das Studium „intelligenter Agenten“ definiert: Jedes Gerät, das seine Umgebung wahrnimmt und Maßnahmen ergreift, um seine Chancen zu maximieren, seine Ziele erfolgreich zu erreichen. Umgangssprachlich wird der Begriff „künstliche Intelligenz“ verwendet, wenn eine Maschine „kognitive“ Funktionen imitiert, die Menschen mit anderen menschlichen Köpfen verbinden, wie „Lernen“ und „Problemlösen“.

Der Anwendungsbereich der KI ist umstritten: Da Maschinen immer leistungsfähiger werden, werden Aufgaben, die als „Intelligenz“ erachtet werden, häufig aus der Definition entfernt, ein Phänomen, das als KI-Effekt bezeichnet wird und zum Quip führt: „AI ist, was bisher noch nicht getan wurde [Zitat nicht gefunden] Zum Beispiel wird die optische Zeichenerkennung häufig von der „künstlichen Intelligenz“ ausgeschlossen, da sie zu einer Routinetechnologie geworden ist. Moderne Maschinenfähigkeiten, die im Allgemeinen als KI klassifiziert werden, umfassen das erfolgreiche Verstehen der menschlichen Sprache, den Wettbewerb auf höchstem Niveau in strategischen Spielsystemen (wie Schach und Go), das autonome Fahren von Autos und das intelligente Routing in Content Delivery-Netzwerken und militärischen Simulationen.

Künstliche Intelligenz wurde 1956 als akademische Disziplin gegründet und erlebte seitdem mehrere Wellen des Optimismus, gefolgt von Enttäuschungen und dem Verlust von Finanzmitteln (bekannt als „AI Winter“), gefolgt von neuen Ansätzen, Erfolg und erneuter Finanzierung . Die KI-Forschung wurde in ihrer Geschichte größtenteils in Unterfelder unterteilt, die häufig nicht miteinander kommunizieren. Diese Unterfelder basieren auf technischen Überlegungen wie bestimmten Zielen (z. B. „Robotik“ oder „maschinelles Lernen“), der Verwendung bestimmter Werkzeuge („Logik“ oder künstlicher neuronaler Netze) oder tiefen philosophischen Unterschieden. Teilfelder basieren auch auf sozialen Faktoren (bestimmte Institutionen oder die Arbeit bestimmter Forscher).

Die traditionellen Probleme (oder Ziele) der KI-Forschung umfassen Vernunft, Wissensrepräsentation, Planung, Lernen, Verarbeitung natürlicher Sprache, Wahrnehmung und die Fähigkeit, Objekte zu bewegen und zu manipulieren. Allgemeine Intelligenz gehört zu den langfristigen Zielen des Feldes. Ansätze umfassen statistische Methoden, Computational Intelligence und traditionelle symbolische KI. In der KI werden viele Werkzeuge verwendet, darunter Suchversionen und mathematische Optimierung, künstliche neuronale Netze und auf Statistiken, Wahrscheinlichkeit und Wirtschaftlichkeit basierende Methoden. Das AI-Feld stützt sich auf Informatik, Informationstechnik, Mathematik, Psychologie, Linguistik, Philosophie und viele andere.

Das Feld wurde mit der Behauptung gegründet, dass menschliche Intelligenz „so genau beschrieben werden kann, dass eine Maschine dazu gemacht werden kann, sie zu simulieren“. Dies wirft philosophische Argumente über die Natur des Geistes und die Ethik der Schaffung künstlicher Wesen auf, die mit einer menschenähnlichen Intelligenz ausgestattet sind, Themen, die seit der Antike von Mythos, Fiktion und Philosophie untersucht wurden. Manche Menschen betrachten AI auch als eine Gefahr für die Menschheit, wenn sie unvermindert fortschreitet. Andere glauben, dass KI im Gegensatz zu früheren technologischen Revolutionen ein Risiko für Massenarbeitslosigkeit schaffen wird. Allerdings veranstaltet Google einen globalen Wettbewerb, um KI zu entwickeln, die für die Menschheit von Vorteil ist

Im einundzwanzigsten Jahrhundert erlebten die KI-Techniken einen Wiederaufstieg infolge gleichzeitiger Fortschritte bei der Rechnerleistung, großer Datenmengen und theoretischem Verständnis. KI-Techniken sind zu einem unverzichtbaren Bestandteil der Technologiebranche geworden und helfen, viele herausfordernde Probleme in den Bereichen Informatik, Software-Engineering und Betriebsforschung zu lösen.

Ansätze
Es gibt keine etablierte einheitliche Theorie oder ein Paradigma, die die KI-Forschung leiten. Die Forscher stimmen in vielen Punkten nicht überein. Einige der am häufigsten gestellten Fragen, die bisher nicht beantwortet wurden, lauten: Sollte künstliche Intelligenz natürliche Intelligenz durch ein Studium der Psychologie oder Neurobiologie simulieren? Oder ist die Humanbiologie für die KI-Forschung ebenso unerheblich wie die Vogelbiologie für die Luftfahrttechnik? Kann intelligentes Verhalten mit einfachen, eleganten Prinzipien (wie Logik oder Optimierung) beschrieben werden? Oder ist es zwingend erforderlich, eine große Anzahl völlig unabhängiger Probleme zu lösen?

Kybernetik und Gehirnsimulation
In den 1940er und 1950er Jahren untersuchte eine Reihe von Forschern die Verbindung zwischen Neurobiologie, Informationstheorie und Kybernetik. Einige von ihnen bauten Maschinen, die elektronische Netzwerke verwendeten, um rudimentäre Intelligenz zu zeigen, wie die Schildkröten von W. Gray Walter und das Johns Hopkins Beast. Viele dieser Forscher trafen sich zu Treffen der Teleological Society an der Princeton University und dem Ratio Club in England. Bis 1960 wurde dieser Ansatz weitgehend aufgegeben, obwohl Elemente davon in den 1980er Jahren wiederbelebt werden würden.

Symbolisch
Als Mitte der fünfziger Jahre der Zugang zu digitalen Computern möglich wurde, begann die KI-Forschung, die Möglichkeit zu untersuchen, dass die menschliche Intelligenz auf die Manipulation von Symbolen reduziert werden kann. Die Forschung konzentrierte sich auf drei Institutionen: Carnegie Mellon University, Stanford und MIT, und wie unten beschrieben, entwickelte jede ihre eigenen Forschungsmethoden. John Haugeland nannte diese symbolischen Ansätze für AI „Good old fashioned AI“ oder „GOFAI“. In den 1960er Jahren hatten symbolische Ansätze großen Erfolg bei der Simulation von Denken auf hohem Niveau in kleinen Demonstrationsprogrammen erzielt. Ansätze, die auf Kybernetik oder künstlichen neuronalen Netzwerken basieren, wurden aufgegeben oder in den Hintergrund gedrängt. Die Forscher der 1960er und 1970er Jahre waren überzeugt, dass symbolische Ansätze letztendlich eine Maschine mit künstlicher allgemeiner Intelligenz schaffen könnten, und betrachteten dies als das Ziel ihres Feldes.

Kognitive Simulation
Wirtschaftswissenschaftler Herbert Simon und Allen Newell studierten menschliche Problemlösungsfähigkeiten und versuchten, sie zu formalisieren, und ihre Arbeit legte den Grundstein auf dem Gebiet der künstlichen Intelligenz sowie der Kognitionswissenschaft, der Operationsforschung und der Managementwissenschaft. Ihr Forschungsteam nutzte die Ergebnisse psychologischer Experimente, um Programme zu entwickeln, die die Techniken simulierten, mit denen Menschen Probleme lösen. Diese an der Carnegie Mellon University angesiedelte Tradition mündete schließlich in der Entwicklung der Soar-Architektur in der Mitte der 1980er Jahre.

Logikbasiert
Im Gegensatz zu Simon und Newell war John McCarthy der Ansicht, dass Maschinen kein menschliches Denken simulieren müssen, sondern stattdessen versuchen sollten, das Wesen abstrakten Denkens und Problemlösungsprozesses zu finden, unabhängig davon, ob Menschen dieselben Algorithmen verwenden. Sein Labor in Stanford (SAIL) konzentrierte sich auf die Verwendung formaler Logik, um eine Vielzahl von Problemen zu lösen, einschließlich der Darstellung von Wissen, dem Planen und Lernen. Logik stand auch im Mittelpunkt der Arbeit an der University of Edinburgh und anderswo in Europa, die zur Entwicklung der Programmiersprache Prolog und der Wissenschaft der Logikprogrammierung führte.

Anti-Logik oder unansehnlich
Forscher am MIT (wie Marvin Minsky und Seymour Papert) stellten fest, dass das Lösen schwieriger Probleme beim Sehen und bei der Verarbeitung natürlicher Sprache Ad-hoc-Lösungen erfordert – sie argumentierten, dass es kein einfaches und allgemeines Prinzip (wie Logik) gibt, das alle Aspekte erfasst intelligentes Verhalten. Roger Schank beschrieb ihre „Anti-Logic“ -Ansätze als „Scruffy“ (im Gegensatz zu den „ordentlichen“ Paradigmen an der CMU und Stanford). Wissensdatenbanken (wie beispielsweise Cyc von Doug Lenat) sind ein Beispiel für eine „verkrüppelte“ KI, da sie von Hand erstellt werden müssen, ein kompliziertes Konzept zu einem Zeitpunkt.

Wissensbasiert
Als um 1970 Computer mit großem Speicher verfügbar wurden, begannen Forscher aus allen drei Traditionen, Wissen in KI-Anwendungen zu integrieren. Diese „Wissensrevolution“ führte zur Entwicklung und Einführung von Expertensystemen (eingeführt von Edward Feigenbaum), der ersten wirklich erfolgreichen Form von KI-Software. Die Schlüsselkomponente auf Systemsystemen für alle Expertensysteme ist die Wissensdatenbank, in der Fakten und Regeln gespeichert sind, die die KI veranschaulichen. Die Wissensrevolution wurde auch durch die Erkenntnis angetrieben, dass viele einfache KI-Anwendungen ein enormes Wissen erfordern würden.

Untersymbolisch
In den 1980er Jahren schien der Fortschritt in der symbolischen KI zum Stillstand gekommen zu sein, und viele glaubten, dass symbolische Systeme niemals alle Prozesse der menschlichen Wahrnehmung, insbesondere Wahrnehmung, Robotik, Lernen und Mustererkennung, imitieren könnten. Eine Reihe von Forschern begann, „sub-symbolische“ Ansätze für spezifische KI-Probleme zu untersuchen. Subsymbolische Methoden schaffen es, sich der Intelligenz ohne spezifische Wissensrepräsentation zu nähern.

Verkörperte Intelligenz
Dies beinhaltet eine verankerte, lokalisierte, verhaltensorientierte und eine Nouvelle-KI. Forscher aus dem verwandten Gebiet der Robotik wie Rodney Brooks lehnten die symbolische KI ab und konzentrierten sich auf die grundlegenden Konstruktionsprobleme, die es Robotern ermöglichen würden, sich zu bewegen und zu überleben. Ihre Arbeit belebte den nicht-symbolischen Standpunkt der frühen Kybernetikforscher der 1950er Jahre und führte die Verwendung der Kontrolltheorie in der KI wieder ein. Dies fiel zeitlich mit der Entwicklung der verkörperten Geistesthese im verwandten Bereich der Kognitionswissenschaft zusammen: der Vorstellung, dass Aspekte des Körpers (wie Bewegung, Wahrnehmung und Visualisierung) für höhere Intelligenz erforderlich sind.

In der Entwicklungsrobotik werden Entwicklungsansätze entwickelt, die es dem Roboter ermöglichen, Repertoires neuartiger Fähigkeiten durch autonome Selbsterforschung, soziale Interaktion mit menschlichen Lehrern und den Einsatz von Führungsmechanismen (aktives Lernen, Reifung, motorische Synergien usw.) zu akkumulieren.

Computational Intelligence und Soft Computing
Das Interesse an neuronalen Netzwerken und „Verbindungismus“ wurde Mitte der achtziger Jahre von David Rumelhart und anderen wiederbelebt. Künstliche neuronale Netze sind ein Beispiel für Soft Computing – sie sind Lösungen für Probleme, die nicht mit absoluter logischer Sicherheit gelöst werden können und bei denen eine ungefähre Lösung oft ausreichend ist. Andere Soft-Computing-Ansätze für die KI umfassen Fuzzy-Systeme, evolutionäre Berechnungen und viele statistische Werkzeuge. Die Anwendung des Soft-Computing auf die KI wird von der aufstrebenden Disziplin der Computational Intelligence kollektiv untersucht.

Statistisches Lernen
Ein Großteil der traditionellen GOFAI wurde mit Ad-hoc-Patches zu symbolischen Berechnungen festgefahren, die mit ihren eigenen Spielzeugmodellen funktionierten, aber nicht zu den Ergebnissen der realen Welt verallgemeinerten. In den 1990er Jahren verwendeten KI-Forscher jedoch ausgefeilte mathematische Werkzeuge, wie beispielsweise Hidden-Markov-Modelle (HMM), Informationstheorie und normative Bayes’sche Entscheidungstheorie, um konkurrierende Architekturen zu vergleichen oder zu vereinheitlichen. Die gemeinsame mathematische Sprache erlaubte ein hohes Maß an Zusammenarbeit mit etablierten Bereichen (wie Mathematik, Wirtschaftswissenschaften oder Operations Research). Verglichen mit GOFAI erhielten neue Techniken des „statistischen Lernens“ wie HMM und neuronale Netzwerke in vielen praktischen Bereichen wie Data Mining eine höhere Genauigkeit, ohne notwendigerweise ein semantisches Verständnis der Datensätze zu erlangen. Die zunehmenden Erfolge mit realen Daten führten zu einem zunehmenden Schwerpunkt auf dem Vergleich verschiedener Ansätze mit gemeinsam genutzten Testdaten, um festzustellen, welcher Ansatz in einem breiteren Kontext als der, der von idiosynkratischen Spielzeugmodellen bereitgestellt wird, am besten abschneidet; Die KI-Forschung wurde immer wissenschaftlicher. Heutzutage sind Ergebnisse von Experimenten oft streng messbar und manchmal (schwer) reproduzierbar. Unterschiedliche statistische Lerntechniken haben unterschiedliche Einschränkungen. Zum Beispiel kann das grundlegende HMM die unendlichen möglichen Kombinationen der natürlichen Sprache nicht modellieren. Kritiker bemerken, dass die Verlagerung von GOFAI hin zu statistischem Lernen oft auch eine Abkehr von der erklärbaren KI darstellt. In der AGI-Forschung warnen einige Wissenschaftler davor, sich auf das statistische Lernen zu verlassen, und argumentieren, dass die Erforschung der GOFAI weiterhin erforderlich sein wird, um allgemeine Erkenntnisse zu erlangen.

Ansätze integrieren

Intelligentes Agentenparadigma
Ein intelligenter Agent ist ein System, das seine Umgebung wahrnimmt und Maßnahmen ergreift, um seine Erfolgschancen zu maximieren. Die einfachsten intelligenten Agenten sind Programme, die spezifische Probleme lösen. Zu den komplizierteren Agenten gehören Menschen und Organisationen von Menschen (z. B. Unternehmen). Das Paradigma ermöglicht es den Forschern, verschiedene Ansätze mit isolierten Problemen direkt zu vergleichen oder sogar zu kombinieren, indem gefragt wird, welcher Agent am besten eine bestimmte „Zielfunktion“ maximiert. Ein Agent, der ein bestimmtes Problem löst, kann einen beliebigen Ansatz verwenden, der funktioniert. Einige Agenten sind symbolisch und logisch, andere sind subsymbolische künstliche neuronale Netzwerke und andere verwenden möglicherweise neue Ansätze. Das Paradigma bietet Forschern auch eine gemeinsame Sprache für die Kommunikation mit anderen Bereichen – wie Entscheidungstheorie und Wirtschaftswissenschaften -, die auch Konzepte abstrakter Agenten verwenden. Der Aufbau eines kompletten Agenten erfordert, dass sich Forscher mit realistischen Integrationsproblemen befassen. Da beispielsweise sensorische Systeme unsichere Informationen über die Umgebung liefern, müssen Planungssysteme in der Lage sein, bei Unsicherheit zu funktionieren. Das Paradigma des intelligenten Agenten wurde in den 1990er Jahren weitgehend akzeptiert.
Agentenarchitekturen und kognitive Architekturen
Forscher haben Systeme entwickelt, um intelligente Systeme aus interagierenden intelligenten Agenten in einem Multi-Agent-System aufzubauen. Ein hierarchisches Steuersystem bietet eine Brücke zwischen der sub-symbolischen KI auf niedrigsten, reaktiven Ebenen und der traditionellen symbolischen KI auf den höchsten Ebenen, wobei entspannte Zeiteinschränkungen die Planung und Weltmodellierung ermöglichen. Einige kognitive Architekturen werden speziell für ein enges Problem entwickelt. Andere, wie Soar, sind so konzipiert, dass sie die menschliche Wahrnehmung nachahmen und Einblick in die allgemeine Intelligenz gewähren. Moderne Erweiterungen von Soar sind hybride intelligente Systeme, die sowohl symbolische als auch subsymbolische Komponenten enthalten.

Werkzeuge

AI hat eine Vielzahl von Tools entwickelt, um die schwierigsten Probleme in der Informatik zu lösen. Einige der allgemeinsten dieser Methoden werden im Folgenden beschrieben.

Suche und Optimierung
Viele Probleme in der KI können theoretisch durch intelligentes Durchsuchen vieler möglicher Lösungen gelöst werden: Die Vernunft kann auf das Durchführen einer Suche reduziert werden. Zum Beispiel kann ein logischer Beweis als Suche nach einem Pfad betrachtet werden, der von den Voraussetzungen zu den Schlussfolgerungen führt, wobei jeder Schritt die Anwendung einer Inferenzregel ist. Planungsalgorithmen durchsuchen Bäume von Zielen und Unterzielen und versuchen, einen Weg zu einem Ziel zu finden, einem Prozess, der als Mittelwertanalyse bezeichnet wird. Robotik-Algorithmen zum Bewegen von Gliedmaßen und zum Ergreifen von Objekten verwenden lokale Suchvorgänge im Konfigurationsbereich. Viele Lernalgorithmen verwenden Suchalgorithmen, die auf Optimierung basieren.

Einfache, erschöpfende Suchvorgänge reichen für die meisten Probleme in der realen Welt selten aus: Der Suchraum (die Anzahl der zu durchsuchenden Orte) wächst schnell auf astronomische Zahlen. Das Ergebnis ist eine Suche, die zu langsam ist oder nie abgeschlossen wird. Die Lösung für viele Probleme besteht darin, „Heuristiken“ oder „Faustregeln“ zu verwenden, die Entscheidungen zu Gunsten derjenigen vorrangig machen, die ein Ziel eher erreichen, und dies in einer kürzeren Anzahl von Schritten. In einigen Suchmethoden können Heuristiken auch dazu dienen, einige Auswahlmöglichkeiten vollständig zu eliminieren, bei denen es unwahrscheinlich ist, dass sie zu einem Ziel führen (genannt „Suche nach dem Suchbaum“). Die Heuristiken liefern dem Programm eine „beste Vermutung“ für den Weg, auf dem die Lösung liegt. Heuristiken beschränken die Suche nach Lösungen auf eine kleinere Stichprobengröße.

Eine ganz andere Art der Suche kam in den 1990er Jahren aufgrund der mathematischen Theorie der Optimierung zum Tragen. Bei vielen Problemen ist es möglich, die Suche mit einer Form von Vermutungen zu beginnen und die Vermutung dann schrittweise zu verfeinern, bis keine weiteren Verfeinerungen vorgenommen werden können. Diese Algorithmen können als Blind Hill-Climbing visualisiert werden: Wir beginnen mit der Suche an einem zufälligen Punkt in der Landschaft, und dann bewegen wir uns durch Sprünge oder Schritte weiter bergauf, bis wir den Gipfel erreichen. Andere Optimierungsalgorithmen sind simuliertes Tempern, Strahlensuche und Zufallsoptimierung.

Die evolutionäre Berechnung verwendet eine Form der Optimierungssuche. Zum Beispiel können sie mit einer Population von Organismen (den Vermutungen) beginnen und ihnen dann erlauben, zu mutieren und zu rekombinieren, wobei sie nur das geeignetste auswählen, um jede Generation zu überleben (die Vermutungen verfeinern). Klassische evolutionäre Algorithmen umfassen genetische Algorithmen, die Programmierung der Genexpression und die genetische Programmierung. Alternativ können verteilte Suchprozesse über Schwarmintelligenz-Algorithmen koordiniert werden. Zwei beliebte Schwarmalgorithmen, die bei der Suche verwendet werden, sind die Partikelschwarmoptimierung (inspiriert durch Vogelbeflockung) und die Ameisenkolonieoptimierung (inspiriert von Ameisenwegen).

Logik
Logik wird zur Darstellung von Wissen und zur Problemlösung verwendet, kann aber auch auf andere Probleme angewendet werden. Zum Beispiel verwendet der Satplan-Algorithmus Logik zum Planen, und die induktive Logikprogrammierung ist eine Methode zum Lernen.

In der KI-Forschung werden verschiedene Formen der Logik verwendet. Die Aussagenlogik beinhaltet Wahrheitsfunktionen wie „oder“ und „nicht“. Die Logik erster Ordnung fügt Quantifizierer und Prädikate hinzu und kann Fakten über Objekte, ihre Eigenschaften und ihre Beziehungen zueinander ausdrücken. Die Fuzzy-Set-Theorie ordnet vagen Aussagen wie „Alice is old“ (oder reich oder groß oder hungrig), die zu linguistisch zu ungenau sind, um völlig wahr oder falsch zu sein, einen „Wahrheitsgrad“ (zwischen 0 und 1) zu. Die Fuzzy-Logik wird erfolgreich in Steuersystemen eingesetzt, damit Experten unbestimmte Regeln einbringen können, z. B. „Wenn Sie sich in der Nähe der Zielstation befinden und sich schnell bewegen, erhöhen Sie den Bremsdruck des Zugs“; Diese vagen Regeln können dann im System numerisch verfeinert werden. Die Fuzzy-Logik lässt sich in Wissensbasen nicht gut skalieren. Viele KI-Forscher hinterfragen die Gültigkeit der Verkettung von Fuzzy-Logik-Folgerungen.

Standardlogiken, nicht-monotone Logiken und Umschreibungen sind Formen der Logik, die dazu dienen, das Standarddenken und das Qualifikationsproblem zu unterstützen. Es wurden mehrere Erweiterungen der Logik entwickelt, um mit bestimmten Wissensgebieten umzugehen, z. B.: Beschreibungslogik; Situationskalkül, Ereigniskalkül und Fließenkalkül (zur Darstellung von Ereignissen und Zeit); Kausalrechnung Glaubenskalkül; und modale Logik.

Insgesamt ist die qualitative symbolische Logik spröde und skaliert schlecht, wenn Lärm oder andere Unsicherheiten auftreten. Es gibt zahlreiche Ausnahmen zu Regeln, und für logische Systeme ist es schwierig, bei widersprüchlichen Regeln zu funktionieren.

Probabilistische Methoden für unsicheres Denken
Viele Probleme in der KI (beim Denken, Planen, Lernen, Wahrnehmen und Robotik) erfordern, dass der Agent mit unvollständigen oder unsicheren Informationen arbeitet. KI-Forscher haben eine Reihe leistungsfähiger Werkzeuge entwickelt, um diese Probleme mit Methoden der Wahrscheinlichkeitstheorie und der Wirtschaft zu lösen.

Bayesianische Netzwerke sind ein sehr allgemeines Werkzeug, das für eine Vielzahl von Problemen verwendet werden kann: Argumentation (mit dem Bayesian Inferenz-Algorithmus), Lernen (mit dem Erwartungs-Maximierungs-Algorithmus), Planung (mit Entscheidungsnetzwerken) und Wahrnehmung (mit dynamischen Bayesian-Netzwerken) ). Probabilistische Algorithmen können auch zum Filtern, Vorhersagen, Glätten und Auffinden von Erklärungen für Datenströme verwendet werden, wodurch Wahrnehmungssysteme dabei helfen, Prozesse zu analysieren, die im Laufe der Zeit ablaufen (z. B. versteckte Markov-Modelle oder Kalman-Filter). Verglichen mit der symbolischen Logik ist der formale Bayes-Inferenz rechenintensiv. Damit die Inferenz nachvollziehbar ist, müssen die meisten Beobachtungen bedingt voneinander unabhängig sein. Komplizierte Diagramme mit Diamanten oder anderen „Schleifen“ (ungerichteten Zyklen) können eine ausgeklügelte Methode wie Markov Chain Monte Carlo erfordern, die ein Ensemble von zufälligen Spaziergängern im gesamten Bayes-Netzwerk verbreitet und versucht, sich zu einer Bewertung der bedingten Wahrscheinlichkeiten zu konvergieren. Bayesianische Netzwerke werden in Xbox Live verwendet, um Spieler zu bewerten und zu vergleichen. Gewinne und Verluste sind „Beweise“ dafür, wie gut ein Spieler ist. AdSense verwendet ein Bayesianisches Netzwerk mit über 300 Millionen Kanten, um zu erfahren, welche Anzeigen geschaltet werden sollen.

Ein Schlüsselbegriff aus der Wirtschaftswissenschaft ist „Nutzen“: ein Maß dafür, wie wertvoll etwas für einen intelligenten Agenten ist. Es wurden genaue mathematische Werkzeuge entwickelt, die analysieren, wie ein Agent Entscheidungen treffen und planen kann, wobei er die Entscheidungstheorie, die Entscheidungsanalyse und die Informationswerttheorie verwendet. Zu diesen Tools gehören Modelle wie Markov-Entscheidungsprozesse, dynamische Entscheidungsnetzwerke, Spieltheorie und Mechanismusdesign.

Klassifikatoren und statistische Lernmethoden
Die einfachsten KI-Anwendungen können in zwei Typen unterteilt werden: Klassifizierer („wenn glänzend, dann Diamant“) und Controller („wenn glänzend, dann holen“). Controller klassifizieren jedoch auch Bedingungen vor dem Ableiten von Aktionen. Daher ist die Klassifizierung ein zentraler Bestandteil vieler KI-Systeme. Klassifizierer sind Funktionen, die Mustervergleich verwenden, um eine engste Übereinstimmung zu ermitteln. Sie können anhand von Beispielen abgestimmt werden, was sie für die Verwendung in der KI sehr attraktiv macht. Diese Beispiele sind als Beobachtungen oder Muster bekannt. Beim beaufsichtigten Lernen gehört jedes Muster zu einer bestimmten vordefinierten Klasse. Eine Klasse kann als eine Entscheidung betrachtet werden, die getroffen werden muss. Alle Beobachtungen zusammen mit ihren Klassenbezeichnungen werden als Datensatz bezeichnet. Wenn eine neue Beobachtung eingeht, wird diese Beobachtung basierend auf früheren Erfahrungen klassifiziert.

Ein Klassifikator kann auf verschiedene Arten trainiert werden. Es gibt viele statistische und maschinelle Lernansätze. Der Entscheidungsbaum ist vielleicht der am weitesten verbreitete Algorithmus für maschinelles Lernen. Weitere weit verbreitete Klassifizierer sind das neuronale Netzwerk, der k-next-next-next-Neighbor-Algorithmus, Kernel-Methoden wie die Support Vector Machine (SVM), das Gaußsche Mischungsmodell und der äußerst beliebte naive Bayes-Klassifikator. Die Leistung des Klassifizierers hängt stark von den Eigenschaften der zu klassifizierenden Daten ab, wie z. B. Größe der Datenmenge, Dimensionalität und Geräuschpegel. Modellbasierte Klassifikatoren funktionieren gut, wenn das angenommene Modell sehr gut für die tatsächlichen Daten geeignet ist. Ansonsten, wenn kein übereinstimmendes Modell verfügbar ist und wenn nur die Genauigkeit (anstelle von Geschwindigkeit oder Skalierbarkeit) das einzige Problem ist, ist es allgemein bekannt, dass diskriminierende Klassifizierer (insbesondere SVM) tendenziell genauer sind als modellbasierte Klassifizierer wie „naive Bayes“. auf den meisten praktischen Datensätzen.

Künstliche neurale Netzwerke
Neuronale Netzwerke oder neuronale Netze wurden von der Architektur der Neuronen im menschlichen Gehirn inspiriert. Ein einfaches „Neuron“ N akzeptiert Eingaben von mehreren anderen Neuronen, von denen jedes bei Aktivierung (oder „Abfeuern“) eine gewichtete „Abstimmung“ für oder gegen das „Neuron“ N abgibt, ob das Neuron N selbst aktiviert werden soll. Für das Lernen ist ein Algorithmus erforderlich, um diese Gewichte basierend auf den Trainingsdaten anzupassen. Ein einfacher Algorithmus („Feuer zusammen, zusammen verdrahten“) besteht darin, das Gewicht zwischen zwei verbundenen Neuronen zu erhöhen, wenn die Aktivierung von einem die erfolgreiche Aktivierung eines anderen auslöst. Die Netze bilden „Konzepte“, die auf ein Teilnetz von gemeinsam genutzten Neuronen verteilt sind, die zusammen feuern. Ein Konzept, das „Bein“ bedeutet, kann mit einem Subnetzwerk verbunden sein, das „Fuß“ bedeutet und den Klang für „Fuß“ enthält. Neuronen haben ein kontinuierliches Aktivierungsspektrum; Darüber hinaus können Neuronen Eingaben auf nichtlineare Weise verarbeiten, anstatt direkte Stimmen abzuwägen. Moderne neuronale Netze können sowohl kontinuierliche Funktionen als auch überraschend digitale logische Operationen erlernen. Zu den frühen Erfolgen von Neuronalen Netzen gehörten die Vorhersage des Aktienmarktes und (1995) eines meist selbstfahrenden Autos. In den 2010er Jahren trieben Fortschritte in neuronalen Netzwerken, die tiefes Lernen nutzen, die KI in das breite öffentliche Bewusstsein und trugen zu einer enormen Erhöhung der KI-Ausgaben von Unternehmen bei. So waren beispielsweise KI-bezogene M & A-Transaktionen im Jahr 2017 mehr als 25-mal so groß wie 2015.

Die Erforschung nichtlernender künstlicher neuronaler Netze begann im Jahrzehnt vor der Gründung des Feldes der KI-Forschung in der Arbeit von Walter Pitts und Warren McCullouch. Frank Rosenblatt hat das Perzeptron erfunden, ein Lernnetzwerk mit einer einzigen Schicht, ähnlich dem alten Konzept der linearen Regression. Zu den frühen Pionieren gehören auch Alexey Grigorevich Ivakhnenko, Teuvo Kohonen, Stephen Grossberg, Kunihiko Fukushima, Christoph von der Malsburg, David Willshaw, Shun-Ichi Amari, Bernard Widrow, John Hopfield, Eduardo R. Caianiello und andere.

Die Hauptkategorien von Netzwerken sind azyklische oder Feedforward-Neuronale Netzwerke (bei denen das Signal nur in eine Richtung durchgeht) und wiederkehrende Neuronale Netzwerke (die Rückmeldungen und Kurzzeitspeicherungen von vorherigen Eingangsereignissen ermöglichen). Zu den beliebtesten Feedforward-Netzwerken gehören Perzeptrons, Multilayer-Perzeptrons und radiale Basisnetzwerke. Neuronale Netze können auf das Problem der intelligenten Steuerung (für Robotik) oder des Lernens angewendet werden, wobei Techniken wie das Hebbian-Lernen („feuern zusammen, zusammen verkabeln“), GMDH oder Konkurrenzlernen zum Einsatz kommen.

Heutzutage werden neuronale Netzwerke häufig mit dem Backpropagation-Algorithmus trainiert, der seit 1970 als der von Seppo Linnainmaa veröffentlichte umgekehrte Modus der automatischen Differenzierung bekannt war und von Paul Werbos in neuronale Netzwerke eingeführt wurde.

Das hierarchische zeitliche Gedächtnis ist ein Ansatz, der einige der strukturellen und algorithmischen Eigenschaften des Neokortex modelliert.

Kurz gesagt, die meisten neuronalen Netzwerke verwenden eine bestimmte Form des Gradientenabfalls in einer von Hand erstellten neuralen Topologie. Einige Forschungsgruppen wie Uber argumentieren jedoch, dass eine einfache Neuroevolution, um neue neuronale Netzwerktopologien und -gewichte zu mutieren, mit hochentwickelten Ansätzen des Gradientenabfalls konkurrieren kann. Ein Vorteil der Neuroevolution ist, dass sie weniger anfällig für „Sackgassen“ ist.

Tiefe neuronale Netze
Deep Learning ist jedes künstliche neuronale Netzwerk, das eine lange Kette von Kausalzusammenhängen erlernen kann. Ein Vorwärtskopplungsnetzwerk mit sechs verborgenen Schichten kann beispielsweise eine siebengliedrige Kausalkette (sechs ausgeblendete Schichten + Ausgabeschicht) lernen und hat eine Tiefe von sieben „Credit Assignment Path“ (CAP). Viele Systeme des tiefen Lernens müssen in der Lage sein, Ketten mit zehn oder mehr kausalen Verbindungen in der Länge zu erlernen. Durch tiefes Lernen sind viele wichtige Teilfelder der künstlichen Intelligenz verändert worden, darunter Computer Vision, Spracherkennung, Verarbeitung natürlicher Sprache und andere.

Gemäß einer Übersicht wurde der Ausdruck „Deep Learning“ 1986 von Rina Dechter in die Machine Learning-Community eingeführt und erlangte Beachtung, nachdem Igor Aizenberg und seine Kollegen ihn 2000 in Artificial Neural Networks eingeführt hatten. Die ersten funktionalen Deep Learning-Netzwerke wurden von Alexey veröffentlicht Grigorevich Ivakhnenko und VG Lapa im Jahr 1965. [Seite benötigt] Diese Netzwerke werden Schicht für Schicht trainiert. Ivakhnenkos Arbeit aus dem Jahr 1971 beschreibt das Lernen eines mehrschichtigen Perceptrons mit mehreren Schichten, das bereits viel tiefer ist als viele spätere Netzwerke. Im Jahr 2006 wurde in einer Veröffentlichung von Geoffrey Hinton und Ruslan Salakhutdinov eine weitere Möglichkeit eingeführt, mehrschichtige neuronale Netze (FNNs) einer Schicht nach der anderen vorzubereiten, wobei jede Schicht nacheinander als unbeaufsichtigte eingeschränkte Boltzmann-Maschine behandelt und dann mit beaufsichtigter Backpropagation verwendet wird Feintuning. Ähnlich wie flache künstliche neuronale Netzwerke können tiefe neuronale Netzwerke komplexe nichtlineare Beziehungen modellieren. In den letzten Jahren haben Fortschritte bei den Algorithmen für maschinelles Lernen und bei Computerhardware zu effizienteren Methoden zum Trainieren tiefer neuronaler Netze geführt, die viele Schichten nichtlinearer verborgener Einheiten und eine sehr große Ausgabeschicht enthalten.

Beim tiefen Lernen werden oft konvolutionelle neuronale Netze (CNNs) verwendet, deren Ursprünge auf das von Kunihiko Fukushima 1980 eingeführte Neocognitron zurückzuführen sind. 1989 wendeten Yann LeCun und ihre Kollegen Backpropagation auf eine solche Architektur an. In den frühen 2000er Jahren verarbeiteten CNNs in einer industriellen Anwendung bereits schätzungsweise 10% bis 20% aller in den USA geschriebenen Schecks. Seit 2011 haben schnelle Implementierungen von CNNs auf GPUs viele visuelle Mustererkennungswettbewerbe gewonnen.

CNNs mit 12 Faltungsschichten wurden in Verbindung mit dem Verstärkungslernen von Deepminds „AlphaGo Lee“ verwendet, dem Programm, das 2016 einen Top-Go-Champion besiegte.

Tiefe wiederkehrende neuronale Netze
Früher wurde tiefes Lernen auch auf das Sequenzlernen mit rekurrenten neuronalen Netzwerken (RNNs) angewendet, die theoretisch vollständig sind und beliebige Programme zur Verarbeitung beliebiger Sequenzen von Eingaben ausführen können. Die Tiefe eines RNN ist unbegrenzt und hängt von der Länge seiner Eingabesequenz ab. Daher ist ein RNN ein Beispiel für tiefes Lernen. RNNs können durch Gradientenabstieg trainiert werden, leiden jedoch unter dem verschwindenden Gradientenproblem. 1992 konnte gezeigt werden, dass ein unbeaufsichtigtes Vor-Training eines Stapels wiederkehrender neuronaler Netze das nachfolgende überwachte Lernen von sequenziellen Problemen beschleunigen kann.

Zahlreiche Forscher verwenden inzwischen Varianten eines NNLs mit Tiefenlernen, das als Long Short Term Memory (LSTM) -Netzwerk (LSTM) von 1997 von Hochreiter & Schmidhuber veröffentlicht wird. LSTM wird häufig von Connectionist Temporal Classification (CTC) trainiert. Bei Google, Microsoft und Baidu hat dieser Ansatz die Spracherkennung revolutioniert. 2015 erlebte beispielsweise Googles Spracherkennung einen dramatischen Leistungssprung von 49% durch CTC-geschultes LSTM, das jetzt über Google Voice für Milliarden von Smartphone-Nutzern verfügbar ist. Google verwendete LSTM auch zur Verbesserung der maschinellen Übersetzung, der Sprachmodellierung und der mehrsprachigen Sprachverarbeitung. LSTM in Verbindung mit CNNs verbesserte außerdem die automatische Bildaufzeichnung und eine Vielzahl anderer Anwendungen.

Fortschritt auswerten
KI ist wie Elektrizität oder Dampfmaschine eine Allzwecktechnologie. Es gibt keinen Konsens darüber, wie man charakterisieren kann, bei welchen Aufgaben sich KI tendenziell auszeichnet. Während Projekte wie AlphaZero es geschafft haben, ihr eigenes Wissen von Grund auf zu generieren, erfordern viele andere Machine Learning-Projekte umfangreiche Schulungsdatensätze. Der Forscher Andrew Ng hat als „höchst unvollkommene Faustregel“ vorgeschlagen, dass „fast alles, was ein typischer Mensch mit weniger als einer Sekunde des Denkens tun kann, wir jetzt oder in naher Zukunft mit KI automatisieren können.“ Moravecs Paradoxon deutet darauf hin, dass die KI den Menschen bei vielen Aufgaben hinterherhinkt, die das menschliche Gehirn speziell entwickelt hat, um gut zu funktionieren.

Spiele bieten einen allgemein bekannten Maßstab für die Bewertung der Fortschrittsraten. AlphaGo um 2016 brachte die Ära der klassischen Benchmark-Benchmarks zu Ende. Spiele mit unvollständigem Wissen stellen die KI auf dem Gebiet der Spieltheorie vor neue Herausforderungen. E-Sports wie StarCraft bieten nach wie vor weitere öffentliche Benchmarks. Es gibt viele Wettbewerbe und Preise wie die Imagenet Challenge, um die Erforschung künstlicher Intelligenz zu fördern. Zu den Hauptwettbewerben gehören allgemeine Maschinenintelligenz, Konversationsverhalten, Data-Mining, Roboterautos und Roboterfußball sowie herkömmliche Spiele.

Das „Nachahmungsspiel“ (eine Interpretation des Turing-Tests von 1950, in dem beurteilt wird, ob ein Computer einen Menschen nachahmen kann) wird heutzutage als zu ausnutzbar angesehen, um einen aussagekräftigen Maßstab zu bilden. Eine Ableitung des Turing-Tests ist der vollständig automatisierte Public-Turing-Test, um Computer und Menschen auseinander zu setzen (CAPTCHA). Wie der Name schon sagt, hilft dies zu bestimmen, dass ein Benutzer eine tatsächliche Person ist und kein Computer, der sich als Mensch ausgibt.Im Gegensatz zum Standard-Turing-Test wird CAPTCHA von einer Maschine verabreicht und auf einen Menschen gerichtet, im Gegensatz zu einer Verabreichung durch einen Menschen und auf eine Maschine. Ein Computer fordert einen Benutzer auf, einen einfachen Test durchzuführen, und generiert dann eine Bewertung für diesen Test. Computer sind nicht in der Lage, das Problem zu lösen. Daher wird davon ausgegangen, dass eine Person den Test durchführt. Ein typischer CAPTCHA-Typ ist der Test, bei dem verzerrte Buchstaben, Zahlen oder Symbole eingegeben werden müssen, die in einem Bild erscheinen, das von einem Computer nicht erkannt werden kann.

Die vorgeschlagenen Tests für „universelle Intelligenz“ zielen darauf ab, zu vergleichen, wie gut Maschinen, Menschen und sogar nichtmenschliche Tiere bei generischen Problemstellungen funktionieren. Im Extremfall kann die Testsuite jedes mögliche Problem enthalten, gewichtet nach Kolmogorov-Komplexität; Unglücklicherweise neigen diese Problemgruppen dazu, von verarmten Musterübereinstimmungsübungen dominiert zu werden, bei denen eine abgestimmte KI die menschliche Leistungsfähigkeit leicht übertreffen kann.