Wissensrepräsentation und Argumentation

Wissensrepräsentation und Argumentation (KR, KR², KR & R) ist das Gebiet der künstlichen Intelligenz (KI), das dazu dient, Informationen über die Welt in einer Form darzustellen, die ein Computersystem zur Lösung komplexer Aufgaben verwenden kann, z. B. zur Diagnose eines medizinischen Zustands oder zum Dialog in einer natürlichen Sprache. Die Repräsentation von Wissen beinhaltet Erkenntnisse aus der Psychologie, wie Menschen Probleme lösen und Wissen darstellen, um Formalismen zu entwerfen, die die Konstruktion und den Aufbau komplexer Systeme erleichtern. Wissensrepräsentation und Argumentation beinhaltet auch Erkenntnisse aus der Logik, um verschiedene Arten von Argumenten zu automatisieren, wie zum Beispiel die Anwendung von Regeln oder die Beziehungen von Mengen und Teilmengen.

Beispiele für Wissensdarstellungsformalismen umfassen semantische Netze, Systemarchitektur, Rahmen, Regeln und Ontologien. Beispiele für automatisierte Argumentationsmaschinen umfassen Inferenzmaschinen, Theorembeweiser und Klassifizierer.

Die KR-Konferenzreihe wurde ins Leben gerufen, um Ideen und Fortschritte in diesem anspruchsvollen Bereich zu teilen.

Geschichte
Die erste Arbeit in der computergestützten Darstellung von Wissen konzentrierte sich auf allgemeine Problemlöser, wie das von Allen Newell und Herbert A. Simon im Jahr 1959 entwickelte General Problem Solver-System (GPS). Diese Systeme enthielten Datenstrukturen für die Planung und Zerlegung. Das System würde mit einem Ziel beginnen. Es würde dann dieses Ziel in Unterziele zerlegen und dann Strategien entwickeln, die jedes Unterziel erreichen könnten.

In diesen frühen Tagen der KI wurden auch allgemeine Suchalgorithmen wie A * entwickelt. Die amorphen Problemdefinitionen für Systeme wie GPS bedeuteten jedoch, dass sie nur für sehr eingeschränkte Spieldomänen (z. B. die „Blockwelt“) funktionierten. KI-Forscher wie Ed Feigenbaum und Frederick Hayes-Roth stellten fest, dass es notwendig war, Systeme auf Probleme zu konzentrieren, die nicht mit Spielzeugen zu tun haben.

Das Scheitern dieser Bemühungen führte zur kognitiven Revolution in der Psychologie und zur Phase der KI, die sich auf die Repräsentation von Wissen konzentrierte, und führte zu Expertensystemen in den 1970ern und 80ern, Produktionssystemen, Rahmensprachen usw. Anstatt allgemeine Problemlöser, AI hat seinen Fokus auf Expertensysteme gelegt, die für eine bestimmte Aufgabe, z. B. medizinische Diagnose, der menschlichen Kompetenz entsprechen.

Expertensysteme gaben uns die heute noch gebräuchliche Terminologie, in der KI-Systeme in eine Wissensdatenbank mit Fakten über die Welt und Regeln und eine Inferenzmaschine unterteilt sind, die die Regeln auf die Wissensbasis anwendet, um Fragen zu beantworten und Probleme zu lösen. In diesen frühen Systemen war die Wissensbasis tendenziell eine eher flache Struktur, im Wesentlichen Aussagen über die Werte der von den Regeln verwendeten Variablen.

Neben Expertensystemen entwickelten andere Forscher Mitte der achtziger Jahre das Konzept von Frame-basierten Sprachen. Ein Rahmen ähnelt einer Objektklasse: Es handelt sich um eine abstrakte Beschreibung einer Kategorie, die Dinge in der Welt, Probleme und mögliche Lösungen beschreibt. Ursprünglich wurden Rahmen für Systeme verwendet, die auf menschliche Interaktion ausgerichtet sind, z. B. das Verständnis der natürlichen Sprache und der sozialen Einstellungen, in denen verschiedene Standarderwartungen, z. B. die Bestellung von Speisen in einem Restaurant, den Suchraum einschränken und dem System ermöglichen, geeignete Reaktionen auf dynamische Situationen zu wählen.

Es dauerte nicht lange, bis die Rahmengemeinschaften und die regelbasierten Forscher erkannten, dass es zwischen ihren Ansätzen Synergien gab. Frames waren gut für die Darstellung der realen Welt, beschrieben als Klassen, Unterklassen, Slots (Datenwerte) mit verschiedenen Einschränkungen für mögliche Werte. Die Regeln waren gut, um komplexe Logik darzustellen und zu nutzen, beispielsweise den Prozess zur Erstellung einer medizinischen Diagnose. Es wurden integrierte Systeme entwickelt, die Frames und Regeln kombinieren. Eines der mächtigsten und bekanntesten war 1983 die Knowledge Engineering Environment (KEE) von Intellicorp. KEE hatte eine komplette Regelmaschine mit Vorwärts- und Rückwärtsverkettung. Es verfügte auch über eine komplette, rahmenbasierte Wissensbasis mit Triggern, Zeitfenstern (Datenwerten), Vererbung und Nachrichtenweiterleitung. Obwohl Message Passing eher von der objektorientierten Community als von AI stammt, wurde es von KI-Forschern schnell in Umgebungen wie KEE und in den Betriebssystemen für Lisp-Maschinen von Symbolics, Xerox und Texas Instruments aufgenommen.

Die Integration von Frames, Regeln und objektorientierter Programmierung wurde maßgeblich durch kommerzielle Projekte wie KEE und Symbolics aus verschiedenen Forschungsprojekten vorangetrieben. Zur gleichen Zeit, als dies geschah, gab es eine andere Forschung, die weniger kommerziell ausgerichtet war und von mathematischer Logik und automatisiertem Theorembeweis getrieben wurde. Eine der einflussreichsten Sprachen in dieser Forschung war die KL-ONE-Sprache der Mitte der 80er Jahre. KL-ONE war eine Rahmensprache, die eine strikte Semantik und formale Definitionen für Begriffe wie eine Is-A-Beziehung hatte. KL-ONE und von ihm beeinflusste Sprachen wie Loom verfügten über eine automatisierte Logik, die auf formaler Logik und nicht auf IF-THEN-Regeln beruhte. Dieser Begründer wird Klassifizierer genannt. Ein Klassifizierer kann einen Satz von Deklarationen analysieren und neue Assertionen ableiten, z. B. eine Klasse als Unterklasse oder Oberklasse einer anderen Klasse definieren, die nicht formal angegeben wurde. Auf diese Weise kann der Klassifizierer als Inferenzmaschine fungieren und neue Fakten aus einer vorhandenen Wissensbasis ableiten. Der Klassifizierer kann auch eine Konsistenzprüfung auf einer Wissensbasis durchführen (die im Fall von KL-ONE-Sprachen auch als Ontologie bezeichnet wird).

Ein weiterer Bereich der Wissensrepräsentationsforschung war das Problem des gesunden Menschenverstands. Eine der ersten Erkenntnisse aus dem Versuch, Software zu entwickeln, die mit der natürlichen Sprache des Menschen funktionieren kann, bestand darin, dass Menschen regelmäßig auf ein umfassendes Wissen über die reale Welt zurückgreifen, das wir als selbstverständlich voraussetzen, das aber einem künstlichen Agenten gar nicht offensichtlich ist . Grundprinzipien der Common Sense-Physik, Kausalität, Absichten usw. Ein Beispiel ist das Rahmenproblem, dass es in einer ereignisgesteuerten Logik Axiome geben muss, die besagen, dass Dinge die Position von einem Moment zum nächsten halten, es sei denn, sie werden durch äußere Kraft bewegt . Um einen echten Agenten für künstliche Intelligenz zu entwickeln, der sich in natürlicher Sprache mit Menschen unterhalten kann und grundlegende Aussagen und Fragen zur Welt verarbeiten kann, ist es wichtig, diese Art von Wissen darzustellen. Eines der ehrgeizigsten Programme zur Lösung dieses Problems war das Cyc-Projekt von Doug Lenat. Cyc etablierte eine eigene Framesprache und ließ eine große Anzahl von Analysten in dieser Sprache verschiedene Bereiche des gesunden Menschenverstandes dokumentieren. Das in Cyc erfasste Wissen beinhaltete Modelle des gesunden Menschenverstandes wie Zeit, Kausalität, Physik, Absichten und viele andere.

Ausgangspunkt für die Wissensrepräsentation ist die von Brian C. Smith 1985 erstmals formalisierte Wissensrepräsentationshypothese:

Jeder mechanisch verkörperte intelligente Prozess wird aus strukturellen Bestandteilen bestehen, die a) wir als externe Beobachter natürlich annehmen, um eine aussagekräftige Darstellung des Wissens, das der Gesamtprozess aufweist, darzustellen, und b) unabhängig von einer solchen externen semantischen Zuordnung eine formale, aber ursächliche und ursächliche Rolle spielen eine wesentliche Rolle bei der Erzeugung des Verhaltens, das dieses Wissen manifestiert.

Derzeit ist einer der aktivsten Bereiche der Wissensrepräsentationsforschung Projekte im Zusammenhang mit dem Semantic Web. Das Semantic Web versucht, über das aktuelle Internet eine Schicht Semantik (Bedeutung) hinzuzufügen. Anstatt Websites und Seiten über Schlüsselwörter zu indizieren, erstellt das Semantic Web umfangreiche Ontologien von Konzepten. Die Suche nach einem Konzept ist effektiver als die Suche nach reinem Text. Rahmensprachen und automatische Klassifizierung spielen eine wichtige Rolle in der Vision für das zukünftige semantische Web. Die automatische Klassifizierung gibt Entwicklern die Technologie, um in einem sich ständig weiterentwickelnden Wissensnetzwerk Ordnung zu schaffen. Die Definition von Ontologien, die statisch sind und sich nicht spontan entwickeln können, wäre für internetbasierte Systeme sehr einschränkend. Die Klassifizierungstechnologie bietet die Möglichkeit, mit der dynamischen Umgebung des Internets umzugehen.

In den jüngsten Projekten, die hauptsächlich von der Defense Advanced Research Projects Agency (DARPA) finanziert werden, wurden Rahmensprachen und Klassifizierer mit auf XML basierenden Auszeichnungssprachen integriert. Das Resource Description Framework (RDF) bietet die grundlegenden Funktionen zum Definieren von Klassen, Unterklassen und Eigenschaften von Objekten. Die Web Ontology Language (OWL) bietet zusätzliche Semantikebenen und ermöglicht die Integration in Klassifizierungsmodule.

Überblick
Wissensrepräsentation ist das Gebiet der künstlichen Intelligenz, das sich auf das Entwerfen von Computerrepräsentationen konzentriert, die Informationen über die Welt erfassen, die zur Lösung komplexer Probleme verwendet werden können.

Die Begründung für die Darstellung von Wissen ist, dass herkömmlicher Verfahrenscode nicht der beste Formalismus ist, um komplexe Probleme zu lösen. Die Darstellung von Wissen macht das Definieren und Verwalten komplexer Software einfacher als Verfahrenscode und kann in Expertensystemen verwendet werden.

Durch das Gespräch mit Experten in Bezug auf Geschäftsregeln anstelle von Code wird die semantische Lücke zwischen Benutzern und Entwicklern verringert und die Entwicklung komplexer Systeme wird praktischer.

Wissensrepräsentation geht mit automatisiertem Denken einher, da es eine der Hauptaufgaben der expliziten Wissensrepräsentation ist, über dieses Wissen urteilen zu können, Schlussfolgerungen zu ziehen, neues Wissen durchzusetzen, usw. Praktisch alle Wissensrepräsentationssprachen haben eine Logik für Schlussfolgerungen oder Interferenz als Teil des Systems.

Ein wichtiger Kompromiss bei der Gestaltung eines Wissensrepräsentationsformalismus ist der zwischen Expressivität und Praktikabilität. Der ultimative Wissensrepräsentationsformalismus in Bezug auf Ausdruckskraft und Kompaktheit ist First Order Logic (FOL). Es gibt keinen mächtigeren Formalismus als den, mit dem Mathematiker allgemeine Aussagen über die Welt treffen. Als Wissensrepräsentationsformalismus hat FOL jedoch zwei Nachteile: Benutzerfreundlichkeit und Durchführbarkeit. Die Logik erster Ordnung kann selbst für viele Softwareentwickler einschüchtern. Sprachen, die nicht die vollständige formale Kraft von FOL besitzen, können mit einer Benutzeroberfläche, die für den durchschnittlichen Entwickler praktischer ist, immer noch dieselbe Ausdruckskraft bieten. Das Problem der praktischen Anwendbarkeit ist, dass FOL in gewisser Weise zu ausdrucksstark ist. Mit FOL können Anweisungen erstellt werden (z. B. Quantifizierung über unendliche Mengen), die dazu führen würden, dass ein System niemals beendet wird, wenn es versucht wurde, sie zu überprüfen.

Daher kann eine Untermenge von FOL sowohl einfacher zu verwenden als auch praktischer zu implementieren sein. Dies war eine treibende Motivation für regelbasierte Expertensysteme. IF-THEN-Regeln stellen eine Untermenge von FOL bereit, aber eine sehr nützliche, die auch sehr intuitiv ist. Die Geschichte der meisten frühen KI-Wissensrepräsentationsformalismen; Von Datenbanken über semantische Netze bis hin zu Theorembewertern und Produktionssystemen können verschiedene Entwurfsentscheidungen dahingehend betrachtet werden, ob die Ausdruckskraft oder Berechenbarkeit und Effizienz hervorgehoben werden sollen.

Randall Davis von MIT hat in einem wichtigen Papier von 1993 zu diesem Thema fünf verschiedene Rollen für die Analyse eines Wissensrepräsentationsrahmens skizziert:

Eine Wissensrepräsentation (KR) ist im Wesentlichen ein Surrogat, ein Ersatz für das Ding selbst, das dazu dient, dass eine Entität Konsequenzen durch Nachdenken und nicht durch Handeln bestimmen kann, dh indem sie über die Welt nachdenkt, anstatt in ihr etwas zu unternehmen.
Es ist eine Reihe von ontologischen Verpflichtungen, dh eine Antwort auf die Frage: Inwiefern sollte ich über die Welt nachdenken?
Es handelt sich um eine fragmentarische Theorie des intelligenten Denkens, die in drei Komponenten ausgedrückt wird: (i) das grundlegende Konzept der Repräsentation des intelligenten Denkens; (ii) der Satz von Schlüssen auf die Repräsentationssanktionen; und (iii) die von ihr empfohlenen Schlussfolgerungen.
Es ist ein Medium für eine pragmatisch effiziente Berechnung, dh die Umgebung, in der das Denken ausgeführt wird. Einen Beitrag zu dieser pragmatischen Effizienz liefert die Anleitung, die eine Vertretung für die Organisation von Informationen bereitstellt, um die empfohlenen Schlussfolgerungen zu erleichtern.
Es ist ein Medium des menschlichen Ausdrucks, dh eine Sprache, in der wir Dinge über die Welt sagen.

Wissensrepräsentation und Argumentation sind eine Schlüsseltechnologie für das Semantic Web. Auf dem Frame-Modell basierende Sprachen mit automatischer Klassifizierung bieten zusätzlich zum bestehenden Internet eine Semantikebene. Statt wie bisher üblich über Textzeichenfolgen zu suchen, können Sie logische Abfragen definieren und Seiten finden, die diesen Abfragen zugeordnet sind. Die automatisierte Argumentationskomponente in diesen Systemen ist eine Engine, die als Klassifizierer bekannt ist. Klassifikatoren konzentrieren sich auf die Subsumtionsbeziehungen in einer Wissensbasis und nicht auf Regeln. Ein Klassifizierer kann auf neue Klassen schließen und die Ontologie dynamisch ändern, sobald neue Informationen verfügbar werden. Diese Funktion ist ideal für den sich ständig verändernden und sich ständig weiterentwickelnden Informationsraum des Internets.

Das Semantic Web integriert Konzepte aus Wissensrepräsentation und Argumentation mit XML-basierten Markup-Sprachen. Das Resource Description Framework (RDF) bietet die grundlegenden Funktionen zum Definieren wissensbasierter Objekte im Internet mit grundlegenden Funktionen wie Is-A-Beziehungen und Objekteigenschaften. Die Web Ontology Language (OWL) fügt zusätzliche Semantik hinzu und integriert sich in automatische Klassifizierungsgründe.

Eigenschaften
Im Jahr 1985 kategorisierte Ron Brachman die Kernthemen der Wissensrepräsentation wie folgt:

Primitive Welches zugrunde liegende Framework wird zur Darstellung von Wissen verwendet? Semantische Netzwerke waren eine der ersten Grundformen der Wissensrepräsentation. Auch Datenstrukturen und Algorithmen für die allgemeine Schnellsuche. In diesem Bereich gibt es starke Überschneidungen mit der Forschung in Datenstrukturen und Algorithmen in der Informatik. In frühen Systemen wurde die nach dem Lambda-Kalkül modellierte Programmiersprache Lisp häufig als eine Form funktionaler Wissensrepräsentation verwendet. Rahmen und Regeln waren die nächste Art von Primitiv. Frame-Sprachen verfügten über verschiedene Mechanismen zum Ausdrücken und Erzwingen von Einschränkungen für Rahmendaten. Alle Daten in Frames werden in Slots gespeichert. Slots sind analog zu Beziehungen in der Entity-Relations-Modellierung und zu Objekteigenschaften in der objektorientierten Modellierung. Eine weitere Technik für Grundelemente besteht darin, Sprachen zu definieren, die nach First Order Logic (FOL) modelliert werden. Das bekannteste Beispiel ist Prolog, aber es gibt auch viele Testumgebungen für spezielle Theoreme. Diese Umgebungen können logische Modelle validieren und neue Theorien von vorhandenen Modellen ableiten. Im Wesentlichen automatisieren sie den Prozess, den ein Logiker bei der Analyse eines Modells durchlaufen würde. Die Theorembeweisstechnologie hatte einige spezifische praktische Anwendungen in den Bereichen des Software-Engineerings. Beispielsweise kann der Nachweis erbracht werden, dass ein Softwareprogramm sich streng an eine formale logische Spezifikation hält.

Meta-Darstellung. Dies ist auch als Problem der Reflexion in der Informatik bekannt. Es bezieht sich auf die Fähigkeit eines Formalismus, auf Informationen über seinen eigenen Staat zuzugreifen. Ein Beispiel wäre das Metaobjekt-Protokoll in Smalltalk und CLOS, das Entwicklern Laufzeitzugriff auf die Klassenobjekte bietet und es ihnen ermöglicht, die Struktur der Wissensbasis selbst zur Laufzeit dynamisch neu zu definieren. Metadarstellung bedeutet, dass die Sprache der Wissensrepräsentation selbst in dieser Sprache ausgedrückt wird. In den meisten Frame-basierten Umgebungen wären beispielsweise alle Frames Instanzen einer Frame-Klasse. Dieses Klassenobjekt kann zur Laufzeit geprüft werden, sodass das Objekt seine interne Struktur oder die Struktur anderer Teile des Modells verstehen und sogar ändern kann. In regelbasierten Umgebungen waren die Regeln normalerweise auch Regelklassen. Ein Teil des Meta-Protokolls für Regeln waren die Metaregeln, die das Auslösen von Regeln priorisierten.

Unvollständigkeit. Traditionelle Logik erfordert zusätzliche Axiome und Einschränkungen, um mit der realen Welt im Gegensatz zur Welt der Mathematik umzugehen. Außerdem ist es oft nützlich, einer Aussage Vertrauensgrade zuzuordnen. Das heißt nicht einfach „Sokrates ist ein Mensch“, sondern „Sokrates ist ein Mensch mit einem 50% igen Vertrauen“. Dies war eine der ersten Innovationen aus der Systemforschung von Experten, die zu einigen kommerziellen Instrumenten führte und die Möglichkeit hatte, Sicherheitsfaktoren mit Regeln und Schlussfolgerungen in Verbindung zu bringen. Spätere Forschungen auf diesem Gebiet werden als Fuzzy-Logik bezeichnet.

Definitionen und Universalien vs. Fakten und Vorgaben. Universale sind allgemeine Aussagen über die Welt wie „Alle Menschen sind sterblich“. Fakten sind konkrete Beispiele für Universalien wie „Sokrates ist ein Mensch und daher sterblich“. In logischen Begriffen geht es bei Definitionen und Universalien um universelle Quantifizierung, während es sich bei Tatsachen und Vorgaben um existenzielle Quantifizierungen handelt. Alle Formen der Wissensrepräsentation müssen sich mit diesem Aspekt befassen, und die meisten tun dies mit einer Variante der Mengenlehre, die Universalien als Mengen und Teilmengen und Definitionen als Elemente in diesen Mengen modelliert.

Nicht monotones Denken. Nicht-monotones Denken ermöglicht verschiedene hypothetische Argumente. Das System verknüpft Fakten mit den Regeln und Fakten, die zu ihrer Rechtfertigung herangezogen werden. Wenn sich diese Fakten ändern, wird auch das abhängige Wissen aktualisiert. In regelbasierten Systemen wird diese Fähigkeit als Wahrheitsverwaltungssystem bezeichnet.

Expressive Angemessenheit. Der Standard, den Brachman und die meisten KI-Forscher zur Messung der Ausdrucksadäquanz verwenden, ist in der Regel First Order Logic (FOL). Theoretische Einschränkungen bedeuten, dass eine vollständige Implementierung von FOL nicht praktikabel ist. Die Forscher sollten sich darüber im Klaren sein, wie ausdrucksvoll (wie viel FOL-Ausdrucksstärke) ihre Vertretung beabsichtigen soll.

Argumentation der Effizienz. Dies bezieht sich auf die Laufzeiteffizienz des Systems. Die Aktualisierbarkeit der Wissensbasis und der Grund, neue Schlüsse innerhalb eines angemessenen Zeitraums zu entwickeln. In gewisser Weise ist dies die Kehrseite der Ausdrucksadäquatheit. Im Allgemeinen gilt, je leistungsfähiger eine Repräsentation ist, desto weniger effizient ist ihre Engine für automatisiertes Denken. Die Effizienz war häufig ein Problem, insbesondere für frühe Anwendungen der Technologie der Wissensrepräsentation. Sie wurden normalerweise in interpretierten Umgebungen wie Lisp implementiert, die im Vergleich zu traditionellen Plattformen der damaligen Zeit langsam waren.

Formalisierung von Wissen
Formalere Werkzeuge zur Darstellung von komplexem Wissen sind beispielsweise konzeptuelle Grafiken oder semantische Netzwerke.

Im Bereich der neuen Technologien hat sich die formale Repräsentation von Wissen im Bereich der künstlichen Intelligenz entwickelt. In einer formalen Repräsentation wird Wissen durch logische Objekte repräsentiert, die durch Eigenschaften, Axiome und Regeln verbunden sind. Diese Art der Darstellung wird in Expertensystemen verwendet.

Die Entwicklung des Webs und insbesondere der Semantic Web-Perspektive hat die Domäne durch Einführung des kontroversen Begriffs der Ontologie erneuert. In dieser Perspektive wurde eine Reihe von Sprachen entwickelt, z. B. Standard RDFS, SKOS und OWL von W3C oder ISO-Standard-Themenkarten.

Techniken der Wissensrepräsentation
Es gibt verschiedene Systeme zur Anordnung und Darstellung von Wissen. Grob geordnet nach ihrem Kraftgrad, sind dies:

Katalog, Glossar, Taxonomie (einfaches kontrolliertes Vokabular),
Klassifikation, Thesaurus (begrenzte Anzahl von Beziehungen meist ohne Vererbungsbeziehung),
Semantisches Netzwerk, Ontologie, Rahmen, Produktionsregeln,
Axiomsystem, Prädikatslogik ebenso
Multilayer Extended Semantic Networks (MultiNet).
Wenn es keine formale Repräsentation gibt oder möglich ist, müssen andere Methoden zur Vermittlung gefunden werden, beispielsweise im Bereich der Informationsvisualisierung.

Kriterien für die Qualität der Vertretung
Wichtige Kriterien für die Auswahl eines Wissensrepräsentationssystems sind:

Richtigkeit
Wie kann man korrekte Syntax und korrekte Semantik sicherstellen?

Angemessenheit / Ausdruckskraft / Dicke
Repräsentiert die Sprache die erforderlichen Ontologiekomponenten klar und flexibel genug?

Effizienz
Wie effizient kann man daraus schließen?

Komplexität
Wie steil ist die Lernkurve für Knowledge Mapping und Knowledge Retrieval?

Übersetzbarkeit in andere Syntaxformate oder Sprachen

Verbindungen zwischen Wissen und Argumentation
Die formale Darstellung von Wissen (oder Überzeugungen) ermöglicht es, verschiedene Behandlungen dieser Informationen zu automatisieren. Dies ist eines der Forschungsgebiete der symbolischen künstlichen Intelligenz: die Simulation „intelligenten“ Denkens basierend auf Informationen.

Einer der am häufigsten verwendeten formalen Rahmen ist die Aussagenlogik. In der Tat kann eine große Anzahl von Problemen durch eine Satzlogikkodierung und die Verwendung von algorithmischen Techniken gelöst werden, die im Rahmen der Erforschung des SAT-Problems entwickelt werden. Zum Beispiel können verschiedene Spiele als Satzformel codiert werden.

Andere formale Rahmen ermöglichen es, Informationen darzustellen, die eine bestimmte Struktur darstellen, wie Argumentationssysteme, Bayes-Netzwerke oder Possibilitätslogik.

Es wurde eine Vielzahl von Arten des menschlichen Denkens modelliert, einschließlich Inferenz (man kann zum Beispiel Konsequenzen aus einer Wissensbasis ableiten) oder Glaubensdynamik (Revision, Kontraktion und Erweiterung des AGM-Rahmens).

Ontologie-Engineering
In den frühen Jahren von wissensbasierten Systemen waren die Wissensbasen relativ klein. Die Wissensbasen, die eigentlich echte Probleme lösen sollten, anstatt Demonstrationsnachweise für Konzepte zu erbringen, mussten sich auf klar definierte Probleme konzentrieren. So zum Beispiel nicht nur die medizinische Diagnose als Ganzes, sondern auch die medizinische Diagnose bestimmter Krankheiten.

Mit dem Ausbau der wissensbasierten Technologie wurde der Bedarf an größeren Wissensbasen und an modularen Wissensbasen deutlich, die miteinander kommunizieren und sich integrieren lassen. Daraus entstand die Disziplin Ontologie-Engineering, das Entwerfen und Erstellen großer Wissensdatenbanken, die von mehreren Projekten genutzt werden können. Eines der führenden Forschungsprojekte in diesem Bereich war das Cyc-Projekt. Cyc war der Versuch, eine riesige enzyklopädische Wissensbasis aufzubauen, die nicht nur Expertenwissen, sondern auch Wissen des gesunden Menschenverstandes enthielt. Bei der Entwicklung eines Agenten für künstliche Intelligenz wurde schnell klar, dass die Darstellung des gesunden Menschenverstandes, Wissen, das der Mensch einfach als selbstverständlich voraussetzt, wesentlich ist, um eine KI zu bilden, die mit Menschen in natürlicher Sprache interagieren kann. Cyc sollte dieses Problem angehen. Die von ihnen definierte Sprache wurde als CycL bezeichnet.

Nach CycL wurde eine Reihe von Ontologiesprachen entwickelt. Die meisten sind deklarative Sprachen und sind entweder Framesprachen oder basieren auf Logik erster Ordnung. Modularität – die Fähigkeit, Grenzen für bestimmte Domänen und Problemräume zu definieren – ist für diese Sprachen von wesentlicher Bedeutung, da, wie Tom Gruber feststellte, „jede Ontologie ein Vertrag ist – eine soziale Vereinbarung zwischen Menschen, die ein gemeinsames Motiv für das Teilen haben.“ Es gibt immer viele konkurrierende und unterschiedliche Ansichten, die eine allgemeine Ontologie unmöglich machen. Eine allgemeine Ontologie müsste in jedem Bereich anwendbar sein, und unterschiedliche Wissensbereiche müssen vereinheitlicht werden.

Es gibt eine lange Geschichte der Arbeit, die versucht, Ontologien für eine Vielzahl von Aufgabenbereichen aufzubauen, z. B. eine Ontologie für Flüssigkeiten, das weit verbreitete Elementmodell, das häufig für die Darstellung elektronischer Schaltungen (z. B.) sowie Ontologien für Zeit, Glauben und Glauben verwendet wird selbst programmieren. Jedes davon bietet die Möglichkeit, einen Teil der Welt zu sehen.

Das konzentrierte Elementmodell beispielsweise legt nahe, dass wir Schaltungen als Komponenten mit Verbindungen zwischen ihnen betrachten, wobei die Signale unmittelbar entlang der Verbindungen fließen. Dies ist eine nützliche Ansicht, aber nicht die einzig mögliche. Eine andere Ontologie ergibt sich, wenn wir uns mit der Elektrodynamik im Gerät befassen müssen: Hier werden Signale mit endlicher Geschwindigkeit weitergeleitet und ein Objekt (wie ein Widerstand), das zuvor als eine einzige Komponente mit einem E / A-Verhalten betrachtet wurde, muss jetzt gedacht werden von einem ausgedehnten Medium, durch das eine elektromagnetische Welle fließt.

Ontologien können natürlich in einer Vielzahl von Sprachen und Notationen (z. B. Logik, LISP usw.) niedergeschrieben werden. Die wesentliche Information ist nicht die Form dieser Sprache, sondern der Inhalt, dh die Menge von Begriffen, die als Denkweise über die Welt angeboten werden. Vereinfacht gesagt, ist der wichtige Teil Begriffe wie Verbindungen und Komponenten, nicht die Wahl zwischen Prädikaten oder LISP-Konstrukten.

Das Engagement, das durch die Auswahl der einen oder anderen Ontologie getroffen wird, kann eine stark andere Sicht auf die vorliegende Aufgabe ergeben. Berücksichtigen Sie den Unterschied, der sich bei der Auswahl der konzentrierten Elementansicht eines Schaltkreises als der elektrodynamischen Ansicht desselben Geräts ergibt. Als zweites Beispiel unterscheidet sich die medizinische Diagnose in Regeln (z. B. MYCIN) wesentlich von der gleichen Aufgabe, die in Frames (z. B. INTERNIST) betrachtet wird. Während MYCIN die medizinische Welt aus empirischen Assoziationen zwischen Symptomen und Krankheiten zusammensetzt, sieht INTERNIST eine Reihe von Prototypen, insbesondere prototypischen Erkrankungen, die mit dem vorliegenden Fall abgeglichen werden.