Représentation des connaissances et raisonnement

La représentation et le raisonnement des connaissances (KR, KR², KR & R) constituent le domaine de l’intelligence artificielle (IA) dédié à la représentation d’informations sur le monde sous une forme qu’un système informatique peut utiliser pour résoudre des tâches complexes telles que le diagnostic d’un problème de santé ou le dialogue. dans un langage naturel. La représentation des connaissances intègre les résultats de la psychologie sur la façon dont les humains résolvent des problèmes et représente les connaissances afin de concevoir des formalismes qui faciliteront la conception et la construction de systèmes complexes. La représentation et le raisonnement des connaissances intègrent également les résultats de la logique pour automatiser divers types de raisonnement, tels que l’application de règles ou les relations entre ensembles et sous-ensembles.

Les exemples de formalismes de représentation des connaissances incluent les réseaux sémantiques, l’architecture des systèmes, les cadres, les règles et les ontologies. Les exemples de moteurs de raisonnement automatisés incluent les moteurs d’inférence, les prouveurs de théorèmes et les classificateurs.

La série de conférences KR a été créée pour partager des idées et progresser sur ce domaine difficile.

L’histoire
Les premiers travaux sur la représentation informatisée des connaissances étaient axés sur la résolution de problèmes généraux tels que le système de résolution de problèmes (GPS) développé par Allen Newell et Herbert A. Simon en 1959. Ces systèmes comprenaient des structures de données pour la planification et la décomposition. Le système commencerait par un objectif. Elle décomposerait ensuite cet objectif en sous-objectifs, puis commencerait à élaborer des stratégies permettant d’atteindre chaque objectif.

Dans ces débuts de l’IA, des algorithmes de recherche généraux tels que A * ont également été développés. Cependant, la définition de problèmes amorphes pour des systèmes tels que le GPS signifiait qu’ils ne fonctionnaient que pour des domaines de jouets très contraints (par exemple, le « monde des blocs »). Afin de s’attaquer aux problèmes non liés aux jouets, des chercheurs en intelligence artificielle tels que Ed Feigenbaum et Frederick Hayes-Roth ont compris qu’il était nécessaire de centrer les systèmes sur des problèmes plus restreints.

C’est l’échec de ces efforts qui a conduit à la révolution cognitive en psychologie et à la phase d’intelligence artificielle centrée sur la représentation des connaissances qui a abouti à des systèmes experts dans les années 1970 et 80, aux systèmes de production, aux langages cadres, etc. Plutôt que de résoudre des problèmes en général, L’intelligence artificielle s’est orientée vers des systèmes experts pouvant faire correspondre les compétences humaines à une tâche spécifique, telle que le diagnostic médical.

Les systèmes experts nous ont donné la terminologie encore utilisée de nos jours: les systèmes d’intelligence artificielle sont divisés en une base de connaissances contenant des faits sur le monde et les règles, ainsi qu’un moteur d’inférence qui applique les règles à la base de connaissances afin de répondre aux questions et de résoudre les problèmes. Dans ces premiers systèmes, la base de connaissances avait tendance à être une structure plutôt plate, essentiellement des affirmations sur les valeurs des variables utilisées par les règles.

Outre les systèmes experts, d’autres chercheurs ont développé le concept de langages à base de cadres au milieu des années 1980. Un cadre est similaire à une classe d’objet: c’est une description abstraite d’une catégorie décrivant la vie dans le monde, les problèmes et les solutions potentielles. Les cadres étaient à l’origine utilisés sur des systèmes axés sur les interactions humaines, par exemple pour comprendre le langage naturel et les contextes sociaux dans lesquels diverses attentes par défaut, telles que la commande d’aliments dans un restaurant, permettent de réduire l’espace de recherche et de permettre aux systèmes de choisir les réponses appropriées aux situations dynamiques.

Les communautés-cadres et les chercheurs basés sur des règles ont vite compris qu’il existait une synergie entre leurs approches. Les cadres étaient bons pour représenter le monde réel, décrits en tant que classes, sous-classes, fentes (valeurs de données) avec diverses contraintes sur les valeurs possibles. Les règles permettaient de représenter et d’utiliser une logique complexe telle que le processus d’établissement d’un diagnostic médical. Des systèmes intégrés combinant cadres et règles ont été développés. L’un des plus puissants et des mieux connus est l’environnement d’ingénierie du savoir (KEE) de Intellicorp de 1983. KEE disposait d’un moteur de règles complet avec chaînage avant et arrière. Il disposait également d’une base de connaissances complète basée sur des cadres avec des déclencheurs, des slots (valeurs de données), des héritages et des transmissions de messages. Bien que le passage de messages provienne de la communauté orientée objet plutôt que de l’IA, il a rapidement été adopté par les chercheurs en intelligence artificielle, notamment dans des environnements tels que KEE et les systèmes d’exploitation des machines Lisp de Symbolics, Xerox et Texas Instruments.

L’intégration des cadres, des règles et de la programmation orientée objet a été largement influencée par des entreprises commerciales telles que KEE et Symbolics, issues de divers projets de recherche. Parallèlement à cela, il y avait une autre partie de la recherche qui était moins axée sur le commerce et était guidée par la logique mathématique et la démonstration automatique de théorèmes. L’une des langues les plus influentes dans cette recherche est la langue KL-ONE du milieu des années 80. KL-ONE était un langage cadre doté d’une sémantique rigoureuse, de définitions formelles de concepts tels que les relations Is-A. Le KL-ONE et les langages qui en étaient influencés, tels que Loom, disposaient d’un moteur de raisonnement automatisé basé sur la logique formelle plutôt que sur les règles IF-THEN. Ce raisonneur s’appelle le classifieur. Un classificateur peut analyser un ensemble de déclarations et en déduire de nouvelles assertions. Par exemple, redéfinir une classe en tant que sous-classe ou superclasse d’une autre classe non spécifiée de manière formelle. De cette manière, le classificateur peut fonctionner comme un moteur d’inférence, en déduisant de nouveaux faits d’une base de connaissances existante. Le classifieur peut également fournir un contrôle de cohérence sur une base de connaissances (appelée aussi ontologie dans le cas des langages KL-ONE).

Un autre domaine de recherche sur la représentation des connaissances était le problème du raisonnement fondé sur le sens commun. L’une des premières réalisations tirées de la conception d’un logiciel pouvant fonctionner avec le langage naturel humain est que les humains s’appuient régulièrement sur une base de connaissances étendue sur le monde réel, ce que nous prenons simplement pour acquis mais qui n’est pas du tout évident pour un agent artificiel . Principes de base de la physique du sens commun, de la causalité, des intentions, etc. Un exemple est le problème du cadre: dans une logique événementielle, il doit exister des axiomes indiquant que les choses maintiennent la position d’un moment à l’autre à moins qu’elles ne soient déplacées par une force externe. . Afin de créer un véritable agent d’intelligence artificielle capable de converser avec les humains à l’aide d’un langage naturel et de traiter les déclarations de base et les questions relatives au monde, il est essentiel de représenter ce type de connaissance. L’un des programmes les plus ambitieux pour s’attaquer à ce problème a été le projet Cyc de Doug Lenat. Cyc a créé son propre langage Frame et de nombreux analystes ont documenté divers domaines de raisonnement de sens commun dans ce langage. Les connaissances enregistrées dans Cyc comprenaient des modèles de sens commun tels que le temps, la causalité, la physique, les intentions et bien d’autres.

Le point de départ de la représentation des connaissances est l’hypothèse de représentation des connaissances formalisée pour la première fois par Brian C. Smith en 1985:

Tout processus intelligent incorporé mécaniquement sera composé d’ingrédients structurels que nous, observateurs externes, prenons naturellement pour représenter un compte propositionnel de la connaissance que le processus global présente, et b) indépendamment de cette attribution sémantique externe, jouent un rôle formel mais causal et financier. rôle essentiel pour engendrer le comportement qui manifeste cette connaissance.

Actuellement, les projets associés au Web sémantique sont l’un des domaines les plus actifs de la recherche sur la représentation des connaissances. Le web sémantique cherche à ajouter une couche de sémantique (signification) au-dessus de l’Internet actuel. Plutôt que d’indexer des sites Web et des pages à l’aide de mots-clés, le Web sémantique crée de grandes ontologies de concepts. La recherche d’un concept sera plus efficace que les recherches traditionnelles avec du texte uniquement. Les langages de cadre et la classification automatique jouent un rôle important dans la vision du futur Web sémantique. La classification automatique offre aux développeurs la technologie nécessaire pour mettre de l’ordre dans un réseau de connaissances en constante évolution. Définir des ontologies statiques et incapables d’évoluer à la volée serait très limitant pour les systèmes basés sur Internet. La technologie de classificateur offre la possibilité de gérer l’environnement dynamique d’Internet.

Des projets récents financés principalement par la DARPA (Defense Advanced Research Projects Agency) ont intégré des langages de trame et des classificateurs avec des langages de balisage basés sur XML. Le cadre de description de ressources (RDF) fournit la capacité de base pour définir des classes, des sous-classes et des propriétés d’objets. Le langage d’ontologie Web (OWL) fournit des niveaux supplémentaires de sémantique et permet l’intégration avec les moteurs de classification.

Vue d’ensemble
La représentation des connaissances est le domaine de l’intelligence artificielle qui se concentre sur la conception de représentations informatiques qui capturent des informations sur le monde pouvant être utilisées pour résoudre des problèmes complexes.

La justification de la représentation des connaissances est que le code procédural conventionnel n’est pas le meilleur formalisme à utiliser pour résoudre des problèmes complexes. La représentation des connaissances facilite la définition et la maintenance de logiciels complexes par rapport au code de procédure et peut être utilisée dans des systèmes experts.

Par exemple, parler à des experts en termes de règles métier plutôt que de code réduit le fossé sémantique entre utilisateurs et développeurs et rend le développement de systèmes complexes plus pratique.

La représentation des connaissances va de pair avec le raisonnement automatisé, car l’un des principaux objectifs de la représentation explicite est de pouvoir raisonner sur cette connaissance, de faire des inférences, d’affirmer de nouvelles connaissances, etc. Pratiquement tous les langages de représentation des connaissances ont un moteur de raisonnement ou d’inférence. dans le cadre du système.

Un compromis clé dans la conception d’un formalisme de représentation des connaissances est celui entre expressivité et praticité. Le formalisme ultime de représentation des connaissances en termes de puissance d’expression et de compacité est la logique du premier ordre (FOL). Il n’existe pas de formalisme plus puissant que celui utilisé par les mathématiciens pour définir des propositions générales sur le monde. Cependant, FOL présente deux inconvénients en tant que formalisme de représentation des connaissances: la facilité d’utilisation et la mise en œuvre pratique. La logique de premier ordre peut être intimidante, même pour de nombreux développeurs de logiciels. Les langues qui n’ont pas tout le pouvoir formel de FOL peuvent toujours fournir presque le même pouvoir d’expression avec une interface utilisateur plus pratique à comprendre pour le développeur moyen. La question de la mise en œuvre pratique est que FOL est à certains égards trop expressif. Avec FOL, il est possible de créer des instructions (par exemple, une quantification sur des ensembles infinis) qui empêcheraient un système de se terminer s’il tentait de les vérifier.

Ainsi, un sous-ensemble de FOL peut être à la fois plus facile à utiliser et plus pratique à mettre en œuvre. C’est une motivation essentielle pour les systèmes experts à base de règles. Les règles IF-THEN fournissent un sous-ensemble de FOL, mais très utile et très intuitif. L’histoire de la plupart des premiers formalismes de représentation des connaissances de l’IA; des bases de données aux réseaux sémantiques, en passant par les démonstrateurs de théorèmes et les systèmes de production, peuvent être considérés comme des décisions de conception variées visant à mettre l’accent sur le pouvoir d’expression ou sur la calculabilité et l’efficacité.

Dans un article clé de 1993 sur le sujet, Randall Davis du MIT a défini cinq rôles distincts pour analyser un cadre de représentation des connaissances:

Une représentation de la connaissance (KR) est fondamentalement un substitut, un substitut de la chose elle-même, utilisée pour permettre à une entité de déterminer les conséquences en pensant plutôt qu’en agissant, c’est-à-dire en raisonnant sur le monde plutôt qu’en y prenant des mesures.
C’est un ensemble d’engagements ontologiques, c’est-à-dire une réponse à la question: en quels termes devrais-je penser au monde?
C’est une théorie fragmentaire du raisonnement intelligent, exprimée en trois composantes: (i) la conception fondamentale de la représentation du raisonnement intelligent; (ii) l’ensemble des conséquences des sanctions de représentation; et (iii) l’ensemble des inférences qu’il recommande.
Il s’agit d’un support efficace pour le calcul, c’est-à-dire l’environnement informatique dans lequel la pensée est accomplie. Une contribution à cette efficacité pragmatique est fournie par les indications fournies par une représentation pour organiser les informations de manière à faciliter la réalisation des déductions recommandées.
C’est un moyen d’expression humaine, c’est-à-dire un langage dans lequel nous disons des choses sur le monde.

La représentation des connaissances et le raisonnement sont une technologie clé pour le Web sémantique. Les langues basées sur le modèle Frame avec classification automatique fournissent une couche de sémantique au-dessus d’Internet existant. Plutôt que de rechercher dans les chaînes de texte comme cela est typique aujourd’hui, il sera possible de définir des requêtes logiques et de trouver des pages mappées à ces requêtes. Le composant de raisonnement automatisé de ces systèmes est un moteur appelé classificateur. Les classificateurs se concentrent sur les relations de subsomption dans une base de connaissances plutôt que sur des règles. Un classificateur peut déduire de nouvelles classes et modifier dynamiquement l’ontologie à mesure que de nouvelles informations deviennent disponibles. Cette fonctionnalité est idéale pour l’espace d’information Internet en constante évolution.

Le Web sémantique intègre des concepts de représentation des connaissances et de raisonnement avec des langages de balisage basés sur XML. Le cadre de description de ressources (RDF) fournit les fonctionnalités de base permettant de définir des objets basés sur des connaissances sur Internet avec des fonctionnalités de base telles que les relations Is-A et les propriétés d’objet. Le langage d’ontologie Web (OWL) ajoute une sémantique supplémentaire et s’intègre aux raisonneurs de classification automatiques.

Les caractéristiques
En 1985, Ron Brachman a classé comme suit les principaux problèmes de représentation des connaissances:

Primitives. Quel est le cadre sous-jacent utilisé pour représenter la connaissance? Les réseaux sémantiques ont été l’un des premiers primitifs de représentation des connaissances. En outre, les structures de données et les algorithmes pour la recherche rapide en général. Dans ce domaine, les recherches sur les structures de données et les algorithmes en informatique recoupent fortement. Dans les premiers systèmes, le langage de programmation Lisp, qui était calqué sur le calcul lambda, était souvent utilisé comme forme de représentation des connaissances fonctionnelles. Les cadres et les règles étaient le prochain type de primitif. Les langages de cadre avaient divers mécanismes pour exprimer et appliquer des contraintes sur les données de cadre. Toutes les données dans les trames sont stockées dans des slots. Les slots sont analogues aux relations dans la modélisation d’entité-relation et aux propriétés d’objet dans la modélisation orientée objet. Une autre technique pour les primitives consiste à définir des langages modélisés selon la logique de premier ordre (FOL). Prolog est l’exemple le plus connu, mais il existe également de nombreux environnements de démonstration de théorèmes spécifiques. Ces environnements peuvent valider des modèles logiques et déduire de nouvelles théories à partir de modèles existants. Essentiellement, ils automatisent le processus suivi par un logicien pour analyser un modèle. La technologie de démonstration de théorèmes avait des applications pratiques spécifiques dans les domaines du génie logiciel. Par exemple, il est possible de prouver qu’un logiciel adhère de manière rigide à une spécification logique formelle.

Méta-représentation. Ceci est également connu comme la question de la réflexion en informatique. Il fait référence à la capacité d’un formalisme d’avoir accès à des informations sur son propre état. Un exemple serait le protocole de méta-objet dans Smalltalk et CLOS qui donne aux développeurs un accès en temps réel aux objets de classe et leur permet de redéfinir de manière dynamique la structure de la base de connaissances, même au moment de l’exécution. La méta-représentation signifie que le langage de représentation des connaissances est lui-même exprimé dans ce langage. Par exemple, dans la plupart des environnements Frame, tous les cadres sont des instances d’une classe de cadres. Cet objet de classe peut être inspecté au moment de l’exécution afin qu’il puisse comprendre et même modifier sa structure interne ou la structure d’autres parties du modèle. Dans les environnements basés sur des règles, les règles étaient aussi généralement des instances de classes de règles. Une partie du méta-protocole pour les règles était les méta-règles qui priorisaient le déclenchement des règles.

Inachèvement. La logique traditionnelle nécessite des axiomes et des contraintes supplémentaires pour faire face au monde réel, par opposition au monde des mathématiques. En outre, il est souvent utile d’associer des degrés de confiance à une déclaration. C’est-à-dire non pas simplement dire « Socrates est humain » mais plutôt « Socrates est humain avec une confiance à 50% ». C’est l’une des premières innovations de la recherche sur les systèmes d’experts qui a migré vers certains outils commerciaux, la possibilité d’associer des facteurs de certitude à des règles et à des conclusions. Les recherches ultérieures dans ce domaine sont connues sous le nom de logique floue.

Définitions et universels contre faits et défauts. Les universaux sont des déclarations générales sur le monde telles que « Tous les humains sont mortels ». Les faits sont des exemples spécifiques d’universels tels que « Socrate est un être humain, donc mortel ». En termes logiques, les définitions et les universels concernent la quantification universelle, tandis que les faits et les valeurs par défaut concernent des quantifications existentielles. Toutes les formes de représentation de la connaissance doivent traiter de cet aspect et la plupart le font avec une variante de la théorie des ensembles, modélisant les universaux en tant qu’ensembles et sous-ensembles et les définitions en tant qu’éléments de ces ensembles.

Raisonnement non monotone. Le raisonnement non monotone permet différents types de raisonnement hypothétique. Le système associe les faits affirmés aux règles et faits utilisés pour les justifier et, à mesure que ces faits changent, actualisent également les connaissances dépendantes. Dans les systèmes à base de règles, cette capacité est appelée système de maintenance de la vérité.

Adéquation expressive. La norme utilisée par Brachman et la plupart des chercheurs en IA pour mesurer l’adéquation expressive est généralement la logique de premier ordre (FOL). Les limitations théoriques signifient qu’une mise en œuvre complète de FOL n’est pas pratique. Les chercheurs doivent clairement indiquer à quel point ils souhaitent exprimer leur capacité d’expression (le degré de puissance d’expression FOL).

Efficacité de raisonnement. Cela fait référence à l’efficacité de l’exécution du système. La capacité de la base de connaissances à être mise à jour et le raisonneur de développer de nouvelles inférences dans un délai raisonnable. À certains égards, c’est le revers de l’adéquation expressive. En général, plus une représentation est puissante, plus elle a une adéquation expressive, moins son moteur de raisonnement automatisé sera efficace. L’efficacité était souvent un problème, en particulier pour les premières applications de la technologie de représentation des connaissances. Ils étaient généralement implémentés dans des environnements interprétés tels que Lisp, qui étaient lents par rapport aux plateformes plus traditionnelles de l’époque.

Formalisation du savoir
Des outils plus formels pour représenter des connaissances complexes sont, par exemple, les graphes conceptuels ou les réseaux sémantiques.

Dans le domaine des nouvelles technologies, la représentation formelle des connaissances s’est développée dans le domaine de l’intelligence artificielle. Dans une représentation formelle, la connaissance est représentée par des objets logiques reliés par des propriétés, des axiomes et des règles. Ce type de représentation est utilisé dans les systèmes experts.

Le développement du Web, et en particulier de la perspective du Web sémantique, a renouvelé le domaine en introduisant le terme controversé d’ontologie. Un certain nombre de langages ont été développés dans cette perspective, tels que RDFS, SKOS et OWL du W3C ou les cartes de sujets standard ISO.

Techniques de représentation des connaissances
Il existe différents systèmes de classement et de représentation des connaissances. Classés grossièrement en fonction du degré de leur pouvoir, ceux-ci sont:

Catalogue, Glossaire, Taxonomie (Vocabulaire simple contrôlé),
Classification, Thesaurus (nombre limité de relations généralement sans relation d’héritage),
Réseau sémantique, ontologie, cadres, règles de production,
Système Axiom, logique des prédicats également
réseaux sémantiques étendus multicouches (MultiNet).
S’il n’y a pas de représentation formelle ou possible, il faut trouver d’autres méthodes de médiation, par exemple dans le domaine de la visualisation d’informations.

Critères pour la qualité de la représentation
Les critères importants pour choisir un système de représentation des connaissances sont les suivants:

La justesse
Comment assurer une syntaxe correcte et une sémantique correcte?

Adéquation / expressivité / épaisseur
Le langage représente-t-il les composants de l’ontologie requis de manière claire et flexible?

Efficacité
Avec quelle efficacité peut-on conclure?

Complexité
Quelle est la courbe d’apprentissage pour la cartographie et la récupération des connaissances?

Traductibilité vers d’autres formats de syntaxe ou d’autres langues

Liens entre connaissance et raisonnement
La représentation formelle des connaissances (ou croyances) permet d’automatiser divers traitements sur ces informations. C’est l’un des domaines de recherche de l’intelligence artificielle symbolique: la simulation d’un raisonnement « intelligent » basé sur l’information.

L’un des cadres formels les plus utilisés est la logique propositionnelle. En effet, un grand nombre de problèmes peuvent être résolus via un codage à logique propositionnelle et l’utilisation de techniques algorithmiques développées dans le cadre de recherches sur le problème SAT. Par exemple, divers jeux peuvent être codés comme une formule propositionnelle.

D’autres cadres formels permettent de représenter des informations présentant une structure particulière, telles que des systèmes d’argumentation, des réseaux bayésiens ou une logique possibiliste.

Un grand nombre de types de raisonnement humain ont été modélisés, y compris l’inférence (on peut par exemple déduire des conséquences d’une base de connaissances) ou la dynamique des croyances (révision, contraction et expansion du cadre de l’AGM).

Ingénierie ontologique
Dans les premières années des systèmes basés sur la connaissance, les bases de connaissances étaient assez petites. Les bases de connaissances censées réellement résoudre des problèmes réels plutôt que de faire des démonstrations de preuve de concept devaient être centrées sur des problèmes bien définis. Ainsi, par exemple, non seulement le diagnostic médical dans son ensemble, mais également le diagnostic médical de certains types de maladies.

À mesure que la technologie basée sur la connaissance évolue, le besoin de bases de connaissances plus vastes et de bases de connaissances modulaires, capables de communiquer et de s’intégrer les unes aux autres, devient évident. Cela a donné naissance à la discipline de l’ingénierie ontologique, la conception et la construction de vastes bases de connaissances pouvant être utilisées par plusieurs projets. L’un des principaux projets de recherche dans ce domaine était le projet Cyc. Cyc était une tentative de construire une base de connaissances encyclopédique énorme qui contiendrait non seulement des connaissances d’experts, mais également des connaissances de bon sens. En concevant un agent d’intelligence artificielle, on s’est vite rendu compte que représenter le savoir du sens commun, un savoir que les humains tiennent pour acquis, était essentiel pour créer une IA capable d’interagir avec les humains à l’aide du langage naturel. Cyc était destiné à résoudre ce problème. Le langage qu’ils ont défini s’appelle CycL.

Après CycL, un certain nombre de langages d’ontologies ont été développés. La plupart sont des langages déclaratifs, et sont des langages de trame ou sont basés sur une logique de premier ordre. La modularité, c’est-à-dire la capacité de définir des limites autour de domaines et d’espaces de problèmes spécifiques, est essentielle pour ces langages car, comme le dit Tom Gruber, « chaque ontologie est un traité, un accord social entre des personnes partageant le même motif ». Il existe toujours de nombreux points de vue divergents et divergents qui rendent impossible toute ontologie générale. Une ontologie à usage général devrait être applicable dans n’importe quel domaine et différents domaines de la connaissance doivent être unifiés.

De nombreux travaux ont déjà été menés pour tenter de créer des ontologies pour divers domaines, par exemple une ontologie pour les liquides, le modèle à éléments localisés largement utilisé pour représenter les circuits électroniques (par exemple,), ainsi que des ontologies en fonction du temps, des convictions et des temps. même la programmation elle-même. Chacune de celles-ci offre un moyen de voir une partie du monde.

Le modèle à éléments localisés, par exemple, suggère de penser aux circuits en termes de composants avec des connexions entre eux, avec des signaux circulant instantanément le long des connexions. C’est une vue utile, mais pas la seule possible. Une ontologie différente se produit si nous devons prendre en compte l’électrodynamique dans le dispositif: ici, les signaux se propagent à une vitesse finie et il faut maintenant penser à un objet (comme une résistance) qui était auparavant considéré comme un composant unique avec un comportement d’E / S. comme un milieu étendu à travers lequel une onde électromagnétique circule.

Les ontologies peuvent bien entendu être écrites dans une grande variété de langages et de notations (par exemple, logique, LISP, etc.); les informations essentielles ne sont pas la forme de cette langue, mais le contenu, c’est-à-dire l’ensemble des concepts proposés comme moyen de penser le monde. En termes simples, la partie importante concerne les notions telles que les connexions et les composants, et non le choix entre les écrire sous forme de prédicats ou de constructions LISP.

L’engagement pris en sélectionnant l’une ou l’autre ontologie peut produire une vision très différente de la tâche à accomplir. Considérez la différence qui survient dans la sélection de la vue d’éléments localisés d’un circuit plutôt que de la vue électrodynamique du même dispositif. En tant que deuxième exemple, le diagnostic médical considéré en termes de règles (par exemple, MYCIN) est sensiblement différent de la même tâche considérée en termes de cadre (par exemple, INTERNIST). Pour MYCIN, le monde médical est constitué d’associations empiriques associant symptôme à maladie, INTERNIST considère qu’un ensemble de prototypes, en particulier de maladies prototypiques, doit être comparé au cas d’espèce.