Title:
Expert system e.g. for process control
Kind Code:
A1


Abstract:
The expert system includes data packets, called fact, some of which become variables in stored fact sequences, called schemes. Variable sets are stored for the variables in learning processes. It is determined if a fact of an input sequence, called chain, is conform to facts from variable sets which are not expected when continuing the chain. Further the size of the intersection of the not expected variable set with the expected variable set is determined. When the size of the intersections are big enough, the corresponding schemes are handled as if the fact of the chain is conform to fact variables of the schemes.



Inventors:
MUEHLENFELD EIKE PROF DR ING (DE)
Application Number:
DE19828528A
Publication Date:
12/17/1998
Filing Date:
06/26/1998
Assignee:
MUEHLENFELD, EIKE, PROF. DR.-ING., 38678 CLAUSTHAL-ZELLERFELD, DE
International Classes:



Claims:
1. Expertensystem, das eine eingegebene ungeordnete oder geordnete Folge, Kette genannt, von Datenpaketen, Fakten genannt, durch Vergleich mit gespeicherten Faktfolgen, Schemata genannt, erkennt und geeignete Aktionen assoziieren kann, indem es diese Kette schemakonform fortsetzt, dadurch gekennzeichnet, daß einige Fakten in Schemata zu Faktvariablen werden, für die in Lernvorgängen eine Menge möglicher Fakten, Variablenmenge genannt, gespeichert wird, und daß beim Erkennen oder Assoziieren geprüft wird, ob ein Fakt der eingegebenen Kette zu Fakten aus Variablenmengen konform bzw. ähnlich ist, die bei schemakonformer Fortsetzung der Kette nicht erwartet werden, und wie groß die Schnittmenge dieser nicht erwarteten Variablenmengen mit den erwarteten Variablenmengen ist, um bei hinreichender Größe dieser Schnittmengen die zugehörigen Schemata in ähnlicher Weise zu behandeln, als sei das Fakt der Kette zu Faktvariablen dieser Schemata konform, obwohl nur von einer semantischen Relation gesprochen werden kann. Hierbei können die relativen oder absoluten Größen der jeweiligen Schnittmengen und, durch ein Ähnlichkeits- oder Zugehörigkeitsmaß, auch Konformitäten quantitativ berücksichtigt werden.

2. Expertensystem nach Anspruch 1, dadurch gekennzeichnet, daß Fakten einer Kette, die in einem Schema fehlen, als zusätzliche Faktvariable in das Schema aufgenommen werden, wenn die Anzahl dieser fehlenden Fakten auf wenige, vorzugsweise auf 1 oder 2 Fakten begrenzt ist.

3. Expertensystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die Fakten eines Schemas, die nicht mit den entsprechenden Fakten einer zu erlernenden Kette konform sind, zu Faktvariablen des Schemas werden oder in bereits vorhandene Variablenmengen aufgenommen werden, wenn die Anzahl dieser nicht konformen Fakten auf wenige, vorzugsweise auf 1 oder 2 Fakten begrenzt ist.

4. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß Fakten, die gemeinsam in einer Kette auftreten und zu verschiedenen Variablenmengen des gleichen Schemas gehören, im Lernvorgang in diesem Schema als Partner verzeigert oder verkoppelt werden. Tritt beim Parsen in der Kette ein bestimmtes Fakt einer Variablenmenge auf, so wird erwartet, daß dessen Partner als Werte der anderen Faktvariablen des Schemas auftreten.

5. Expertensystem nach Anspruch 4, dadurch gekennzeichnet, daß beim Auftreten des ersten Partners die Werte der übrigen Partner für die jeweiligen Faktvariablen des Schemas festgelegt werden, so daß beim Parsen ohne weitere Eingaben eine bis dahin schemakonforme Kette stets mit dem passenden Partner fortgesetzt werden kann.

6. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß Teile einer Kette, die bereits als selbständiges Schema erlernt worden sind, in einem Schema durch das Metafakt substituiert werden, welches das Teilschema repräsentiert, und/oder daß Teile einer Kette, die nicht in ein Schema passen, beim Lernen zu einem eigenständigen Schema zusammengefaßt werden, dessen Metafakt in das Schema aufgenommen wird.

7. Expertensystem nach Anspruch 6 oder einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß durch Iteration der Repräsentation von Teilschemata, auch wenn diese bereits Metafakte in ihrer terminalen Ebene enthalten, durch deren Metafakte eine hierarchische Graphenstruktur generiert wird.

8. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß semantische Relationen nach Anspruch 1 auch für Partner nach Anspruch 4 oder 5 und/oder in hierarchischen Graphenstrukturen nach Anspruch 6 oder 7 genutzt werden.

9. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß im Verlauf der Eingabe von Fakten einer Kette für alle oder mehrere der hierzu passenden bzw. konformen Schemahypothesen Datenbasen gebildet und verwaltet werden, die Angaben zum bisherigen Verlauf und zur weiteren Steuerung des Parsens enthalten, um das optimal passende Schema beispielsweise in einer Baumsuche zu finden und assoziativ fortzusetzen.

10. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß für Partner gemäß Anspruch 4, die in zwei oder mehr Fakten einer Folge den gleichen Wert haben, ein beliebiger Wert eingesetzt werden kann, der dann für alle Partner stets gleich sein muß und beim Parsen nach Anspruch 5 festgelegt werden kann.

11. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß Fakten mit Wahrscheinlichkeiten oder Zugehörigkeitsmaßen gewichtet und hieraus Wichtungen für Schemahypothesen berechnet werden, die den Ablauf des Parsens steuern und/oder zur gewichteten Interpolation bei der Ausgabe kontinuierlicher Aktionen sowie zur Selektion diskreter Aktionen genutzt werden, wobei zur Steuerung kognitive Prozesse vorzugsweise eine Minimierung der Entropie der Hypothesenwahrscheinlichkeiten angestrebt wird.

12. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß eingegeben Prozeßdaten durch einen Klassifikator, beispielsweise ein Neuronales Netz, und eingegeben Textdaten oder anderen Symbolen durch Tabellen oder einen Algorithmus, z. B. Hash, eine Kennung zugewiesen wird, die in einer konnektionistischen Realisierung Neuronen kennzeichnet, während sie in einer algorithmischen (progammtechnischen) Implementierung zur Adressierung des Fakts in der Wissensbasis dient.

13. Expertensystem nach Anspruch 12 oder einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß zu den Fakten Zeiger auf gleiche Fakten in anderen Schemata, auf im Schema vorangehende, nachfolgende, übergeordnete, untergeordnete Fakten und/oder Partner des Fakts, sowie auf andere Fakten der gleichen Variablenmenge vorhanden sind, wobei diese Verzeigerungen in Ketten oder Ringen erfolgen können.

14. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß in einer konnektionistischen Realisierung, z. B. durch neuronale Netzwerke oder holographische Interferenzen, Kopplungen vorhanden sind, die der Verzeigerung nach Anspruch 13 entsprechen.

15. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die terminalen Fakten Daten über Form und Lage von Konturelementen eines Bildes enthalten, wobei die Reihenfolge der Fakten in den Schemata unerheblich sein kann (kontextfrei), und hieraus durch erfindungsgemäßes Parsen hypothesengesteuert Art und Lage von Objekten oder anderen Bildmustern ermittelt wird.

16. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die terminalen Fakten Meß- und/oder Stelldaten enthalten, womit Schemata durch Trainieren von Beispielen einer Prozeßführung kontextfrei oder kontextsensitiv gebildet und entsprechend geparst werden, um Hypothesen über den aktuellen Betriebsfall des Prozesses zu bilden und ihn automatisch in ähnlicher Weise zu führen, wie dies in ähnlichen Fällen trainiert worden ist.

17. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die terminalen Fakten Wahrnehmungen und Handlungen verschiedener Sensor-Motor-Systeme enthalten, um beispielsweise die Auge-Hand-Koordination zur Robotersteuerung zu trainieren und zu automatisieren, wobei semantische Relationen nach Anspruch 1 genutzt werden können, um Objekte, für die eine bestimmte Handhabung nicht trainiert worden ist, dennoch nach einem hierfür mit anderen Objekten trainierten Schema zu handhaben.

18. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die terminalen Fakten Daten über Phoneme enthalten, um die Erkennung natürlicher Sprache zu trainieren und zu automatisieren.

19. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die terminalen Fakten Textworte repräsentieren, die im Kontext von Sätzen erfindungsgemäß trainiert und geparst werden, was beispielsweise die Fortsetzung eingegebener Fragen, Sätze oder Satzteile durch eine Antwort oder die Übersetzung in eine andere Sprache unter Nutzung semantischer Relationen nach Anspruch 1 auch dann ermöglicht, wenn die Eingabe Teile enthält, die nicht im Kontext der als passend erkannten Schemata erlernt worden sind.

20. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die terminalen Fakten Ein- und Ausgaben verschiedener peripherer Systeme enthalten, um Sprach- bzw. Text-Ein-/Ausgabe, Datenbanken (z. B. Auskunftssysteme), die Bedienung von Computern oder kommerzieller Elektronik (z. B. Videorecorder), Bilderkennung und/oder Prozeßsteuerungen zu integrieren und zu koordinieren.

21. Expertensystem nach Anspruch 2 oder einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß ein zusätzliches Fakt, durch das sich eine zu erlernende Kette von einem vorhandenen Schema unterscheidet, als zusätzliche Faktvariable in das Schema aufgenommen und entsprechend verzeigert wird, wobei zugelassen wird, daß keiner oder mehrere Werte einer zusätzlichen Faltvariablen in einer Kette auftreten; mehrere zusätzliche Fakten werden gegebenen, falls nach Anspruch 4 und 5 als Partnervariablen behandelt.

22. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß zur einer Faktvariablen außer den Mengen zugelassener Fakten auch Mengen nicht zugelassener Fakten trainiert werden, für die das Schema nicht gültig ist.

23. Expertensystem nach Anspruch 1, 22 oder einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die quantitative Ermittlung der Konformität eines Fakts auf einer mathematisch­logischen Verknüpfung relativer oder absoluter Größen der Schnittmengen zugelassener bzw. nicht zugelassen er Wertemengen von Faktvariablen basiert.

Description:
Die Erfindung ist einzuordnen in das technische Gebiet der Künstlichen Intelligenz und betrifft ein Expertensystem. Expertensysteme werden zur Beratung bei der Projektierung, Diagnose und Führung von Systemen, sowie zur Automatisierung technischer Prozeßabläufe eingesetzt. Übliche Experten­systeme enthalten in ihrer Wissensbasis Regeln, deren Bedingung in Form logisch verknüpfter Fakten erfüllt sein muß, damit die in der Regel spezifizierte Aktion ausgeführt wird. Für übliche regelbasierte Expertensysteme muß Wissen in Form von Regeln durch Experten formuliert werden, was eine aufwendige Zusammenarbeit von Prozeß- und Wissensingenieuren erfordert. ¢Herrmann, J.: Maschinelles Lernen und wissensbasierte Systeme. Springer 1997! ¢Hepper, R.: Entwicklung von Expertensystemen zur Führung verfahrenstechnischer Prozesse am Beispiel von Mahlanlagen der Zementindustrie. Diss. TU Clausthal 1995!. Fallbasierte Expertensysteme erwerben ihr Wissens durch Eingabe von Beispielen, gelegentlich auch als Training oder "Vormachen" bezeichnet. Das fallbasierte Schließen wird im Englischen "case-based reasoning (CBR)" ganannt oder "inductive logic programming (ILP)", wenn der Wissenserwerb durch Trainieren von Beispielen betont werden soll. ¢Puppe, Gappa, Poeck, Bamberger: Wissensbasierte Diagnose- und Informationssysteme. Springer 1996!, ¢Leake, D.R.(ed): Case-based reasoning. MIT-Press 1996!. Während die formale Logik Grundlage üblicher Expertensysteme ist, werden beim probabilistischen Schließen Wahrscheinlichkeiten berücksichtigt. Damit wird der Tatsache Rechnung getragen, daß Meßdaten über die reale Welt mit Unsicherheiten behaftet sind und nur Schlüsse in Form von Wahrscheinlichkeitsaussagen zulassen. Dies wird gelegentlich etwas unscharf als "fuzzy" bezeichnet. ¢SHAFER, G.: The art of causal conjecture. MIT-Press 1996!, ¢Boelow, Th; Mühlenfeld, E; Nicolaou, M.: Fallbasierte Automatisierung am Beispiel von Verbrennungsprozessen, Bildverarbeitung und Auge-Hand-Koordination. Automatisierungstechnische Praxis atp 38 1996) 2, S. 50ä67!. Alle bekannten Expertensysteme können Schlüsse nur aus Fakten ziehen, die im Kontext der formulierten Regeln oder der trainierten Fallbeispiele erlernt worden sind. Beispielsweise für die Automatisierung zeitvarianter Prozesse und für die Sprach- oder Textverarbeitung läßt sich das erforderliche Wissen jedoch nicht für alle möglichen Fakten in allen möglichen Fällen formulieren oder trainieren. Dieses Problem wird durch die in Patentanspruch 1 angegebenen Merkmale gelöst, indem das Expertensystem semantische Relationen ermittelt und sich darauf bei seinem Schlüssen stützt. Das semantikgestützte Expertensystem erwirbt sein Wissen vorzugsweise, indem Beispiele durch Experten eingegeben und automatisch in Form von Schemata in der Wissensbasis gespeichert werden. Erfindungsgemäß besteht ein Schema aus einer Folge von Fakten und Faktvariablen, zwischen denen durch Analyse der Schnittmengen von Variablenmengen semantische Relationen ermittelt und genutzt werden, um auch Fakten als schemakonform zu behandeln, für die das Schema nicht formuliert oder trainiert wurde. Wenn die eingegebenen Fakten schemakonform sind, kann eine eingegebene Kette von Fakten erfindungsgemäß autonom schemakonform fortgesetzt werden, um eine trainierte Aktionsfolge zu reproduzieren. Da das semantikgestützte Expertensystems sein Wissen durch Training erwerben kann und erfindungsgemäß semantische Relationen nutzt, konnte es bereits für die Übersetzung von nicht erlernten Texten und die Beantwortung von nicht erlernten Fragen eingesetzt werden. Die mit der Erfindung erzielten Vorteile liegen generell darin, daß Wissen nicht vollständig formuliert oder trainiert werden muß, weil dies in vielen Anwendungen nicht mit vertretbarem Aufwand möglich ist. Ein Ausführungsbeispiel des erfundenen Systems und seiner Komponenten, sowie seine Realisierung werden im folgenden beschrieben. Die Zeichnungen zeigen die Systemstruktur, die von den Systemkomponenten verwendeten Datenstrukturen und ein Realisierungsbeispiel durch ein neuronales Koppelnetz: Fig. 1 Systemstruktur Fig. 2 Definition von Fakten und Metafakten Fig. 3 Einfaches Schema Fig. 4 Schema mit Variablen Fig. 5 Mengendarstellung einer semantischen Relation Fig. 6 Schema mit zweistelligen Prädikaten Fig. 7 Ablauf der Inferenz mit zweistelligen Prädikaten Fig. 8 Schemahierarchien Fig. 9 Realisierung durch ein neuronales Koppelnetz.1. Systemstruktur Fig. 1 zeigt die Systemstruktur. Ein- und Ausgaben von Terminals, Sensoren und Stellgliedern werden in einer Datenbasis (Kurzzeitgedächtnis) zwischengespeichert. Die Inferenzkomponente arbeitet nach dem Prinzip eines nichttrivialen Automaten, dessen Zustand durch probabilistisches Schließen nach einer Überführungsfunktion akkumulierend aktualisiert wird. Das logische Schließen berücksichtigt Kontext und Variable im Schema. Das semantische Schließen nutzt semantische Relationen zwischen Variablen von Schemata. Die Ausgabefunktion trifft bei rein cognitiven Aufgaben diskrete Entscheidungen, während sie bei der Zuordnung kontinuierlicher Stellgrößen gewichtet interpoliert. Die Wissenserwerbskomponente bildet in Trainingsphasen Schemata, Variable und Hierarchien von Schemata und speichert diese in der Wissensbasis (Langzeitgedächtnis). Eine nicht näher erläuterte Erklärungskomponente zeigt dem Bediener, welche Schemata mit welcher Wichtung bei der Inferenz benutzt wurden. Die Realisierung erfolgt erfindungsgemäß durch Koppelnetzwerke mit elektronischer oder elektromagnetischer Kopplung.2. Inferenzkomponente2.1 Probabilistisch-fallbasiertes Schließen2.1.1 Syntaktische Mustererkennung: Objekterkennung Im Rahmen der optischen Mustererkennung sei der konkrete Fall ¢in Lage ya ein Objekt Aa zu erkennen, um fallspezifische Aktionen zur Weichenstellung für gut/schlecht oder zur Steuerung eines Roboters zuzuordnen. Bei der Analyse eines Bildausschnitts segmentiere die Bildsensorik ein Bildelement und ermittle dazu einen Meßvektor x der Merkmale der Leuchtdichteverteilung des Bildelements enthält. Die Klassifizierung von x, z. B. durch ein Neuronales Netz, einen Abstandsklassifikator oder, wenn ein hinreichend großes Kollektiv von Lernrepräsentanten verfügbar ist, durch einen nichtlinearen Bayes-Klassifikator liefere die a-posteriori-Wahrscheinlichkeit p(bk/x) dafür, daß das Bildelement zur Formklasse bk gehört, und die Lage Yk {Ort und Richtung} des Bildelements. Yk ist der Stellvektor der Sensormotorik, wenn der Bildsensor das Bildelement erfaßt. Gespeichert wird yk = Yk ä ya die Lage des Bildelements bk relativ zur Objektlage ya. Das Sensorsystem liefert also über ein Bildelement die Meldung ¢yk,bk!, die besagt: Die Handlung yk ergibt die Wahrnehmung bk mit p(bk/x). Im Training werden diese Meldungen als Fakten zu jedem Fall in einer Baumstruktur nach Fig. 2 gespeichert. Eine Meldung über Form bk und Lage yk eines einzigen Bildelements identifiziert i.a. ein Objekt Aa nicht. Daher ist ein nicht trivialer Automat erforderlich, der im Folgenden definiert wird:ä Zustandsvariablen p(¢ya,Aa!) für alle Fälle ¢ya,Aa!ä Überführungsfunktion: akkumulierende Hypothesenbildung bottom-up:p(¢ya, Aa!): = s p(¢ya,Aa!) + (1-s) p(¢ya,Aa!)/¢bk, yk!) p(bk/x), ya: = s ya + (1-s) (Yk ä yk). s ist ein Schwächungsfaktor mit 0 < s < 1, der zusammen mit der Abtastzeit die Zeitkonstante der Adaption an die Variabilität des Prozesses bestimmt.ä Ausgabefunktion: Hypothesengesteuerter Test top-down: Auswahl und Test des Bildelements, von dessen Verifizierung die stärkste Verringerung der Entropie von p(¢ya,Aa!) erwartet wird.Der Test wird gesteuert durch Yk = ya + yk.ä Abbruch: Wenn die Entropie als Gütemaß eine Schwelle unterschreitet, dann wird für die Hypothese ¢ya,Aa! mit Max {p(¢ya,Aa!)} entschieden. In der KI beginnt sich die Erkenntnis durchzusetzen, daß im Gehirn verarbeitbares Wissen durch Interaktion mit der Welt entsteht. Auch ein Erkennungsprozeß ist eine Handlungs/Wahrnehmungs-Kette. Rein sensormotorische Handlungen verändern die Welt nicht, ihre Reihenfolge ist daher beliebig, die Sprache des Automaten ist kontextfrei, und die Datenstruktur ist ein Baum. Mit geeigneter Bildvorverarbeitung erkennt d+€+19992DEA119828528 DE981116 as Expertensystem durch probabilistisches Schließen beliebig geformte Gußteile auf der ebenen Fläche von Förderbändern oder Paletten mit einer Fehlerrate < 0,03% auch bei Berührung von Teilen, wenn sich bei Überlagerungen keine Schräglagen von mehr als 8° ergeben.2.1.2 Prozeßsteuerung: Verfahrenstechnik Viele verfahrenstechnischen Prozesse werden durch zeitvariante Parameter von Rohstoffen, Werkzeugen und Betriebsmitteln bestimmt. Das probabilistische Schließen wurde im Labor bereits eingesetzt, um dynamische Prozesse adaptiv zu regeln. Im Folgenden wird aber vorausgesetzt, daß der zu steuernde Prozeß, z. B. die Ausspeicherung aus einem Erdgas-Untertage-Speicher, quasistatisch zu behandeln sei. Das Abklingen von Einschwingvorgängen kann also abgewartet werden. Alle Stellgrößen eines Teilprozessen werden zu einem Stellvektor yk zusammengefaßt, der generell eine Handlung spezifiziert, während Meßvektoren xk als Wahrnehmungen bk klassifiziert werden. Fälle Aa sind gekennzeichnet durch die fallspezifisch optimalen Prozeßdaten ¢ya,ba!. Zu den Fällen liegen Erfahrungen p(¢ya,Aa!/¢yk,bk!) nicht nur für die optimalen Prozeßdaten vor. Die Struktur des Trainierbaren Automaten unterscheidet sich von Abschnitt 2.1.1 nur in der Ausgabefunktion: Zwischen optimalen ya wird mit p(¢ya,Aa!) gewichtet interpoliert.2.1.3 Fuzzy Inferenz Zur Berücksichtigung von Unschärfen werden Wahrscheinlichkeiten ermittelt, und die Inferenz erfolgt in Anlehnung an die Dempster-Shafer Theorie probabilistisch. Zur Sprachverarbeitung akkumuliert die Überführungsfunktion während des Parsens eines Satzes Hypothesenwichtungen ohne die alten Wichtungen vorher zu schwächen. Eine andere Möglichkeit bieten fuzzy Methoden, die kontinuierliche Größen fuzzyfizieren, indem sie ihnen nach vorgegebenen Zugehörigkeitsfunktionen Zugehörigkeitsmaße zu Fuzzy Sets zuordnen, die bei der Inferenz durch Fuzzy Logik sowie bei der Interpolation von Ausgangsgrößen durch Defuzzyfizierung berücksichtigt werden. Dieses sind Beispiele für die vielen aus der Literatur bekannten Verfahren, die Wahrscheinlichkeiten, Ähnlichkeits- oder Zugehörigkeitsmaße berücksichtigen, um unsicheren, unscharfen Eingangsdaten geeignete Entscheidungen, Handlungen oder andere Ausgangsdaten zu assoziieren. Verallgemeinernd ist hierfür der Begriff "fuzzy" üblich geworden. Entsprechend vielfältig sind die Möglichkeiten, zum probabilistischen Schließen in neuronalen Netzwerken Wahrscheinlichkeiten durch die Stärke neuronaler Erregungen zu repräsentieren und über wichtende Synapsen zu akkumulierten.2.2 Kontextsensitiv-fallbasiertes Schließen2.2.1 Auge-Hand-Koordination: Robotersteuerung Durch Auge-Hand-Koordination sei folgender Ablauf zu steuern: Aus der Endbehandlung (Trocknung, Härtung, Reinigung) kommen unsortiert und ungeordnet Teile, z. B. Glas1, und müssen von einem Roboter teilespezifisch in einen Karton oder auf Palette abgelegt werden. Das probabilistische Schließen und die dafür berücksichtigten und akkumulierten Wahrscheinlichkeiten werden erfindungsgemäß gemeinsam mit den im Folgenden beschriebenen Inferenzkomponenten benutzt, werden aber zur Vereinfachung der Darstellung im Folgenden nur noch ausnahmsweise erwähnt. p(¢ya,Aa!) wird dann zu einer Aussage, die Handlung und Wahrnehmung umfaßt, z. B.: "sehe (Glas1)", also: bewege das Auge in Lage1 und erkenne das Objekt Glas1, die als Weisung an die Sensor-Motorik übergeben, von der Sensormotorik als Meldung an die Realität angepaßt zurückgegeben wird und als Fakt eines Schemas in der Wissensbasis gespeichert wird.2.2.2 Kontextsensitive Schemata: Handlung/Wahrnehmungs-Ketten Da Roboterhandlungen die Welt verändern, ist ihre Reihenfolge wichtig, und Aussagen müssen als Kette, Schema genannt, gespeichert und kontextsensitiv gespart werden. Die trainierten Schemata bestehen aus einer Nummer si, die das Schema identifiziert, und einer Handlung/Wahrnehmungs-Kette. Für die Steuerungsaufgabe aus 2.2.1 wird das Schema in Fig. 3 dargestellt. Die Inferenz erfolgt zyklisch: Der Nachfolger des gegenwärtigen Fakts im wahrscheinlichsten Schema wird als Weisung an die Sensor-Motorik übergeben. Wenn nach Ausführung der Weisung die Meldung genannte Aussage weisungskonform ist, wird die Wahrscheinlichkeit des bestätigten Schemas im Automatenzustand erhöht, wofür vereinfachend p(si): = p(si) + p(si/Meldung) geschrieben werden kann. Die Auge-Hand-Koordination wurde am Beispiel der Handhabung von Steckergehäusen auf einer Hannover-Messe vorgeführt.2.3 Semantisch-fallbasiertes Schließen2.3.1 Schemata mit Variablen Nachdem das Schema s1 für Glas1 trainiert wurde, sei für Glas2, das visuell und taktil anders wahrgenommen wird, das gleiche Schema zu trainieren. In Fig. 4 wird das Objekt Glas1 in s1 zu einem Element einer Menge G1 von Variablen:s1: sehe(g1) greife(g1) sehe(Karton) lege(0);g1 Ë G1 = {Glas1, Glas2}. Um Gläser auf Paletten zu stellen, wird ein neues Schema trainiert:s2: sehe(g2) greife(g2) sehe(Palette) lege(0);g2 Ë G2 = {Glas1, Glas2, Glas3, Glas4}. So weit trainiert wurde gilt s1(g) T s2(g) und wahrscheinlich auch s2(g) T s1(g). Daher kann wahrscheinlich Glas3 und Glas4 nach s1 in Kartons eingelegt werden, ohne dies trainiert zu haben. Diese Schlußweise wird im Folgenden generalisiert und quantifiziert.2.3.2 Korrespondenzprinzip Wenn für eine Menge das Schema s1 gilt und für p % dieser Menge auch das Schema s2 gilt, dann ist p die Wahrscheinlichkeit dafür, daß s2 für ein beliebiges Element dieser Menge gilt. Es werde s(g) geschrieben wird, wenn das Schema s für g gilt, bzw. s(G), wenn s für die Menge G von Werten einer Variablen gilt. Damit lautet das Korrespondenzprinzip: Wenn s1(G1) und für p % aller g1 Ë G1 auch s2(g1),dann ist für ein beliebiges g Ë G1 die Wahrscheinlichkeit p(s2(g)/s1(g)) = p. In Fig. 5 ist dargestellt, daß das Korrespondenzprinzip auf der Analyse von Schnittmengen der Fakt­variablen beruht. Glas3 kann aufgrund des Korrespondenzprinzips mit der Wahrscheinlichkeit p = 50% nach Schema s1 in Kartons gelegt werden. Wenn diese Korrespondenz genannte Wahrscheinlichkeit größer als eine vorgegebene Schwelle ist, "korrespondiert" g mit der Variablenmenge Gk, und wird wie ein Element dieser Menge behandelt. Dies ist auf mehrere Variable eines Schemas anwendbar. Die Korrespondenz kann bei der Inferenz auf verschiedene Weise wichtend berücksichtigt werden. Zu einer Variablen lassen sich mit negativer Wichtung auch Werte trainieren, für die sich das Schema als nicht geeignet oder nicht gültig erwiesen hat. Ein Beispiel zur Realisierung des Korrespondenzprinzips mit einem neuronalen Koppelnetz wird in Abschnitt 7 beschrieben und in Fig. 9 dargestellt. Im Folgenden werden Anwendungsbeispiele beschrieben.2.3.3 Semantische Relationen Zu Demonstrationszwecken wurde trainiert, in Anlehnung an Schlüsse der syllogistischen Logik auf Fragen zu antworten:"wenn Du gefragt wirst . . . ,dann antworte . . .".@ist {Sokrates, Plato} ein Mensch?ja {Sokrates, er} ist ein Mensch@muß {Sokrates, Xantippe} sterben?ja {Sokrates, sie} muß sterben@ist {Zeus, Hera} ein Mensch?nein {Zeus, sie} ist ein Gott@muß {Zeus, Apollo} sterben?nein {Zeus, er} ist unsterblich Unter Nutzung des obigen Korrespondenzprinzips antwortet das Expertensystem auch auf die Fragen, die für die Objekte der Fragen nicht erlernt worden sind:@muß Plato sterben?ja er muß sterben@ist Xantippe ein Mensch?ja sie ist ein Mensch@muß Hera sterben?nein sie ist unsterblich@ist Apollo ein Mensch ?nein er ist ein Gott Wird nachträglich trainiert@ist {Fritz} ein Mensch?ja {er} ist ein Menschso beantwortet der Automat die Frage@muß Fritz sterben?ja er muß sterben. Das Schema legt die Syntax fest; auch die Syntax der Antwort. Durch die Korrespondenz zwischen den Objekten der Prädikate "ist ein Mensch" und "muß sterben" wird eine semantische Relation zwischen diesen Prädikaten hergestellt. Generalisierungen, wie "alle s1 sind s2" und andere Aussagen der Scholastik sind in der Wissensbasis des Trainierbaren Automaten statistisch enthalten und sind bei der Inferenz nutzbar. Damit diese Aussagen explizit kommunizierbar werden, muß das Schema einer expliziten Formulierung von Generalisierungen trainiert werden. Damit können generalisierende Aussagen generiert und einem anderen System, das man als Schüler bezeichnen könnte, statt Einzelerfahrungen verbal übergeben werden. Der Schüler kann dann diese Aussagen nutzen, ohne die zugrunde liegenden Erfahrungen selbst machen zu müssen.3. Wissenserwerb Es ist noch zu erläutern, wie im Training Faktvariablen eines vorhandenen Schemas gebildet werden. Dazu wurde bereits gesagt, daß eine Aussage, z. B. "sehe(Glas1)", Handlung und Wahrnehmung umfaßt. Sie wird als Weisung an die Sensor-Motorik übergeben, von der Sensor-Motorik als Meldung an die Realität angepaßt zurückgegeben und als Fakt eines Schemas in der Wissensbasis gespeichert.3.1 Trainieren einstelliger Prädikate Unterscheidet sich eine zu erlernende Meldungskette von einem vorhandenen Schema s nur in einer Meldung, so wird dieses Fakt im Schema zur Variablen. Die neue Meldung wird mit dem im Schema bereits vorhandenen Fakt verzeigert bzw. in einen Ring bereits verzeigerter Werte der Variablen aufgenommen. In konnektionistischer Implementierung werden die den Fakten zugeordneten Neuronen verkoppelt. Unterscheidet sich eine zu erlernende Meldungskette von einem vorhandenen Schema s nur durch eine zusätzliche Meldung, so wird diese als zusätzliche Variable in das Schema aufgenommen und in der eben geschilderten Weise verzeigert (Fig. 6). Im allgemeinen wird man zulassen, daß keiner oder mehrere Werte einer zusätzlichen Variablen in einer Meldungskette auftreten. Entsprechendes gilt für Partnervariablen nach 3.2. Die folgenden Beschreibung betrachtet nur alternative Variablen und keine zusätzlichen Variablen.3.2 Trainieren mehrstelliger Prädikate Unterscheidet sich eine zu erlernende Meldungskette von einem vorhandenen Schema s in 2 Meldungen unterschiedlicher Organe {z. B. Auge, Hand}, so wird jede der beiden Meldungen in einen Variablenring aufgenommen. Außerdem werden beide Meldungen mit einander als Partner verkoppelt bzw. verzeigert, wie auch die beiden zugehörigen Fakten im Schema. Bei Einführung des Korrespondenzprinzips wurde das Schema gebildet:s1: sehe(g1) greife(g1) sehe(Karton) lege(0);g Ë G1 = {Glas1, Glas2}. Die eine Aussage über g1 beeinhaltet eine Meldung des Auges, die andere eine Meldung der Hand, wobei visuelle und taktile Wahrnehmungen des gleichen Objekts natürlich durch verschiedene Symbole repräsentiert werden, so daß sich die beiden Meldungen unterscheiden und als Variablen entsprechend zu verzeigern sind. Ein Schema kann beliebig viele Partnervariablen enthalten.3.3 Trainierte Logik Wenn eine Meldung ein Fakt eines Schemas bestätigt hat, wird die im darauf folgenden Fakt des Schemas enthaltene Weisung aktiviert. Mit fortschreitender Abarbeitung des Schemas müssen also immer mehr logische Relationen erfüllt sein, damit eine schemakonforme Weisung produziert wird. Wird die logische Verknüpfung durch Junktoren beschrieben, so ergibt sich in dem Beispielschemanach 1. Meldung: WENN sehe(Glas1), DANN greife(Glas1); WENN sehe(Glas2), DANN greife(Glas2);nach 3. Meldung: WENN ¢(sehe(Glas1) UND greife(Glas1)) ODER (sehe(Glas2) UND greife(Glas2))! UND sehe(Karton), DANN lege(0). Generell sind alle Meldungen eines Schemas durch UND verknüpft, alle Variablen einer Meldung durch ODER, wobei Partnervariablen ggf. mit einander UND-verknüpft sind. Schemata mit gleichem Aktionsteil sind disjunktiv verknüpft.4. Inferenz mit mehrstelligen Prädikaten4.1 Inferenz mit logischen Relationen Ist eine Meldung Variable eines Schemas, so werden die Partner der Meldung und des Fakts im Schema in eine Substitutionsliste eingetragen, und der Meldungspartner wird substituiert, sobald der Schemapartner erwartet wird. Nach visueller Wahrnehmung in sehe(g) wird also zur Steuerung des Greifvorgangs die taktile Partnervariable in greife(g) substituiert. Dies geschieht auch, wenn die Meldung keine Variable des Schemas ist, aber mit dem Fakt im Schema korrespondiert. Fig. 7 zeigt das Parsen von Schema s10 nach der 3. Meldung, formuliert mit Junktoren:wenn ((k1 und k2 und k3) oder (k5 und k2 und k6), dann k4.4.2 Inferenz mit logischen und semantischen Relationen Eine Meldung, die mit der Variablenmenge eines Fakts im Schema korrespondiert, wird bei der Inferenz wie ein Element dieser Menge behandelt, wobei ggf. der Partner dieser korrespondierenden Meldung substituiert wird. Beispiel: Es wurde Schema e1 bis e4 trainiert:Eingabe hören:Ausgabe sagen:@e1 the {market, station}der {Markt, Bahnhof}@e2 the {church, opera}die {Kirche, Oper}@e3 to the {port, station}zum {Hafen, Bahnhof}@e4 to the {church, city}zur {Kirche, Stadt} Danach werden auch nicht erlernte Artikel richtig zugeordnet:@the portder Hafen@to the operazur Oper Wird nachträglich trainiert@+e3 to the {airport}zum {Flughafen},so übersetzt der trainierbare Automat auch@the airportder Flughafen5. Schema-Hierarchien In e3 der Fig. 8 sind Fakten des gleichen Organs zu Subschemata zusammengefaßt. Treten Ketten eines Subschemas in einem neu zu erlernenden Schema auf, so werden sie durch dessen Metafakt substituiert. Diese Hierarchiebildung kann zu mehreren Ebenen fortgesetzt werden. MetaFakten werden auf gleiche Weise zu Variablen, wie terminale Fakten, und ihre Korrespondenz wird ebenso genutzt. Wenn ein bisher unbekannter Satz eingegeben wird, ergeben sich in den vielen Hierarchieebenen vielfältige Möglichkeiten zur Bildung neuer Variablen. Daher wird in einem Suchbaum das konformste Schema gesucht, und ggF. durch Variable oder neue Werten von Variablen ergänzt. Der Suchbaum gestattet die Verarbeitung alternativer Meldungen, z. B. von mehr oder weniger wahrscheinlichen Phonemen bei der Spracherkennung.6. Anwendungsbeispiele6.1 Textübersetzung Die Nutzung von Korrespondenzen zweistelliger Relationen wird am Beispiel der Textübersetzung verdeutlicht. Die sprachliche Vielfalt wird dadurch begrenzt, daß nur "Fragen nach dem Weg" in Form reiner Hauptsätze zugelassen werden. Nachdem die Übersetzungen verschieden formulierter "Fragen nach dem Weg" trainiert worden waren, wurde die Übersetzung der Frage "komme ich hier {zum Hafen, zur Stadt}" nur für die beiden genannten Metavariablen trainiert, wird aber auch für andere Variablen {zu einem Friseur, zu einer Toilette, zum nächsten Arzt, zum Eaton Place, zur Liverpool Street}, die im Kontext anderer Schemata erlernt worden sind, richtig übersetzt. Die beiden letzten Metavariablen des Beispiels enthalten Variable, die in Deutsch und Englisch identisch sind, so daß hier beliebigen Variablen identische Partner zugeordnet werden.6.2 Auskunftssystem Ein Auskunftssystem kann als Auge-Hand-System betrachtet werden, bei der die Hand über Tastatur Texte und Steuerzeichen eingibt, woraufhin die Datenbank dem Auge Texte darbietet. Der Trainierbare Automat transformiert natürlichsprachliche Anfragen für das Auskunftssystem in formatierte Eingaben und wandelt dessen Antwort wiederum in natürliche Sprache. Hier wurde die sprachliche Vielfalt auf Fragen nach Abflügen vom Flughafen Hannover begrenzt. Auf die Frage "wie komme ich bis 20 Uhr 30 nach London?" antwortet der Automat "um 18 Uhr 35 startet Lufthansa Flug 4570 nach London". Zusatzfragen, z. B. nach der Ankunftszeit sind möglich. Zahlen werden als identische Partner verarbeitet.7. Technische Realisierung Fig. 9 zeigt eine konnektionistische Realisierung durch ein neuronales Koppelnetz. Die eingegebene Meldung, bestehend aus Handlung und Wahrnehmung, wird durch ein übliches Neuronales Netz klassifiziert und Fakt genannt. Das Neuronale Netz wurde dazu nach dem Backpropagation-Algorithmus trainiert. Die Erregung seiner Ausgangsneuronen repräsentiert im 1-aus-n-Code die a-posteriori-Wahrscheinlichkeiten ähnlicher Fakten. In dem anschließenden Koppelnetz sind die einzelnen Neuronen durch Kreise dargestellt, die je 1 Fakt repräsentieren und die entsprechend ihrer Erregung und der Stärke der neuronalen Kopplung das in Fig. 9 durch einen Pfeil angeschlossene Neuron erregen. In Fig. 9 wird die Aktivierung nur eines Neurons, das eines der dem Eingang zugeordneten Fakten repräsentiert, verfolgt. Seine Erregung aktiviert die Neuronen, die das gleiche Fakt in anderen Schemata repräsentieren, so daß diese Neuronen alle feuern. Jedes dieser Neuronen verstärkt durch direkte Kopplung akkumulierend die Aktivierung des jeweils zum Schema gehörenden Metafakts und adaptiert dadurch unmittelbar den Automatenzustand. Jedes Neuron, das die dem Eingang zugeordneten gleichen Fakten in verschiedenen Schemata repräsentiert, aktiviert außerdem ggf. die Neuronen der Variablenmenge, zu der es gehört. Diese erregen die Neuronen gleicher Fakten in anderen, korrespondierenden Variablenmengen, die wiederum akkumulierend das Metafakt des korrespondierenden Schemas aktivieren und damit indirekt zur Adaption des Automatenzustands beitragen. In einem neuronalen Koppelnetz laufen viele Vorgänge parallel ab, so daß die gesamte Verarbeitungszeit niedrig bleibt. Die elektronische Realisierung wird jedoch mit wachsender Zahl von Neuronen und Kopplungen sehr aufwendig und erfordert dann technologische Fortentwicklungen. Solche Fortentwicklungen können auf verschiedenen technologischen Grundlagen basieren. Neben Fortschritten in der Integrationstechnik von Halbleitern erscheinen Kopplungen durch elektromagnetische Wellenfelder aussichtsreich. Ein AusÐy03236DEA119828528 DE981116 führungsbeispiel mit wenigen Neuronen und Kopplungen ist durch ein elektronisches Koppelnetz realisiert worden, stieß aber sehr bald an Aufwandsgrenzen. Daraufhin wurde auch deshalb eine programmtechnische Realisierung gewählt, weil sie in der Entwicklungsphase strukturelle Veränderungen erleichtert und schnelle Erprobungen und Erfolgsnachweise ermöglicht. Diese Implementierung kann als Modell einer gerätetechnischen Realisierung angesehen werden, in der Zeiger durch elektronische, elektrochemische oder elektrooptische Kopplungen ersetzt werden. Die erfindungsgemäße Realisierung des Expertensystems durch solche Koppelnetzwerke wird einem Fachmann aufgrund dieser Patentbeschreibung keine Schwierigkeiten bereiten. Es ist aber davon auszugehen, daß ein Fachmann dieses Expertensystem beim gegenwärtigen Stand der Technik noch ebenso programmtechnisch realisieren wird, wie übliche Neuronale Netze. Das in folgenden beschriebene Ausführungsbeispiel wurde daher durch sequentiell ablaufende Algorithmen in Pascal programmiert und auf einem PC implementiert. Es arbeitet mit diskreten Symbolen, die zur Speicheradressierung genutzt werden. Bedeutung erhalten diese Symbole durch ihre Verknüpfung mit anderen Symbolen über eine Vielfalt von Zeigern, die der Kopplung von Neuronen in einer konnektionistischen Implementierung durch Koppelnetzwerke oder elektromagnetische Wellenfelder entspricht. Die Frage der künstlichen Intelligenz, ob Wissen durch Symbole zu repräsentieren ist, oder nicht, erscheint funktionell ebenso zweitrangig, wie die Frage, ob Daten mit ihren Kopplungen lokal oder holographisch gestreut zu speichern sind.8. Definitionen In den Patentansprüchen werden einige Begriffe definiert. Diese Definitionen werden hier kurz zusammengefaßt. Erfindungsgemäß beschreiben die Aus- und Eingabedaten des Expertensystems sowohl Handlungen, als auch Wahrnehmungen, umfassen daher sowohl Stell-, als auch Meßdaten, haben gleiches Datenformat und werden Fakt genannt. Ein Fakt kann nach Art eines Konzepts beliebige Daten, z. B. mehrere Symbole, kontinuierliche Größen und Zeiger umfassen. Werden Fakten zu Variablen, so können sie mehrere Werte haben, also verschiedene Daten enthalten. Eine eingegebene Folge von Fakten wird Kette genannt. Eine erlernte, in der Wissensbasis gespeicherte Folge von Fakten und Faktvariablen heißt Schema und wird durch ein Metafakt gekennzeichnet. Die Konformität, also die Ähnlichkeit oder Gleichheit von Fakten ist aufgabenspezifisch durch ein Ähnlichkeits- oder Zugehörigkeitsmaß quantifizierbar. Ein Kettenfakt kann mit Fakten mehrerer Schemata hinreichend konform sein, also in mehreren Schemata auftreten. Das Lernen, also der Wissenserwerb, erfolgt vorzugsweise durch Trainieren von Beispielen. Die Verarbeitung einer Kette zum Erkennen oder zum Assoziieren von Aktionen heißt Inferenz oder Parsen. Parsen und Lernen können im Ablauf integriert sein.