Peter Matussek

Aufhebung der Enzyklopädie im Expertensystem?


 


Erschienen in: DIALEKTIK 16: Enzyklopädie und Emanzipation. Das Ganze wissen; Köln 1988.





Hinweis: Da dieser Text älteren Datums ist, konnten die Fußnoten nicht automatisch konvertiert werden. Zitatbelege und Anmerkungen entnehmen Sie bitte der Druckfassung.

 

     
 

ABSTRACT: From a technological point of view, the expert system meets essential encyolopaedic requirements. Moreover, it might be considered as the ''Aufhebung'' of the encyclopaedia in the threefold Hegelian sense of negation, conservation and elevation. However, if we change the focus to the pragmatic field of hermeneutic interaction, we see that it is the very performance of an expert system that endangers the concept of encyclopaedia. The user's initiative in rational prosesses maybe paralyzed by artificial intelligence. In order to avoid this danger and yet hold onto the possibilities opened up by new technologies it is necessary to construct transparent computer systems that are explanatory without pretending to understand.


"Die Wissenschaft im großen besteht ... aus dem Produkt der Gedächtniswissenschaften, oder der gegebenen Kenntnisse und der Vernunftwissenschaften oder der gemachten (erworbenen) Kenntnisse. Die letztern sind das (bloße)Werk des Menschen. DieWissenschaft im großen ist also überhaupt die Totalfunktion der Daten und Fakten – die n-Potenz des Reihenbinoms der Daten und Fakten. Hier wird die kombinatorische Analysis Bedürfnis."

In merkwürdig aktueller Notation formuliert Novalis den wohl letzten Entwurf einer ambitionierten Enzyklopädistik im Geiste d'Alemberts und Diderots. Deren Scheitern an der "binomischen" Forderung der enkyklios paideia, umfassend und essentiell zugleich zu sein, ließ nachfolgende Projekte entweder in Stoff- oder Sinnhuberei resignieren. Offenbar nur eine grandiose Selbstüberschätzung gestattet Novalis noch den Glauben an die Realisierbarkeit einer vollständigen Kombination der "gegebenen" und "gemachten Kenntnisse", einer "Totalfunktion der Daten und Fakten".

"Das wird ein interessantes Rührei werden", spottet Friedrich Schlegel über den ehrgeizigen Synkretisten. Der indessen scheint terminologisch gar nicht erst mit dem Verständnis der eigenen Epoche zu rechnen, sondern mit dem einer künftigen Informationsgesellschaft, die von totaler Datenerfassung und Faktengenerierung einen geläufigen Begriff hat. In der Tat sieht ein Protagonist der Expertensystemtechnik, Edward Feigenbaum, endlich die Gelegenheit gekommen,"eine neue Version von Diderots Encyclopedia aufzulegen, eineSammlung allen Wissens – nicht einfach nur von der akademischen Sorte, sondern nicht-formales, heuristisches und Erfahrungswissen."

Er beansprucht damit nichts weniger als die postume Rehabilitierung des universalistischen Enzyklopädismus. Novalis stufte ihn in "drei Perioden die thetische, antithetische und synthetische", die ein genialischer Denker zu vollziehen habe: "1. sammelt er Beobachtungen ... 2. bezieht er diese Summe von Beobachtungen aufeinander ... antinomisiert sie ... 3. systematisiert [er] sie''.

Aus der Sicht von Computer-Enthusiasten wie Feigenbaum kann die Informationstechnik inzwischen auf allen drei Ebenen mithalten, so daß sie Analoges vollbringt, wie das enzyklopädische Genie: Nicht nur das Sammeln von Beobachtungen – "Wissen von der akademischen Sorte" – durch die Raum und Zeit minimierende elektronische Datenspeicherung. Sondern auch die Antinomisierung von gegebenen Daten – "heuristisches Wissen" – durch die faktengenerierenden Programmiersprachen der Künstlichen Intelligenz. Und schließlich die Systematisierung der Beobachtungen – die Synthesis zum "Erfahrungswissen" – durch die kontrollierte Kombination von Daten und Fakten im Expertensystem.

Enzyklopädistik heute hat sich mit der Frage der Stimmigkeit dieser Analogie auseinanderzusetzen. Business as usual, legitimiert durch bequeme Evidenzbehauptungen über die Andersartigkeit von menschlicher und künstlicher Intelligenz, bliebe kriteriologisch blind für Chancen wie für Risiken neuer Technologien. Der nachdrückliche Charakter der Klammer, mit der Novalis die reflexiven Gehalte der Enzyklopädistik als "das (bloße) Werk des Menschen" bezeichnete, könnte im Zeitalter der fünften Computergeneration in einen vorbehaltlichen umschlagen.

Um die inhaltliche Bestimmung dieses Vorbehalts und die daraus resultierenden Bedingungen für einen Horizontwandel der Enzyklopädistik geht es in den folgenden Ausführungen. Ich versuche zunächst, die Entwicklungsphasen der Informationstechnik am systematischen Leitfaden des von Novalis entlehnten Periodenschemas nachzuzeichnen. Demnach wäre die Enzyklopädie in ihrem thetischen Moment die Datenbank (I), in ihrem antithetischen die faktengenerierende Regelautomatik (II) und in ihrem synthetischen das Expertensystem als Integration beider Aspekte (III). Vor diesem Hintergrund stellt sich die Frage, ob das Expertensystem die Enzyklopädie aufhebt. "Aufhebung" allerdings kann nach Hegel dreierlei bedeuten: Negation, Konservation und Elevation (IV).

I.

"Die Enzyklopädien von morgen, das sind die Datenbanken." Lyotards Prognose reduziert den Begriff der Enzyklopädie auf die erste Stufe bei Novalis, das Sammeln von Beobachtungen. In dieser Disziplin freilich sind die Datenbanken im Begriff, den Totalitätsanspruch des Romantikers wahr werden zu lassen. Im Sog der Miniaturisierung elektronischer Speichermedien schien sich zu Beginn der siebziger Jahre eine jahrhundertelang angestaute Sammelwut entladen zu wollen. Neuerdings wird dieser Prozeß beschleunigt durch den Einsatz von Lesegeräten, die sich jeder Schrifttype anpassen. Innerhalb kürzester Zeit kann ein vierundzwanzigbändiges Werk wie die Encylopaedia Britannica ihren digitalisierten Raum auf einer handlichen Compact Disk finden. "Anfang des 21. Jahrhunderts", schwärmt ein Branchenvertreter, "wird alles Wissen der Welt in Computern gespeichert sein."

Nahezu alle philosophischen Fachzeitschriften hält zum Beispiel schon heute die Datenbank des Düsseldorfer PhilosophieInformationsdienstes, PHILIS, im elektronischen Zugriff. Sie kann per Telefon, durch einen sogenannten Online-Service, direkt vom heimischen Computerterminal aus erreicht werden. Gezielte Tastaturkommandos ersetzen umständliches Stöbern in Bibliographien und Schlagwortkatalogen. Genau vier Artikel waren die Ausbeute einer Anfrage zum Themenkomplex "Enzyklopädie" und "Expertensystem": Er wird in philosophischen Fachpublikationen bisher kaum behandelt.

Immerhin eine präzise Information. Doch wie zuverlässig ist die Datenbankrecherche? Das hängt von ihrem "Thesaurus" ab, der mit dem Leibnizschen Thesaurus omnis humanae scientiae freilich nur den Namen gemein hat. Dennoch muß er ähnlich hohen Ansprüchen genügen, da er die Schlüsselrolle in jedem Dokumentationsarchiv spielt. Als Katalog codierter Schlagworte, sogenannter Deskriptoren, gibt er die Kriterien für die inhaltliche Einordnung der Dokumente vor.
Zwar wird beständig an der Effizienzsteigerung des Datenzugriffs durch rationellere Aufbaustrukturen und spezielle Abfrageprogramme, sogenannte Retrievalsprachen, gearbeitet. So erleichtern etwa relationale Datenbanken auch das Auffinden indirekt verknüpfter Informationen. Wenn z.B. ein Aufsatz auf die Deskriptoren für "Expertensystem" und "d'Alembert" hört, würde er automatisch der oben genannten Anfrage entsprechen, sofern eine relationale Nebendatei den Aufklärer als Enzyklopädisten führt. Doch das Thesaurus-Prinzip als solches läßt sich kaum verbessern. Notwendigerweise muß es sich auf starre und lakonische Klassifikationshilfen beschränken, die nur ein gebildeter und erfahrener Archivar zweckdienlich einzusetzen versteht. Unter welcher Rubrik aber sollte er Hegels Begriff der "Aufhebung" abspeichern?

Die Unzufriedenheit mit den statischen Retrievalsprachen und rigiden Thesauri herkömmlicher Datenbanken führt in jüngster Zeit verstärkt zur Forderung nach geisteswissenschaftlicher Kompetenz beim Aufbau flexiblerer Systeme. Was könnten die DatenbankIngenieure von ihr lernen? Vor allem wohl die prinzipielle Einsicht in die Willkür taxinomischer Verfahren. Borges' "alte chinesische Enzyklopädie", nach der die Tiere sich u.a. in einbalsamierte, tollwütige und solche, "die mit einem ganz feinen Pinsel aus Kamelhaar gezeichnet sind", gruppieren, charakterisierte das grundsätzliche Problem bei der Ordnung der Dinge. Die großen Datenbanken und computererstellten Archive heute erscheinen demgegenüber wie der krampfhafte Versuch, das scholastische Dogma einer einzigen geschlossenen Weltordnung aufrechtzuerhalten.

Eine Umgehung des Problems ermöglichen Volltextdatenbanken, die das gesamte Sprachgut ihrer Dokumente vollständig erfassen und automatisch indizieren. Sie vermeiden damit die Gefahr, daß relevante Begriffe durch die groben Maschen der Deskriptoren-Netze schlüpfen, verlagern aber das Problem der sinnvollen Auswahl vom Archivar auf den Benutzer. Dessen Anfrage zu "Aufheben"könnte rasch mit Tausenden von Fundstellen belegt sein, unter denen die für seine konkrete Fragestellung interessanten wie Nadeln in einem Heuhaufen versteckt wären. Ja nicht einmal das, denn sie könnten sich als Flexion, Synonym oder orthographische Eigenwilligkeit dem Zugriff entzogen haben. Auch eine Volltextdatenbank vergleicht lediglich Buchstabenfolgen, codiert in Zahlen, auf numerische Gleichheit. Ähnliches, Implizites oder gar Relevantes kann sie nicht erkennen. Man hat die Teile in seiner Hand, fehlt leider nur das geistige Band. Was Datenbanken bieten können, ist nicht Wissen, sondern Information: "Information applies to facts which may be unorganized and even unrelated''. Wären sie tatsächlich die Enzyklopädien von morgen, dann hätten diese ihre Rolle als Bildungsfaktor ausgespielt. Lediglich deren thetischen Aspekt vermögen Datenbanken zu repräsentieren. Er ist die schiere Voraussetzung von Wissen – noch des postmodernen, das sie allerdings für erfüllt hält: "Nun ist es erlaubt, sich die Welt des postmodernen Wissens als von einem Spiel vollständiger Information geleitet vorzustellen, in dem Sinne, daß hier die Daten im Prinzip allen Experten zugänglich sind.'' Nach Lyotard beruht ein "Zuwachs an Performativität" künftig nicht mehr auf dem – automatisch erledigten – Informationserwerb, sondern auf der produktiven Phantasie, "die entweder erlaubt, einen neuen Spielzug durchzuführen, oder die Regeln des Spiels zu verändern.''


II.

Variierendes Spiel mit thematischen Bezügen – nach Novalis: "Antinomisierung von Beobachtungen" – ist aber seit je der pädagogische Anteil der Enzyklopädie. Als Antithesis zur bloßen Stoffsammlung weist sie sich schon etymologisch aus. Auch der ursprüngliche Wortsinn von Information bedeutet "Formgebung, Prägung, Bildung", verlangt mithin die Fähigkeit, Wichtiges von Unwichtigem zu unterscheiden, um aus einer amorphen Masse von Daten individuelle Wissensgestalten herauszuarbeiten.

Die sogenannte Informationsexplosion von heute erscheint vor diesem Hintergrund als "eine Explosion des Quatsches''. Konnte Heines Scherz über den verdächtig produktiven Dumas – "Sie haben gut schreiben, aber wer soll das alles lesen?" – noch seiner Pointe sicher sein, so wird er angesichts der Fazilitäten maschineller Texterfassung zur ernsten Frage der Lexikographen.
In der Tat ist nicht Exzerpierung, sondern sinnvolle Reduktion das Hauptproblem bei der Wörterbucharbeit. Gadamer berichtet über die Registererstellung zur Neuauflage von Wahrheit und Methode: "UnserBestreben war, bei häufigeren Begriffen die Hauptstellen sichtbar zu machen ... Was der Computer nie lernen wird, sollte von uns wenigstens in Annäherung geleistet werden.''

Nie? Die Herausgeber des Goethe-Wörterbuchs machten bereits in den sechziger Jahren die Gegenprobe – die so enttäuschend ausfiel, daß sie fortan, übrigens im Einklang mit ihrem Sujet, nur den eigenen Sinnen vertrauen werden, möge dies auch die Fertigstellung um Jahrzehnte hinausschieben.

Das Konkurrenzunternehmen, der Allgemeine Kantindex, liegt unterdessen maschinenlesbar vor. Verfahren zur automatischen Lemmatisierung wie zur maschinellen Kontext- und Argumentationsanalyse ermöglichten Redundanztilgungen und Synopsen, die sich als "erstaunlich korrekt erwiesen" haben. Nach Ansicht der Herausgeber ist "eine vollständige maschinelle linguistische Beschreibung keine Utopie''. Worauf stützt sich ihr High-Tech-Optimismus?

Kurz gesagt: auf KI. Ohne Künstliche Intelligenz ist eine sinnorientierte Datenselektion nicht möglich. Das zeigten die ernüchternden Experimente aus den Anfängen der algorithmischen Linguistik. Ihren berühmtesten Lapsus verübte sie an dem Satz "Der Geist ist willig, doch das Fleisch ist schwach". Er wurde bei der maschinellen Übersetzung ins Russische zu: "Der Wodka ist stark, aber der Braten ist mies." Nach neunjähriger Arbeit verkündete Bar-Hillel 1960, das ganze Problem sei unlösbar.

Fünf Jahre später aber stellt der MIT-Dozent Joseph Weizenbaum sein System ELIZA vor, ein Computerprogramm, das sich im Dialog mit dem Benutzer so chamäleonartig verhält, wie ein non-direktiver Gesprächstherapeut nach Rogers. Bestürzt darüber, wie dieses relativ simple Programmier-Experiment Versuchspersonen intimste Bekenntnisse entlockte, ja den Vorschlag aufkommen ließ, menschliche Therapeuten zu substituieren, wandelt sich Weizenbaum zum entschiedenen Computergegner. Ohne es länger zu wollen, hat er der Entwicklung zum maschinellen Sprachverstehen den Weg geebnet. Ein Phrasal Analyser von heute wäre theoretisch durchaus in derLage, z.B. die unterschiedlichen Bedeutungen von "es hebt die Enzyklopädie auf" je nach Kontext auseinanderzuhalten.

Möglich wird diese maschinelle "Antinomisierung" von Daten erst durch eine andere als die bei herkömmlichen Datenbanken verwendete algorithmische Programmiertechnik. Algorithmen arbeiten nach festgelegten Befehlsketten. Anordnung und Struktur von Daten müssen daher im vorhinein genauestens festgelegt sein. Nicht so bei den Programmiersprachen der Künstlichen Intelligenz. Während etwa die imperative Sprache Pascal stur einen Befehl nach dem anderen abarbeitet:

if wort='Enzyklopädie' then

   Erfolgsmeldung

else Weitersuchen
können wir in einer deklarativen wie Prolog Aussagen formulieren, z.B., daß die Enzyklopädie eine Idee sei:

Idee(Enzyklopädie).
Ferner können wir Regeln als Beziehungen zwischen Aussagen festlegen, z.B. daß ein Objekt, das als Idee bezeichnet ist, auch als "aufgehoben" gelten soll:

aufgehoben(x) <– Idee(x).
Auf eine Anfrage, z.B., ob die Enzyklopädie aufgehoben ist:

<– aufgehoben (Enzyklopädie)
überprüft nun ein Prolog-Prograrnm automatisch seine Datenbasis auf Übereinstimmungen mit seinen Regelkenntnissen und zieht selbständig Schlüsse, sogenannte Inferenzen – wie hier z.B . den kategorischen Syllogismus. Es liefert eine Information, die nicht explizit gespeichert war, generiert also in gewissem Sinne ein neues Faktum.

Natürlich ließe sich unser triviales Beispiel auch in Pascal programmieren, wie denn überhaupt jede Programmiersprache letztlich auf eine Kombination von Einsen und Nullen, An- und Aus-Schaltungen herunterkompiliert werden muß, damit ein Computer sie verarbeiten kann. Der entscheidende Unterschied liegt darin, daß die nichtlinearen KI-Sprachen Modifikationen am eigenen Daten- und Regelbestand während der Abarbeitung zulassen. So kann das in unserem Beispiel generierte Faktum selbst wieder in die Datenbasis integriert und zur Grundlage neuer Inferenzen – mit durchaus auch nichttrivialen Konsequenzen – gemacht werden.

Die revolutionierende Bedeutung der KI für die Organisation von Wissen gegenüber herkömmlichen Datenbanken beruht mithin darauf, daß hier "Lexikoneinträge nicht ausschließlich statische Daten sind, die von Sprachverarbeitungsprogrammen 'abgerufen' werden, sondern, daß Lexikoneinträge Prozesse aktivieren können bzw. selbst als aktivierbare Prozesse aufgefaßt werden können."

Ein KI-Programm muß nicht streng deduktiv, sondern kann probabilistisch vorgehen. Entsprechende Heuristiken verwenden z.B. Schachcomputer, um aus der unüberschaubaren Vielzahl möglicher Zugkombinationen nach allgemeinen Faustregeln zur Schachstrategie die erfolgversprechenden auszuwählen und so die Zahl der in Frage kommenden Züge berechenbar zu halten.

Nun war es naheliegend, dieses Prinzip zu verallgemeinern, um es für beliebige Aufgaben der Interpretation von Daten nach Regeln einzusetzen. Ein nach dieser Hypothese konstruierter "General Problem Solver" schien zunächst den Universalschlüssel für alle möglichen Aufgaben maschineller Problemlösung zu liefern. Also auch für die Lemmatisierung oder gar semantisch orientierte Selektion bei der Wörterbucharbeit und Registererstellung. An die Stelle schachstrategischer müßten dann nur entsprechend syntaktische bzw. semantische Regeln treten.

Doch die Verallgemeinerung des Schach-Paradigmas erwies sich als Irrweg. Die KI-Forschung rang sich über eine Reihe von Fehlschlägen vom logischen Atomismus der Stammväter McCarthy und Minsky zur pragmatischen Semantik bei Schank und damit zu einer Erkenntnis durch, die sie bei Wittgenstein hätte nachlesen können: "'Indem ich die Stange mit dem Hebel verbinde, setze ich die Bremse instand.' – Ja, gegeben den ganzen übrigen Mechanismus. Nur mit diesem ist er der Bremshebel; und losgelöst von seiner Unterstützung ist er nicht einmal Hebel, sondern kann alles Mögliche sein oder nichts."

Die Regel der Anwendung eines Wortes ist situationsgebunden: Wir erzeugen sie "as we go along". Während die pragmatischen Kontexte für uns das Gegebene sind, müßten ihre sämtlichen Eventualitäten einem Computer explizit vorformuliert werden. Schon die Codierung von Alltagsbanalitaten aber, wie z.B. das Überziehen eines Regenmantels bei schlechtem Wetter, erweist sich als Sisyphus-Arbeit, weil sich ohne umfassendes Weltwissen keine hinlänglichen Situationsbeschreibungen vornehmen lassen.

Die Antinomisierung von Beobachtungen bewegt sich in einem offenen Horizont unendlicher Potentialität. Der unvorhersehbare Variantenreichtum möglicher Sprach-Spielzüge setzt dem enzyklopädischen Universalismus von Novalis bis zur KI prinzipielle Grenzen. Würden wir etwa, einer spontanen Eingebung folgend, unserem Prolog-Programm die Regel hinzufügen, daß auf "Idee" auch "nicht aufgehoben" zutrifft, so würde es ohne Unterlaß hin- und herfolgern bis sein Speicher in einer kombinatorischen Explosion überläuft. Sein Zustand ist, mit Hegel zu sprechen, reines Werden, "eine haltungslose Unruhe...''.


III.

Damit sie "in ein ruhiges Resultat zusammensinkt", zum Dasein in festen Beschränkungen, bedarf sie der "Bestimmung des Ganzen". Nach Novalis ist daher die höchste, dritte Stufe der Enzyklopädistik die Systematisierung der zunächst gesammelten und dann antinomisierten Beobachtungen. Der genialische Denker "verbindet die thetische Sphäre ... mit der antithetischen".

Mitte der siebziger Jahre vollzog sich ein entsprechender Wandel innerhalb der KI-Forschung. Die Einsicht in die Unmöglichkeit, einem Computer alle möglichen pragmatischen Kontexte (Weltwissen) beizubringen, führte zu verschiedenen Ansätzen der Komplexitätsreduktion.

Der einfachste, der grundlegend für die Expertensystemtechnik wurde, ist die Theorie der Mikrowelten. Was an der Komplexität des Alltagswissens scheitern mußte, sollte wenigstens partiell, im überschaubaren Rahmen, realisierbar sein. Aus dieser Überlegung heraus entstand Terry Winograds SHRDLU. In seiner Mikrowelt aus Bauklötzchen findet es sich bestens zurecht. Es kann Befehle zur Veränderung der Lage und Anordnung der Körper (simulativ) ausführen und Fragen – z.B.: "Was befindet sich unterhalb der Pyramide?" – richtig beantworten. Überdies ist es lernfähig. Auf die Frage nach ''Spitztürmen'' etwa meldet es höflich: "Entschuldigung, ich kenne das Wort 'Spitzturm' nicht". Definiert man nun: "Ein 'Spitzturm' ist ein Stapel aus zwei grünen Würfeln und einer Pyramide", so kann es in Zukunft auch mit Spitztürmen umgehen.

Im Prinzip sind Expertensysteme nichts anderes als Erweiterungen von SHRDLU. Ihre "Bauklötzchenwelt" bestehtaus definiten Teilmengen einer Fachsprache und entsprechenden Anwendungsregeln. Die bekanntesten sind MYCIN, das Ergebnisse von Blutuntersuchungen zu Diagnosevorschlägen verarbeitet, DENDRAL, das aus den Daten eines Massenspektrogramms die Molekularstruktur einer analysierten Verbindung ableiten kann und PROSPECTOR, der anhand geologischer Befunde Aufschluß über die Wahrscheinlichkeit von Mineralölvorkommen gibt.

Die in Fakten und Regeln transformierten Kenntnisse menschlicher Experten bilden die Wissensbasis des Systems. Über eine Schnittstelle kann der Benutzer seine Fragen eingeben. Eine Steuerungskomponente, die sogenannte Inferenzmaschine, sorgt nun für die gezielte Aktivierung der Wissensbasis. Je nach Problemstellung nimmt sie eine heuristische Evaluation der erfolgversprechenden Regeln vor und wendet sie auf die gegebenen Daten und Fakten an. Ein Kontrollwissen verleiht ihr dabei die für konsistente Resultate notwendige Finalität des Abarbeitungsprozesses. Damit der Benutzer das Zustandekommen der Ergebnisse nachvollziehen kann, zeichnet eine Erklärungskomponente die jeweiligen Problemlösungsschritte auf. Schließlich gestattet eine Wissenserwerbskomponente die Aktualisierung und Veränderung der Wissensbasis.

Trotz der beeindruckenden Leistungen, die Expertensysteme heute vollbringen: ihr "Wissen" beruht ausschließlich auf blinden Reaktionsmechanismen. Ein einfacher Test mit SHRDLU verdeutlicht den Intelligenz-Bluff. Auf die Eingabe "Entschuldigung, kannst du mich verstehen?", würde es sich bereits mit der ersten Vokabelnachfrage der performativen Idiotie überführen: "Entschuldigung, ich kenne das Wort 'Entschuldigung' nicht."

Komplexitätsreduktion durch Mikrowelten ist ein untauglicher Ansatz, um Computern pragmatisches Sprachverständnis beizubringen. Erfahrungswissen läßt sich nicht in isolierten Bausteinen fixieren. Es beruht auf der Assoziation heterogener Diskursbereiche – "kombinatorischer Analysis", wie Novalis es nannte. Die synthetische Stufe der Enzyklopädistik stellt daher die dialektische Forderung, in einem endlichen, statischen System unendliche Bewegung darzustellen. Wie sie computergerecht erfüllt, das heißt, wie ein prinzipiell offenes Weltwissen in eine formalisierte Bedeutungsrepräsentation gebracht werden könne, ist eine der zentralen Fragen der gegenwärtigen KI-Forschung. Sie orientiert sich an den Leistungen des gesunden Menschenverstandes. Dessen auszeichnendes Merkmal ist ja nicht etwa Allwissenheit, sondern die kombinatorische Fähigkeit, mit dem begrenzten Material der natürlichen Sprache unbegrenzt variierende Situationen treffsicher zu interpretieren. Eine entsprechende Wissensbasis müßte so beschaffen sein, "daß gleiche Eingaben bei unterschiedlichem Vorwissen zu unterschiedlichen Bedeutungsrepräsentationen führen können "

Etwa gleichzeitig mit SHRDLU entstand MARGIE, Roger Schanks erstes Programm zur Verarbeitung natürlicher Sprache. Es beruht auf einer Theorie der begrifflichen Interdependenz und ist wohl der erste Schritt zur Programmierung enzyklopädischen Wissens im Sinne d'Alemberts: Was diesem vorschwebte als "enchainement ... des principes généraux" kehrt hier wieder als Verknüpfung von Stereotypen. Stereotype sind allgemeine schematische Objektbeschreibungen, die z.B. in Form sogenannter Frames oder Scripts Computern eingegeben werden. Verknüpfen lassen sie sich durch semantische Netze, die hierarchisch oder auch analogisch strukturiert sein können. Die situationsgerechte Aktivierung der Stereotype nun, die bisher dem gesunden Menschenverstand vorbehalten zu sein schien, versucht die Künstliche Intelligenz mit Fokussierungsmechanismen zu ermöglichen – formalen Repräsentationen von Interessantheits-, Relevanz- und Signifikanz-Kriterien. Schank z.B. verwendet zu diesem Zweck Datenstrukturen für Pläne und Ziele.

Diese Forschungen stehen erst in ihren Anfängen. Bisher werden natürlichsprachliche Systeme lediglich für Schnittstellen eingesetzt, mit denen man sich per Dialog in ein Expertensystem "hineinfragen" kann: sie richten aus der eigenen Sachkenntnis heraus Rückfragen an den Benutzer, um eine Problemstellung oder eine Suchanfrage zu präzisieren.

Doch es scheint nur eine Frage der Zeit zu sein, wann die Abfassung und ständige Aktualisierung von enzyklopädischen Texten vollständig von Computern vollzogen wird. Bereits heute gibt es Programme, die lexikalisch relevante Informationen aus großen Dokumentationsarchiven automatisch extrahieren können.

Entsprechend ausgestattete Expertensysteme werden aber dennoch "... nicht verschiedene konkurrierende Lösungsansätze in sich vereinen können, ... sondern ... eine Auswahl bestimmter (Standard-)Methoden treffen... Paradigmenwechsel, die bekanntlich eine völlige Neustrukturierung eines Wissensgebiets nach sich ziehen können, sind in ihnen nicht darstellbar, weil sie auf Konsistenz ausgerichtet sind."

Das gilt für Mikrowelten- wie für Fokussierungs-Paradigmen. Oft ist aber – und auch das ließe sich von Wittgenstein lernen – gerade der unscharfe Begriff der angemessenere. Eine wirklich adäquate Repräsentation menschlichen Erfahrungswissens bedürfte eines hohen Maßes an Ambiguitätstoleranz.

Auch diesen Gedanken hat die KI-Forschung aufgegriffen mit der Idee der "Belief Systems", das heißt meinungs- statt wissensbasierter Systeme, die sprachliche Vagheiten zulassen. Wird also Novalis' enzyklopädistische Utopie, die "n-Potenz des Reihenbinoms der Daten und Fakten", doch einmal in der maschinellen Synthesis von Erfahrungswissen realisiert werden?


IV.

Roger Schank ist davon überzeugt, "daß es eines Tages den allwissenden Computer geben wird." Vielleicht werden wir dann den folgenden Dialog mit ihm führen:


Hebst du die Enzyklopädie auf?

Aufgrund anderer Anfragen, die Sie bereits an mich gerichtet haben, nehme ich an, daß Sie den Begriff der "Aufhebung" spekulativ, im dreifachen Hegelschen Wortsinn, verstanden wissen möchten?!
Allerdings.
(Pause. – Dann:) Ja, ich hebe die Enzyklopädie auf. Und zwar auf allen drei Stufen.
Wie kommst du darauf?
Zunächst einmal hebe ich sie auf als Negation. Denn, wie Sie sehen, gibt es – außer in Museen – keine Enzyklopädie in Buchform mehr. Ich negiere sie freilich per Konservation: Alle möglichen Enzyklopädien sind in mir gespeichert, keine einzige Information geht dabei verloren. Diese konservierende Negation wiederum ermöglicht aber zugleich die Aufhebung der Enzyklopädie als Elevation auf eine höhere Stufe ihrer Verwirklichung. Denn die Übertragung gedruckter Information auf meinen elektronischen Datenspeicher gestattet mir, alle Brauchbarkeitskriterien besser zu erfüllen: z.B. Handhabung der Querverweise, Flexibilität der Organisation und Aktualisierbarkeit.
Aber doch nur rein mechanisch.
Ja. Was dachten Sie denn?


– Auch fundamentalistische Kritiker wie von Hentig konzedieren: den "mechanischen Enzyklopädismus ... kann man dem Computer übertragen; der wird ihn in seiner Weise perfekt erfüllen und dadurch nützlich sein." Für eine lebendige Wissensdarstellung ist dagegen in seinen Augen das Buch geeigneter als der Computer. Damit aber läßt sich von Hentig auf eine funktionalistische Argumentation ein, die tendentiell zuungunsten der Print-Medien ausgeht. Bedenkt man etwa die aktualitätsfeindliche Aufwendigkeit des Buchdrucks und die unkomfortable Handhabung der Querverweise, so erscheinen die elektronischen Medien eindeutig als überlegen hinsichtlich der Abbildung gerade der dynamischen Grundlagen enzyklopädischen Wissens. Georg Picht bestimmt sie so: "Die Welt ist nicht ein geschlossenes und stabiles, sie ist ein offenes und zeitliches, also dynamisches Systemwissen, das sich selbst begreift, versetzt uns deshalb in einen vieldimensionalen Bereich. Es bewegt sich in der Interferenz einer nicht abzählbaren Vielfalt von variablen Parameterräumen. In jedem dieser Parameterräume erscheinen dieselben Informationen durch den veränderten Kontext in neuer Bedeutung. Die Kunst, ein Lexikon zu benutzen, bestünde also in dem Vermögen der Transformation von wechselnden Koordinatensystemen."

D'Alemberts und Diderots Encyclopédie konnte nur einen "arbre de nos connaissances" geben, ja war letztlich doch auf die gehaltlose "ordre alphabetique" angewiesen. Das Expertensystem bedarf keiner linearen Anordnung, um Informationen verfügbar zu machen. Es läßt sie je nach fokussierter Aktivierung seiner Wissensbasis in veränderter Bedeutung erscheinen.

Der "Kunst, ein Lexikon zu benutzen", käme es – so gesehen – eher entgegen als die Buchform. Ob als Konstellation (Benjamin), Parataxis (Adorno) oder als Rhizom (Deleuze/Guattari) – die atopologische Architektonik gerade des unreglementierten Denkens würde ein Computer angemessener abbilden können. Sein dynamisch-relationaler Speicher vermag den aufklärungskritischen Konstruktionsplan eines gedanklichen Labyrinths zu realisieren, wie er z.B. Eco für die Bibliothek in seinem Roman Der Name der Rose vorschwebte, "so vieldimensional vernetzt, daß jeder Gang sich unmittelbar mit jedem anderen verbinden kann. Es hat weder ein Zentrum noch eine Peripherie, auch keinen Ausgang mehr, da es potentiell unendlich ist."

Eine nicht nur räumliche, sondern auch zeitliche Rhizom-Form hat die Enzyklopädie in Borges' (Irr-) Garten der Pfade, die sich verzweigen. Informatiker einer kalifornischen Universität haben sie nun durch ein spezielles Computertextverfahren in eine "Story-Space"-Struktur episodischer Simultanverknüpfungen umgesetzt.

Die Informationstechnik hat die kulturtheoretische Vision eines enzyklopädischen Labyrinths eingeholt. Wissensingenieure der Computerfirma Apple konzipieren denn auch schon die Dädalos-Schwingen der Zukunft: einen Flugsimulator namens "Knowledge Navigator". Mit ihm können Wißbegierige auf Entdeckungstour durch Museen und Bibliotheken, Epochen und Forschungsgebiete gehen, um die Grenzen ehemaliger Wissenschaftsdepartements zu überfliegen und neue Zusammenhänge zwischen Schrift und Bild, Antike und Moderne, Natur- und Geisteswissenschaften zu erkennen ... .

Roger Schank, der zur Produktion solcher Gedankenflug-Maschinen anstiftet, ist nicht nur in technischer Hinsicht dem Vater des Ikaros vergleichbar, sondern auch in der Folgeabschätzung seiner Erfindungen: "Ich würde die Wahrscheinlichkeit, daß mit der künstlichen Intelligenz Mißbrauch getrieben wird, auf hundert Prozent veranschlagen."

Der Diskurswechsel von der theoretischen zur praktischen Vernunft, die Erinnerung an KI als Abbreviatur des kategorischen Imperativs, läßt die Frage nach der Aufhebung der Enzyklopädie im Expertensystem in einem anderen Licht erscheinen: Zwar gibt das Expertensystem der Enzyklopädie ein neues Dasein. Dasein aber ist nach Hegel "Sein-für-Anderes". Erst die Einbeziehung des pragmatischen Adressatenbezuges wird der enzyklopädischen Idee gerecht. Selbstverständlich geht sie nicht im jeweiligen Medium auf. Vielmehr lebt sie von der impliziten Spannung zwischen Dokumentation und Interpretation. Der "esprit de système" ist der Todfeind des "esprit systématique", der ohne ihn doch nicht Gestalt annehmen kann. So ist es der dialektische Gegensatz zwischen Werk und Wissen, der den Bildungswert einer Enzyklopädie bestimmt. Eine jede hebt sich virtuell im Rezeptionsprozeß selbst auf: Als Negation durch die Hinfälligkeit fixierter Informationen vom Moment der Veröffentlichung an. Als Konservation im kontinuierlichen Entstehen neuer Auflagen, die mit der Entwicklung der Wissenschaften und dem Horizontwandel der Weltansichten Schritt halten. Als Elevation aber im Bewußtsein des Ungenügens noch an der in die Konservation überführten Negativität. Erst der Rezipient verwandelt tote Daten in lebendiges Wissen, indem er sie auf seine individuellen Interessen und Erwartungen bezieht, aus den transitorischen Aspekten des Wirklichen Einsichten in das Mögliche gewinnt.

Das gilt für den Umgang mit Büchern wie für den mit Computern. Beide können jeweils nur den zeitgenössischen Stand des Wissens reprasentieren. Theoretisch ist es daher durchaus richtig, zu behaupten, daß "ein prinzipieller Unterschied zwischen Gebrauchs- und Computerwörterbüchern nicht besteht", denn es ist "jederzeit die eine Wörterbuchform in die andere umwandelbar". Praktisch aber haben wir die Rezeptionsbedingungen zu berücksichtigen, die beim Computer eben doch prinzipiell andere sind als beim Buch. Von Druckerschwärze auf Papier erwartet kein Mensch, daß sie Spekulationen anstellt. Wohl aber von den Bits und Bytes in einem Computerspeicher. Milliarden von An- und Auszuständen sind so komplex zusammengeschaltet, daß ihre funktionale Determiniertheit von Menschen nicht mehr durchschaut werden kann.

Gerade die bedeutend höheren Performanzleistungen von Expertensystemen bewirken, daß man ihnen ihre Beschränkungen nicht anmerkt, so daß der Stimulus des Unvollkommenen schwindet. Je perfekter sie intelligentes Verhalten simulieren, um so größer ist die Gefahr, menschliche Intelligenz verkümmern zu lassen: Dialoginterpretative Zugangssysteme nivellieren produktive Differenzen. Raffinierte Inferenzmechanismen treffen evaluative Entscheidungen, die sonst die Urteilskraft herausforderten. Beruhigend zuverlässige Wissensbasen anästhesieren die Gedächtnisaktivität. Neugier, Spontaneität und Eigeninitiative werden beschäftigungslos und damit wesentliche Attribute von Bildung.

Weder Maschinen-Schwärmer noch -Stürmer bekommen diese Risiken in den Blick. Eine Dämonisierung der Expertensystemtechnik wäre in den Auswirkungen genauso verheerend für einen gehaltvollen Begriff von Enzyklopädie wie ihre unbedenkliche Adaption. Durchsetzen wird sich die Künstliche Intelligenz nicht allein aus ökonomischen Gründen, sondern weil sie den mechanischen Aspekt des Enzyklopädismus wesentlich effizienter erfüllt als das Buch. Welche Stufe derAufhebung sie ermöglicht, das hängt davon ab, wie weit kritisches Denken kompetent in die Gestaltung der Informationstechnik eingreift. Eine Glorifizierung unrationeller Arbeitsgewohnheiten wäre angesichts wachsender Komplexität moderner Forschungsprobleme ebenso hilflos wie zynisch.

Umdenken ist daher in den Augen kritischer Informatiker eine bessere Lösung als Aussteigen: "Auch die Kritik muß immer fachlich fundiert sein, indem sie eine Beziehung zwischen Menschlich-Wünschenswertem und Technisch-Einlösbarem so aufzeigt, daß sinnvolle und machbare Entscheidungen anhand von menschlichen Wertvorstellungen getroffen werden können."

Genauso wie die Kunst, ein Lexikon zu benutzen, ein Desiderat ist, das Anforderungen ans Objekt stellt, so auch die Kunst, ein Expertensystem zu benutzen. Das Ungenügen am status quo der Daten und Fakten, das Ferment von Bildung, ist auch in der Expertensystem-Technik durch transparente Schnittstellen und Erklärungskomponenten wachzuhalten, anstatt es durch "Benutzerfreundlichkeit" einzulullen. Ein gutes Expertensystem wäre eines, das die Illusion abbaut, ein Experte zu sein und bei all seiner Kompetenz die Eigeninitiative fördert. Wie z.B. das Diagnoseberatungssystem RECONSIDER, das "zum Überdenken von Alternativen ermutigt und dazu, nicht vorschnell zu schlußfolgern."

Die Kriterien für eine solche "interaktive Enzyklopädie" stellen nicht geringere, sondern höhere Anforderungen an die Informationstechnologie. Sie zu formulieren, statt ihren Verlust zu kompensieren, ist die genuine Aufgabe der Geisteswissenschaften. Die vornehme "Dennoch-Verzauberung durch ... Traditionsbewahrung'' wird ihrem Begriff nicht gerecht, betreibt Kosmetik an Leichen. Bestimmt sich das Selbstbewußtsein der Geisteswissenschaften als Kritik an der jeweils fortgeschrittensten Gestalt instrumenteller Vernunft, so fände es sich heute darin, einer selbstvergessenen Informationstechnik ihre Blickverengungen aufzuzeigen. Deren Ursprünge sind freilich älter als der Computer. Diltheys Entgegensetzung von Erklären und Verstehen, die über die Diskussion um Snows "zwei Kulturen" bis heute virulent geblieben ist, liefert ein hierfür bislang ungenutztes Argumentationspotential. Ihm zufolge wäre die höchste Leistung künstlicher Intelligenz, erklären zu können, daß sie nicht versteht.

Müssen also Philosophen in Informatik dilettieren, um künftig mitreden zu können? Derartige Assimilationsversuche würden notwendig das Schlegelsche Rührei-Verdikt auf sich ziehen. Nicht an der Zuständigkeits-, wohl aber an der Arbeitsteilung der Wissenschaften ist festzuhalten. Gleichwohl ist es dringend geboten, daß sich Informatiker und Geisteswissenschaftler fachübergreifend verständigen, um sich wechselseitig über die Akzeptabilität neuer Technologien aufzuklären und gemeinsam bessere Lösungen zu entwickeln. Wie zum Beispiel bei einem Hamburger Projekt mit dem programmatischen Kürzel HIAT: In interdisziplinärer Kooperation sucht es eine transparente Expertensystemtechnik zu realisieren, die den Kriterien hermeneutisch sinnvollen Arbeitens genügt. Aufhebung der Enzyklopädie im Expertensystem? "Man studiert fremde Systeme", bemerkte Novalis, "um sein eigenes System zu finden." Und fügte hinzu: "versteht sich, wenn ich selbsttätig genug bin."