Peter Matussek

Grundlagen für den Einsatz neuer Technologien in den Geisteswissenschaften.

 


Konzeptstudie für das Bundesministerium für Forschung und Technologie (heute: BMBF); Hamburg 1988.

 

     
 

Gliederung


1. Zusammenfassung                                                                              

2. Darstellung der Projektidee                                                         

2.1 Begründung                                                                     

2.2 Theoretische Vorüberlegungen und Hypothesen              

2.3 Zielsetzung                                                                      

2.4 Methode                                                                                     

3. Stand der Forschung                                                                    

3.1 Zur Wissenschaftstheorie und Methodologie der Geisteswissenschaften  

3.2 Zur Medientheorie geisteswissenschaftlicher Arbeitstechniken   

3.3 Entwicklungsstand neuer Technologien für geisteswissenschaftliche Grundfunktionen        

3.4 Offene Probleme                 

4. Arbeitsprogramm                                                                              

4.1 Konzeption              

4.2 Realisierung                    

4.3 Evaluation                     

5. Genaue Beschreibung der zu verwendenden Techniken und der Anforderungen an diese Techniken                              

5.1. Software                 

5.2 Hardware               

6. Transfermöglichkeiten unter dem Aspekt einer breiten Verwendung in den Geisteswissenschaften                                    

7. Wissenschaftliche Kontakte

8. Name, Ausbildung und Arbeitsbereich der am Projekt maßgeblich Beteiligten
9. Spezifikation des zeitlichen und finanziellen Rahmens                            

9.1 Zeitplan                     

9.2 Kostenplan                     

10. Literatur                                                                                      

11. Anlage                                                                                         


1. Zusammenfassung

 

Das Projekt HIAT stellt sich die Aufgabe, ein bisher ungenutztes Wirkungspotential neuer Technologien für die geisteswissenschaftliche Forschung zu erschließen. Deren immer noch äußerst geringe Akzeptanz gegenüber dem Einsatz computergestützter Hilfsmittel ist auf ein Akzeptabilitätsproblem zurückzuführen: Die verfügbaren Technologien werden den geisteswissenschaftlichen Forschungsinteressen grundsätzlich nicht gerecht. Sie sind auf die empirisch‑erklärenden Verfahren der Naturwissenschaften zugeschnitten. Der hermeneutisch‑verstehende Ansatz der Geisteswissenschaften aber setzt einer Formalisierung sowohl ihrer Inhalte als auch ihrer Arbeitsmethoden prinzipielle Grenzen.

Die Anerkennung dieses paradigmatischen Gegensatzes muß und darf jedoch nicht in resignative Technikabstinenz münden. Vielmehr enthält er eine produktive Spannung, aus der technologische Lösungen für die geisteswissenschaftliche Forschung gewonnen werden können.

Unter dieser Prämisse konzipiert das hier vorgestellte Projekt die Gestaltung des geisteswissenschaftlichen Arbeitsplatzes von morgen. Durch eine praxisorientierte Grundlagenforschung im interdisziplinären Dialog zwischen Geisteswissenschaft und Informatik will es die zukunftsorientierten Anforderungen an neue Technologien im Slnne geisteswissenschaftlicher Problemstellungen formulieren und experimentell realisleren.

Konkret geht es um die Entwicklung einer Software mit Expertensystemfähigkeiten, die drei Grundtypen hermeneutischen Arbeitens genügt und sie forschungsintensivie­rend vereinigt: interpretative Phänomenkonstitution, sinnorientierte Recherche und parataktische Darstellung. Diesen Vorgaben entspricht das zu konstruierende „Personal Indexing and Retrieval plus Editor" (P.I.R.E.): Es bietet einen für bestimmte hermeneutische Interessen maßgeschneiderten Zugriff auf eine Volltextdatenbank über drei kooperierende Anwenderprogramme: Der „Indexer" hilft bei der Ideenfindung und Problemformulierung durch eine interaktive Dialogführung und legt jeweils darüber Scripts an, die den Wissensbestand der Datenbank entsprechend vorstrukturieren. Das Retrieval‑System, der „Knowledge Navigator" gestattet eine den jeweiligen Forschungsinteressen angemessene Datenselektion. Der „Editor" ist ein Textverarbeitungsprogramm, das die Gestaltung und Konzeption auch nicht hierarchisch gegliederter Texte unterstützt. Die drei Teilkomponenten arbeiten im koordinierten Multitasking­Verfahren, so daß z.B. während des Schreibvorgangs die Indexscripts automatisch

revidiert werden und der „Knowledge Navigator" jeweils adäquates Informationsmaterial bereitstellt.

Das Knowledge engineering für das P.I.R.E. bedarf als Voraussetzung einer kriteriologischen Klärung hermeneutischer Arbeitstechniken. Sie soll durch wissenschafts‑ und medientheoretische Untersuchungen zur geisteswissenschaftlichen Methodologie erbracht werden.

Der Prototyp des P.I.R.E. ist schließlich in einer größeren Feldstudie zu forschungsrelevanten Problemstellungen daraufhin zu überprüfen, ob er den Kriterien von HIAT genügt.

Ziel des Gesamtprojektes ist die Erarbeitung von Rahmenrichtlinien für die sinnvolle Verwendung neuer Technologien in den Geisteswissenschaften.

 

 

2. Darstellung der Projektidee

 

2.1 Begründung

 

Sowohl was die Nutzung als auch die Kritik angeht, steht die geisteswissenschaftliche Grundlagenforschung den neuen Technologoen, z.B. dem rapiden Anwachsen der Kapazitäten zur elektronischen Datenverarbeitung, auffallend indifferent und unvorbereitet gegenüber. Dieses Phänomen wird seit längerem diskutiert, vor dem Kompetenzverlust eines Geisteswissenschaftlers, der sich den neuen Technologien gegenüber verschließt, schon lange entsprechend gewarnt (vgl. Schmidt 1980; Sloman 1979), doch Konsequenzen sind kaum erkennbar.

Zwar stützen sich bereits viele geisteswissenschaftliche Forschungsgebiete auf die Möglichkeiten der EDV; vor allem dort, wo mit statistischen Verfahren gearbeitet wird, wie in der Psychologie oder Soziologie. Aber auch in klassischen Textwissenschaften wie z.B. der Linguistik und Mediävistik hat sie zu beachtlichen Fortschritten geführt.

Doch insgesamt gesehen ist der Anteil der Geisteswissenschaften an der Nutzung der neuen Technologien gegenüber dem der Naturwissenschaften verschwindend gering. So lag er z.B. beim Rechenzentrum der Universität Heidelberg in den vergangenen Jahren stagnierend um 1,5 % (Dietrich 1986).

Diese „Akzeptanzlücke" (Schanze 1986) läßt sich nicht allein auf ideologische Barrieren zurückführen, etwa – nach einem Wort von Walter Jens – jene „nobelanachronistische Rückwärtsschau des Geisteswissenschaftlers". Gewiß sind mangelnde technische Kenntnisse ein Hindernis bei der Exploration neuer Möglichkeiten. In der Forderung nach einer informationstechnischen Grundbildung für die Geisteswissen-schaften das Heilmittel zu sehen, wäre aber eine verhängnisvolle Verkürzung des Sachverhalts. Sie bliebe Symptombehandlung, wenn hinter dem Akzeptanz‑ nicht das grundsätzlichere Akzeptabilitätsproblem gesehen wird: Die bestehenden Techniken entsprechen in aller Regel nicht den spezifisch geisteswissenschaftlichen Anforderungen. Selbst dort, wo sie zum Einsatz kommen, werden die Resultate oft als enttäuschend oder bestenfalls als belanglos eingestuft (Schmidt 1980).

Die Entwicklung neuer Technologien galt bisher als Spezialgebiet von Informatikern, die nicht mit den Bedürfnissen der Anwender genügend vertraut waren (Brunnstein 1985). So liegt auch die Hauptursache für jene Akzeptanzlücke der Geisteswissenschaften u.E. darin, daß die verfügbaren Technologien nur sehr bedingt ihrem Bedarf gerecht werden. Was sie gegenwärtig bieten können, sind vor allem statistische und archivarische Funktionen. Gerade die nicht‑quantifizierbaren Anteile geistes­wissenschaftlichen Arbeitens aber markieren ihren eigentlichen Interessenschwerpunkt (Thaller 1982).

Das heißt nicht etwa, daß die heutigen Möglichkeiten zur elektronischen Verarbeitung großer Informationsmengen für die Geisteswissenschaften per se unbrauchbar wären. Sie könnten z.B. durch intensivierte Rechercheverfahren das Verständnis geschichtlicher Abläufe und Gesetz-mäßigkeiten erheblich voranbringen. Dieses ungenutzte Wirkungs-potential neuer Technologien muß aber durch ein an geisteswissen­schaftlichen Problemstellungen orientiertes knowledge engineering erst erschlossen werden.

 

Aber auch die Informatik hat in jüngster Zeit verstärkt erkannt, daß sie auf geisteswissenschaftliche Erkenntnisse angewiesen ist, wenn sie entscheidende Fortschritte erzielen will (Kölln 1986). Die neuere KI‑Forschung hat überzogene frühere Erwartungen an eine virtuell unbegrenzte Formalisierbarkeit menschlichen Erfahrungswissens fallengelassen (vgl. Weizenbaum 1976, Dreyfus/Dreyfus 1986 u.a.) und wendet sich verstärkt Fragen der Mensch‑Maschine‑Interaktion, der Kommunikation zwischen prinzipiell heterogenen Partnern zu (von Hahn 1985). Es ist das Problem des Wechselbezuges von Information und Erfahrung, Erklären und Verstehen, um das es hier zentral geht. Hier kann die geisteswissenschaftliche Wissenschaftstheorie, die sich ja traditionell mit dem Wechselbezug von Bildung und Wissen in einer bis heute und gerade heute wieder virulenten Diskussion um das Verhältnis der „zwei Kulturen" der„technischen und literarischen Intelligenz" (Snow) beschäftigt, einen kompetenten Beitrag leisten.

Es besteht also von beiden Seiten her Anlaß für einen intensiveren Dialog zwischen Geisteswissenschaftlern und Informatikern. Die Geisteswissenschaften bedürfen, um auf ihrem Gebiet qualitative Erkenntnisfortschritte erzielen zu können, neuer Technologien und müssen an diese entsprechende Anforderungen formulieren.

 

 

2.2 Theoretische Vorüberlegungen und Hypothesen

 

Das hier vorgestellte Projekt widmet sich dieser Dialogforderung. In enger interdisziplinärer Zusammenarbeit zwischen einem Geisteswissenschaftler und einem Informatiker soll eine Software mit Expertensystemfähigkeiten konzipiert und experimentell realisiert werden, die den Kriterien einer „hermeneutischen Interessen angepaßten Technologie" (HIAT) genügt.

Hermeneutische Interessen stehen grundsätzlich in einem Spannungsverhältnis zu denen der Technisierung. Gerade dadurch aber bleiben sie in Wechselwirkung auf diese bezogen. Sie wandeln sich mit den technischen Entwicklungen und diskursiven Begriffshorizonten. Dieses Interdependenz‑Verhältnis zwischen heterogen aufeinander Bezogenem findet seinen Ausdruck im seit je ambivalenten Begriff der Bildung. Zwar sperrt sich der verstehende Zugang der Geisteswissenschaften prinzipiell einer Formalisierung ihrer Arbeitsmethoden, so daß sich analytisch‑erklärende Teilbereiche nicht ohne Substanzverlust vom hermeneutischen Kontext isolieren lassen. Wird dies nicht berücksichtigt, kann die – an sich wünschenswerte – Entlastung der Geisteswissenschaften durch neue Technologien unversehens in eine Belastung ihrer reflexiven Qualität umschlagen. Andererseits wird auch ein Rückzug der Geisteswissenschaften auf traditionelle Bildungsgüter ihrem Begriff nicht gerecht, er wäre nach ihrem eigenen Maß „Kosmetik an Leichen". Die Abgrenzung kognitiver von bildungsrelevanten Aspekten käme einer Kolonialisierung der Geisteswissenschaften gleich. Eine Assimilation ihrer Verfahren an die der Naturwissenschaften würde sie also ebenso ihrer Substanz berauben wie eine abstrakte Negation technischer Intelligenz.

Diese Prämisse von HIAT konvergiert zugleich mit neueren Erkenntnissen der Informatik. Die enthusiastischen Erwartungen früherer Phasen der KI‑Forschung an die prinzipiell unbegrenzte Operationalisierbarkeit menschlichen Erfahrungswissens gilt heute als überholt.

So steht die Wortassoziation der Abkürzung „HIAT" für das regulative Prinzip des Projekts: Es begreift die grundsätzliche Kluft zwischen Mensch und Maschine als produktiven Gegensatz. Anstatt ihn zu verdrängen, sucht es ihn in seinen spezifischen Ausprägungen als „Miteinander des Verschiedenen" zu begreifen und die gewonnenen Erkenntnisse fruchtbar zu machen für die Konzeption eines Schnittstellen-designs, das modellhaft sein soll für den geisteswissenschaftlichen Arbeitsplatz der Zukunft.

 

 

2.3 Zielsetzung

 

Ein solcher Arbeitsplatz ist das „Personal Indexing and Retrieval plus Editor" (P.I.R.E.), der im Rahmen von HIAT konstruiert werden soll.

Die Stagnation der EDV‑gestützten geisteswissenschaftlichen Forschungen beruht v.a. darauf, daß die neuen Techniken nur zur Arbeitserleich-terung, zur Abnahme von Routinearbeiten herangezogen wurden. Dadurch kann kein qualitativer Zugewinn erreicht werden.

Auch die Erstellung riesiger Archive nützt dem Geisteswissenschaftler oft wenig; manchmal verstellt sie eher den Blick. Denn er hat es weniger mit der Faktenanhäufung oder quantifizierten Analyse als mit Sinnkriterien, also Deutungsfragen zu tun.

Es geht um die Realisierung der paradoxen Aufgabe, technische Hilfen für die Bewältigung konstitutiv nicht‑technischer Forschungsstrategien zu erfinden. Sie sollen nicht nur Hilfsfunktion haben, sondern geisteswissen-schaftliche Forschung qualitativ fördern, d.h. die normativen Aspekte der geisteswissenschaftlichen Informationsverarbeitung konkret unterstützen.

Idee des P.I.R.E. ist daher eine integrierte Software für Personal Computer, die die drei Grundformen geisteswissenschaftlichen Arbeitens kreativitätssteigernd und forschungsintensivierend vereint: interpretative Phänomenkonstitution (a), sinnorientierte Recherche (b) und parataktische Darstellung (c).

 

(a) Da geisteswissenschaftliche Forschungen sich auf Gegenstände der reflektierenden Urteilskraft beziehen, sind ihre Phänomene nicht subjektunabhängig gegeben, sondern werden in hermeneutischer Interpretation erst konstituiert. Ein entsprechendes Expertensystem sollte also in der Lage sein, den Benutzer schon bei der Problemfindung zu unterstützen, indem es seine individuelle Herangehensweise im Dialog eruiert.

 

(b) Die Selektion bestimmter Informationen aus einer Datenbank läßt sich in den Geisteswissenschaften in aller Regel nicht nach eindeutigen Deskriptoren festlegen. Sie unterliegt variablen Sinnkriterien. Eine zweckmäßige Datenbank muß also in der Lage sein, das vorhandene Wissen entsprechend flexibel zu strukturieren und abzurufen.

 

(c) Die Schreibweise eines Geisteswissenschaftlers unterscheidet sich von der eines Naturwissenschaftlers grundsätzlich durch einen freieren Aufbau. Sie ist weniger hypotaktisch als vielmehr parataktisch organisiert. Ein entsprechender Texteditor soll dem gerecht werden durch simultane Verwaltung nebeneinandergeordneter Textpartien.

 

Durch die Anpassung der drei Teilkomponenten an den genuin geisteswissenschaftlichen Bedarf und ihren hohen Interaktionsgrad, der eine wesentlich qualifiziertere Auswertung des Forschungsmaterials gestattet als bisher möglich, dürften entscheidende Fortschritte im Verständnis geisteswissenschaftlicher Phänomene und Problemstellungen zu erwarten sein.

Die Frage, ob und wie das P.I.R.E. zu realisieren sei, ist Gegenstand des For­schungsprojekts HIAT. Es soll so weit wie möglich auf vorhandene Technologien aufbauen, diese aber in einem den genannten Erfordernissen adäquaten Schnittstellen­Design neu zusammenführen. Wie das sinnvollerweise auszusehen hätte, kann hier nicht vorweg entschieden werden. Es muß theoretisch erforscht und praktisch erprobt werden. Ziel und Erfolgskriterium ist es, mit dem P.I.R.E. nicht nur der Arbeits­erleichterung zu dienen, sondern zu relevanten Ergebnissen in einem sensiblen Kernbereich geisteswissenschaftlicher Forschung zu führen. Darüberhinaus soll das P.I.R.E. aber auch in anderen Disziplinen einsatzfähig sein, die sich auf hermeneutische Verfahren stützen.

 

 

2.4 Methode

 

Grundvoraussetzung für die methodische Durchführung von HIAT ist die interdisziplinäre praxisorientierte Kooperation zwischen Geisteswissenschaftler und Informatiker. Hierfür gibt es bisher keine einschlägige Methodologie. Sie wäre erst noch aus Erfahrungsberichten zu gewinnen.

Zur Bestimmung der Kriterien für HIAT soll das Verfahren der diskurstheoretischen Rekonstruktion herangezogen werden. Dieses Verfahren hat sich als fruchtbar erwiesen bei Versuchen, Fragen der praktischen und ästhetischen Vernunft, um die es sich hier handelt, so zu reformulieren, daß sie diskursfähig und damit überprüfbar werden.

Für die Lösung auftauchender Schwierigkeiten sind Expertenbefragungen und Hearings anzusetzen.

Die Evaluation der Forschungsrelevanz des P.I.R.E. für die Geisteswissenschaften soll nach dem Vorbild qualitativer Auswertungsverfahren aus der empirischen Sozialforschung in freien Interviews vorgenommen werden.

 

 

3. Stand der Forschung

 

3.1 Zur Wissenschaftstheorie und Methodologie der Geisteswissenschaften

 

Aufgabe der Geisteswissenschaften ist nach einer neueren Formel „Interpretation des Sinnes, den die Kultur bestimmten Phänomenen zuschreibt" (Lem 1985).

Der Begriff der Geisteswissenschaften wurde von Dilthey in Abgrenzung zu dem der Naturwissenschaften definiert. Die Gegenüberstellung der synthetisch‑verstehenden Methode zur analytisch‑erklärenden wurzelt aber in einer älteren Tradition: der Bildungstheorie des deutschen Idealismus. Sie formulierte in kritischem Rückbezug auf Kant ein Organon‑Modell der Erkenntnis, wie es in der Doppelbedeutung des Wortes Bildung als Gestaltetes und Gestaltendes (Goethe), Wissen und Werk (Fichte) oder ergon und energeia (Humboldt) zum Ausdruck kommt. Faktisches Wissen ist dieser Tradition zufolge gleichgültig und tot, solange es nicht durch subjektbezogene Aneignung in lebendige Erfahrung überführt wird. Somit verwehrt die bildungstheoretische Grundlage der Geisteswissenschaften prinzipiell eine Aufspaltung der Erkenntnis in analytische und synthetische Teilbereiche.

Ohne die Emanzipation ihrer Paradigmen von diesem traditionellen Erbe hätten die naturwissenschaftlichen Fächer nicht ihren Aufschwung seit Mitte des 19.Jahrhunderts nehmen können. Sie führten zu Versuchen, auch die „verstehenden" Wissenschaften einer Formalisierung und Operationalisierung ihrer Verfahren zu unterziehen. Dagegen wendete sich erstmals Diltheys Unterscheidung, die jene bis heute andauernde und gegenwärtig wieder virulente Diskussion um die „zwei Kulturen" inaugurierte. Sie überleben heute in den Unterscheidungen von propositionalem und personalem Wissen (Polanyi 1969), „representational and computational theory of mind" (vgl. Searle 1984, Fodor 1981).

Dabei lassen sich innerhalb der geisteswissenschaftlichen Wissenschaftstheorie heute grob zwei Tendenzen unterscheiden: Dem Versuch einer kausalen Erklärung geistiger Phänomene durch die angelsächsische Sprachphilosophie steht die Erneuerung der Hermeneutik im Sinne der Tradition des deutschen Idealismus gegenüber. Die Methodenunsicherheit der Geisteswissenschaften, die in jüngster Zeit häufig konstatiert wird (vgl. Gadamer 1985, Dyck 1985, Drews 1985), dürfte darauf zurückzuführen sein, daß sie dem Objektivitätsdruck der naturwissenschaftlich‑technischen Konkurrenz keine tragfähige Alternative entgegenzusetzen hat.

Die teils beklagte, teils affirmierte „Austreibung des Geistes aus den Geisteswissen­schaften" (Kittler 1980) hinterläßt ein wissenschaftstheoretisches Vakuum, das einer fundierten Strategie zum Einsatz neuer Technologien keinen Reflexionsraum läßt.

 

 

3.2 Zur Medientheorie geisteswissenschaftlicher Arbeitstechniken

 

„Unser Schreibzeug arbeitet mit an unseren Gedanken" notierte der Philosoph und Altphilologe Nietzsche auf seiner neuerworbenen Schreibmaschine.

Die medientheoretische Aufarbeitung der Technikgeschichte der Geisteswissen­schaften, die einen – gerade im Zeitalter der Informations-technologie wichtigen – Aufschluß geben könnte über die Bedingungen der Adaption neuer Technologien, steckt immer noch in ihren Anfängen (vgl. Jackson 1981, Kittler 1987, Negrotti 1987). Nur vereinzelt wird die Möglichkeit einer „Herrneneutik via Computer" (Thaller 1982) oder von „Interpretationstechnologien" (Kanngießer 1986) diskutiert. Die Assimilation bestehender Technologien (z.B. Frankel986, Boom 1987) wird von den meisten Vertretern geisteswissenschaftlicher Forschung eher skeptisch betrachtet. Doch auch z.B. die empirische Literatur-wissenschaft ist sich im allgemeinen darüber im klaren, daß es „unmöglich ist, einen Algorithmus zu konstruieren, durch den die – subjektive – menschliche Lektüre ersetzt werden könne, um so objektive Qualitäten eines Werkes zu bestimmen" (Viehoff 1985). So wird die Behauptung, elektronisch erzeugte Texte seien „nicht grundsätzlich verschieden von denen eines Dichters" (Haefner/Weizenbaum 1987) heute eher weniger als mehr geteilt.

Auch wenn es breiter Konsens ist, daß es in den Fragen der praktischen Vernunft einen prinzipiellen Rest gibt, der nicht formalisierbar sei, so bleiben doch die Konsequenzen daraus häufig allzu oberflächlich. Dies zeigt sich an den entgegengesetzten Extremen einer abstrakten Technik-abstinenz (Volpert 1985) bzw. einer ebenso abstrak­ten Technikbejahung, die den Erwerb neuer Anpassungsfähigkeiten einseitig an den Menschen adressiert (Haefner 1982, Heintel/Macho 1987), ohne umgekehrt die Rest­Inkompatibilität zwischen Mensch und Maschine als Herausforderung zur Beschreitung neuer technologischer Wege zu begreifen.

Resümierend läßt sich also feststellen, daß die Erarbeitung einer Theorie für den sinnvollen Einsatz neuer Technologien in den Geisteswissen-schaften bisher Desiderat bleibt.

 

 

3.3 Entwicklungsstand neuer Technologien
für geisteswissenschaftliche Grundfunktionen

 

Ohne in diesem Rahmen Vollständigkeit anstreben zu können, seien die bestehenden Technologien hinsichtlich der folgenden Arbeitsschwer-punkte skizziert: Wissensaneignung (a), Recherche (b), Edition und Publikation (c).

 

(a) In den sechziger Jahren wurden Lernprogramme (Computer Aided Instruction, Computer Based Training) auf behavioristischer Grundlage eingeführt, die aber als „Drill‑Maschinen" bald verworfen wurden (Maliskat 1987). Heute gibt es flexiblere Verfahren, die mehr auf den individuellen Prozeß der Wissensaneignung eingehen (Aktives Lernen durch systematische Fehlerexploration: Greif/Janikowski 1986). Doch auch die zunehmende Benutzerfreundlichkeit wird als nicht hinreichende Bedingung für bildungsrelevantes Lernen beschrieben: „There is a danger that our reason for upgrading frontends to computer aided learning systems and for making them more friendly may be motivated more by our desire to hook in as many human peripherals as possible, so speciously proving their social or industrial value, than by a genuine desire to examine how, and indeed if, computers do aid learning" (Hilton 1986).

„Interface as mimesis" (Laurel, vgl. Norman/Draper 1986), die den Terrninal als vermittelndes Medium subjektiv verschwinden läßt, kann mithin entmündigend wirken. So ergab eine empirische Untersuchung, daß „Direct Manipulation Interfaces" (Hutchins/Hollan/Norman 1986) zwar höhere Lernleistungen verursachen, aber den Wissenstransfer erschweren. Sie erzeugen höhere Zustands‑Ängstlichkeit bei System­wechsel und damit höhere Abhängigkeit bei geringerer Frustrationstoleranz (Altmann 1987).

 

Norman/Draper (1986) fordern ein elementares Modell der Benutzeraktivitäten, aus denen dann Forderungen an das Design der Mensch‑Maschine‑Schnittstelle abzuleiten sind. Dieses dürfe nicht nur an Effizienz‑ oder Erfolgskriterien, sondern müsse auch an „Human-kriterien" orientiert sein. Was darunter zu verstehen ist, wird allerdings nicht weiter spezifiziert.

Haefner (1986) sieht in der Ermöglichung von Kreativität durch eine geeignete Schnittstelle das Hauptproblem für computerunterstütztes Lernen.

Wegweisende Ansätze zur Gestaltung einer benutzerfreundlichen und gleichzeitig transparenten Dialogführung sind natürlichsprachliche KI‑Systeme (HAM‑ANS, LOQUI: vgl. von Hahn 1985, Kölln 1986), das Interactive Video (Hilton 1986) sowie Devision Support Systeme (DSS).

 

(b) Die Erfassung großer Text‑ und Bildmengen bereitet technisch heute keine Probleme mehr. Es gibt schon seit geraumer Zeit diverse Archive und Informationsdienste auch für die Geisteswissenschaften (Henrichs 1970, Kuhlen 1980). Sie dienten aber bis jetzt vor allem der Materialsammlung und‑ordnung. Allgemein wird heute die vorschnelle, konzeptionslose Anlage von Datenbanken der frühen 70er Jahre kritisiert (Achilles/Held 1986). Ihre Handhabung ist oft durch die zeitaufwendige Erstellung von Thesauri oder Deskriptoren erschwert.

Neuere Trends richten sich auf die Verknüpfung von relationalen Datenbanken und solchen für die Textrecherche. So verbindet z.B. ABACUS HEIDELBERG ein Bibliotheksinformationssystem mit einem interaktiven Texterschließungsinstrument (vgl. das DFG‑Projekt PRO TEXT: Dietrich 1986).

Die absehbaren Möglichkeiten zur weitestgehenden Datenerfassung rücken ganz allgemein das Problem einer sinnvollen Auswahl von Informationen ins Zentrum (Knowledge Navigating). Dies gilt insbesondere für die textintensiven Geisteswissen­schaften. So kritisiert Franke (1987) den Mangel an geisteswissenschaftlicher Kompetenz bei der Errichtung EDV‑gestützter Archiverschliel3ung und Informationsaufbereitung.

 

Darüberhinaus werden als Defizite bestehender Datenbanken häufig genannt:

 

‑ mangelnde Transparenz über das Zustandekommen von Informationen

‑ fehlende Verarbeitung des vorhandenen Wissens zu neuen Informationen.

‑ mangelnde Flexibilität bei der Recherche durch starre Retrievalsprachen.

 

Auch hier können natürlichsprachliche, wissensbasierte Zugangssysteme (von Hahn 1985) Ansätze zur Behebung der Defizite bieten.

 

(c) Die Entwicklungen im Bereich des computerunterstützten Editierens und Publizierens (CAP, DTP) haben in jüngster Zeit einen starken Aufschwung genommen (Bove/Rhodes/Thomas 1986). Die Vereinfachung der Publikationsvorgänge wird auch in den Geisteswissenschaften zunehmend genutzt. So konnte z.B. die Herstellung kritischer Editionen mithilfe der EDV erheblich vereinfacht werden (TUSTEP: Ott 1986).

Die Schattenseite dieser Entlastungen, die allgemein beklagte Informationsflut, betrifft die Geisteswissenschaften besonders, da hier die Konzentration auf den Reflexionscharakter des Schreibens grundlegend ist. Bisherige Technologien bleiben zu sehr auf die Ersetzung herkömmlicher Satztechniken und Layoutfunktionen beschränkt.

Für einen qualitativen Zuwachs an Schriftkultur gewinnt somit die Hereinnahme vorpublikatorischer Tätigkeiten (Ideenfindung, Konzeption, Evaluation etc.) immer mehr an Bedeutung. Einen vielversprechenden Anfang in dieser Richtung machen sogenannte Outline‑Programme oder Ideenprozessoren. Doch sie sind in ihrer jetzigen, hypotaktischen Strukturierung noch zu starr, um den für geisteswissenschaftliche Texte typischen nichtlinearen Aufbauprinzipien gerecht zu werden.

Ein wesentlicher Fortschritt darf von dem groß angelegten Vorhaben des Darmstätter Instituts für integrierte Publikations‑ und Informationssysteme, „Ghostwriter", erwartet werden.

 

 

3.4 Offene Probleme

 

Grundsätzlich läßt sich feststellen, daß der vorschnelle Einsatz neuer Technologien in den Geisteswissenschaften nach anfänglicher Euphorie eher

enttäuschende Resultate brachte. Die neue Materialfülle brachte meist nicht den erhofften Qualitätszuwachs in der geisteswissenschaftlichen Forschung, oft behinderte sie ihn sogar. Doch auch neuere Strategien, durch Ausgrenzung von Routine‑Tätigkeiten den Einsatz von EDV auf empirische Teilbereiche zu beschränken (Reiter 1985), erscheinen eher als eine Verlagerung des Problems.

Obwohl die genannten Defizite in der Fachliteratur häufig beschrieben wurden, sind praktische Konsequenzen kaum ersichtlich. Die informationstechnischen Weiterentwicklungen setzten in der Regel die eingeschlagenen Wege fort, optimieren die bestehenden Verfahren, anstatt die Notwendigkeit einer grundlegenden Neuorientierung ins Auge zu fassen.

Hinsichtlich der drei genannten Schwerpunkte geisteswissenschaftlichen Arbeitens ergeben sich aus den gegenwärtigen instrumentellen Beschränkungen im Einzelnen folgende Aufgabenstellungen:

 

(a) Um den Anforderungen der Wissensaneignung in Forschung und Lehre gerecht zu werden, muß ein Schnittstellendesign gefunden werden, das benutzerfreundlich ist und zugleich den Gegensatz von Mensch und Maschine in produktiver Weise transparent macht.

 

(b) Das Ungenügen am rein quantitativen Informationszuwachs bei der Recherche erfordert neue, intelligente Retrieval‑Sprachen, die eine qualitativ orientierte Daten­selektion ermöglichen.

 

(c) Die Konventionalität und Starrheit der vorhandenen elektronischen Editions‑ und Publikationstechniken muß überwunden werden durch flexiblere und parataktisch strukturierende Hilfsmittel für das Konzipieren und Gestalten von Texten.

 

Diese Aufgaben sind nur zu bewältigen im Rahmen einer Grundlagen-forschung zur Wissenschaftstheorie der Geisteswissenschaften und eine Medientheorie ihrer Arbeitstechniken, die entsprechend rekonstruiert werden muß.

 

 

4. Arbeitsprogramm

 

Das vorliegende Arbeitsprogramm kann keine eindeutigen Lösungswege aufzeigen. Diese müssen erst erforscht und experimentell erprobt werden.

Dabei soll aber das Ziel einer Beförderung geisteswissenschaftlich relevanter Problemstellungen stets praxisorientierte Richtschnur sein. Als Pilotstudie wird daher vorgeschlagen, eine Volltextdatenbank zur Rezeptionsgeschichte der Goetheschen Naturwissenschaft anzulegen.

Das Forschungsgebiet, das bei erfolgreichem Projektverlauf freilich austauschbar sein soll, zeichnet sich durch folgende Vorteile für eine Pilotstudie aus:

‑ Die wissenschaftstheoretische Problematik des Themas steht in enger Beziehung zur Projektidee von HIAT, was zu einer wechselseitigen Bereicherung führen wird.

‑ Wissenschaftsrelevanz: Die Rezeptionsgeschichte Goethes steht vor dem Problem, eine Vielzahl historisch variierender Deutungen und Stellungnahmen nach Regularitäten zu untersuchen, die nicht statistisch erfanbar sind, sondern einer komplexen Symbiose antinomischer Faktoren unterliegen.

‑ Das allgemeine und aktuelle Interesse des Gegenstandes läßt einen hohen Nut­zungsgrad des Projektergebnisses erwarten.

‑ Relativ gute Zugänglichkeit der Literatur, so daß keine den Fortgang des Projekts behindernden Nebenprobleme bei der Beschaffung der Quellen gelöst werden müssen.

‑ Der vorgesehene Projektleiter ist in den Forschungsstand auf diesem Gebiet gründlich eingearbeitet, was einen praxisnahen und problemorientierten Zuschnitt des Projekts gewährleistet.

‑ Bewußt wurde ein besonders schwieriger und sensibler Bereich für die Erprobung des P.I.R.E. gewählt. Denn die hohen Anforderungen des Forschungsgegenstandes sind ein willkommener Konstruktionsfaktor und Reliabilitätstest.

 

 

4.1 Konzeption

 

Materialbeschaffung / Volltexterfassung

 

Die Volltexterfassung mit automatischen Lesemaschinen kann sofort in Angriff genommen werden. Denn sie soll bewußt ohne jede Strukturie-rungsvorgabe (wie z.B. Dateiformate, Findbuchtypen, Thesauri, Deskriptoren etc.) erfolgen und die Strukturierung allein dem Expertensystem überlassen. Dadurch wird von vornherein eine größtmögliche Kompatibilität mit anderen Textarchiven angestrebt. Im Vorfeld sind lediglich zwei Entscheidungen zu treffen:

 

1. Die Frage, welches Lesegerät zum Einsatz kommen soll. Erforderlich ist aufgrund der gegebenen Schrifttypenvielfalt eine nicht allein musterorientierte, sondern merkmalsorientierte Schrifterkennung. Die avancierteste, aber auch sehr teure Lösung bietet die KDEM (Kurzweil Data Entry Machine). Um der beschränkten Finanzkraft der Universitäten und insbesondere der geisteswissenschaftlichen Fakultäten Rechnung zu tragen, wäre also der Markt daraufhin zu prüfen, inwieweit die gegebenen Anforderungen an Texterkennung auch mit preisgünstigen Scannern und entsprechen­den Softwarelösungen erfüllt werden können.

 

2. Die Frage, welches Speichermedium gewählt werden soll (CD oder herkömmliche HD). Ausschlaggebend sind hier die Kriterien Zugriffsgeschwindigkeit, Aktualisierbarkeit, Kosten und allgemeine Zugänglichkeit, sowie Robustheit und Portabilität.

 

Formulierung von Kriterien für HIAT / Erkundung adaptierbarer Technologien

 

Der nächste Schritt besteht in der Erstellung eines Maximen‑ und eines Risikenkatalogs für den Einsatz neuer Technologien in den Geistes-wissenschaften aus der Rekonstruktion der aktuellen geisteswissen-schaftlichen Wissenschaftstheorie bzw. der Medientheorie geisteswissen-schaftlicher Arbeitstechniken. Beide sind auf die o.g. drei Arbeits-schwerpunkte hin zu strukturieren.

Gleichzeitig sind Erkundungen des Informatikers über adaptierbare Softwarelösungen einzuholen.

 

Maximenkatalog

 

So problematisch eine abstrakte Entlastungstheorie ist, wäre es doch eine geradezu zynische Konsequenz, an obsoleten Hindernissen (z.B. Material-beschaffung oder Schreibgerät) festzuhalten, um daraus resultierende Erfahrungsqualitäten zu bewahren.

Eine technologische Lösung dieses Dilemmas muß die aktuelle Diskussion um „Erklären und Verstehen" (von Wright 1974) wenigstens soweit wiederaufnehmen, wie sie das „Wissen in den informatisierten Gesellschaften" (Lyotard 1982) berührt. Dieser Diskussion sind für einen Maximenkatalog beispielsweise folgende, hier nur willkürlich zusammen-gestellte, Merkmale zu entnehmen:

Spontaneität, Imagination, Freiheit zur Sache, unreglementierte Einsicht, Unmittelbarkeit zum Objekt, Individualität der Arbeitsweisen, Privatheit der Erfahrungen, Ereignischarakter, Unaussprechlichkeit des Individuellen, Unterschied von Sprache und Information, Neugier, Offenheit, Lernen‑Wollen, Kritikbereitschaft, Kreativität, interessengeleitete Informationsselektion, Innovation, Differenzbezug zu reinem Wissen und fachlicher Schulung.

 

Risikenkatalog

 

In Ermangelung einer speziellen Medientheorie des geisteswissen-schaftlichen Arbeitens müssen allgemeinere Untersuchungen zu Rate gezogen werden: Technikgeschichtliche Fallstudien (vgl. Baruzzi 1973, Mumford 1977, Schivelbusch 1977, Jüttemann 1986), empirische psychologische und soziologische Untersuchungen (vgl. Hiltz/Turoff 1978, Friedrichs/Schaff 1982, Turkle 1986, Ulich 1987, Pflüger 1987), medienkritische Studien (vgl. Gorz 1983, Volpert 1985, Rolff/Zimmermann 1987, Kittler 1987 ) und technikphilosophische Reflexionen (vgl. Brunnstein 1982, Huning/Mitcham,1986, Martens 1987).

Ein entsprechender Risikenkatalog hätte z.B. folgende Beobachtungen hinsichtlich ihrer Bedeutung für HIAT zu überprüfen:

Verstärkung passiven Konsumverhaltens durch Bedienungskomfort, Mechanisierung und Nivellierung des Denkens, Entsinnlichung der Erfahrung, Zerstörung sozialer Strukturen, Computer‑Angst, Suchtverhalten, Kommunikationsunfähigkeit, Kreativitätsverlust, Ent‑ Individualisierung von Arbeitstätigkeiten, Überschwemmung mit trivialer Inforrnation, Informatisierung der Bildung, Veräußerlichung des Wissens.

 

Erkundung adaptierbarer Technologien

 

In Absprache mit den geisteswissenschaftlichen Grundlagenforschungen soll gleichzeitig ein Informatiker jeweils eruieren, welche vorhandenen technologischen Lösungen für eine Einbindung in das P.I.R.E. in Frage kommen (z.B. Natürlich­sprachliche Systeme, DSS etc.), um für das anschließende Knowledge Engineering über die entsprechenden Informationsvoraussetzungen zu verfügen.

Knowledge engineering

 

Dieser Arbeitsschritt ist in enger interdisziplinärer Kooperation zwischen geistes­wissenschaftlicher und informationstechnischer Kompetenz durchzuführen, um die zuvor erarbeiteten Kriterien für HIAT zu formalisieren und in die für das P.I.R.E. erforderlichen Strukturen und Datenbeziehungsgeflechte umzusetzen. Expertenbefragungen und Studienreisen (u.a. USA) werden in diesem Zusammenhang nötig sein.

Der konzeptionelle Aufbau des P.I.R.E. wird weiter unten beschrieben.

 

 

4.2 Realisierung

 

Programmierung / Entwurf eines Auswertungsplans

 

Das in der Konzeptionsphase Erarbeitete ist nun durch den Informatiker auf geeigneten Anlagen in Algorithmen bzw. Heuristiken umzusetzen. Währenddessen ist der Geisteswissenschaftler mit dem Entwurf eines Auswertungsplans für die Testphasen beschäftigt. Dieser Auswertungsplan enthält Forschungsaufgaben aus dem Gegenstandsbereich der Rezeptionsgeschichte der Goetheschen Naturwissenschaft, die mithilfe des P.I.R.E. gelöst werden sollen.

 

Testläufe

 

Nach einem Beta‑Test zur Fehlerbeseitigung (Debugging) wird ein Alphatest mit verschiedenen Versuchspersonen zu den Forschungsaufgaben des Auswertungsplans vorgenommen.

 

 

4.3 Evaluation


Auswertung von Praxisberichten

 

Mit den Testläufen ist die Konstruktion des P.I.R.E. nicht abgeschlossen. Erst eine längere Erprobungsphase in der Praxis kann genügend Erfahrungsmaterial erbringen, um ihn an den Kriterien von HIAT zu überprüfen. Die Erstellung entsprechender Praxisberichte muß die Auswirkungen des P.I.R.E. sowohl auf den Forschungsbereich der Pilotstudie als auch auf die Verhaltensweisen und Einstellungen der Benutzer berücksichtigen.

Die Evaluation der Ergebnisse soll nach dem Vorbild qualitativer Methoden der empirischen Sozialforschung erfolgen (Gruppengespräche etc.).

 

Formulierung von Rahmenrichtlinien

 

Die Beobachtungen über den Einsatz des P.I.R.E. sind schließlich zu einer allgemeineren Theorie über HIAT zu verarbeiten. Sie hätte die Rahmenrichtlinien für einen Einsatz von Expertensystemen in den Geisteswissenschaften zu benennen. Bei erfolgreichem Projektverlauf könnte nun eine Transfer‑Phase angeschlossen werden, die die Möglichkeiten einer möglichst breiten Verwendung des P.I.R.E. in anderen Gebieten geisteswissenschaftlicher Forschung eruiert und realisiert.

 

 

5. Genaue Beschreibung der zu verwendenden Techniken

und der Anforderungen an diese Techniken

 

 

5.1 Software

 

Eine detaillierte technische Beschreibung des P.I.R.E. kann hier nicht gegeben werden, da sie sich erst aus den Resultaten der Konzeptionsphase (Kriterienkataloge / Erkundung adaptierbarer Techniken) ergeben soll. Die folgenden Ausführungen können daher nur Andeutungen machen, deren konkrete Spezifizierung den genannten Bedingungen unterliegt.

Der konzeptionelle Aufbau des P.I.R.E. besteht aus drei Systemkomponenten, die gemeinsam auf eine frei strukturierbare Volltextdatenbank zugreifen: dem „Indexer" (a), dem „Knowledge Navigator" (b) und dem „Editor" (c). Alle drei Komponenten inter­agieren über eine gemeinsame Schnittstelle untereinander und mit dem Benutzer (d).

 

(a) Der„Indexer" vollzieht automatisch die Funktionen eines Lexiko-graphen und Bibliographen (Grobindizierung der DB als Ausgangsbedingung für den „Knowledge Navigator"). Darüberhinaus legt er die im Dialog mit dem Benutzer eruierten spezifischen Interessen und individuellen Zugangspräferenzen zum Wissensbestand in einem entsprechenden Script (Index) ab, das sich kontinuierlich an den jeweiligen Forschungsschwerpunkt oder Erarbeitungsstand eines Typoskripts anpaßt. Dabei soll er individuelle Prioritäten beim Datenzugriff intelligent verwalten, um der Uniformität bloß quantitativer Materialanhäufung selektiv entgegenzuwirken. Der „Indexef' vollzieht entsprechend die Feinstrukturierung der Volltextdatenbank, bereitet sie für Zugriffe auf.

Individuelle Spracheigentümlichkeiten des Benutzers sollten in den „Indexer" Eingang finden, um die Forschungen mittels des „Knowledge Navigators" und die Konzeption von Aufsätzen mit dem „Editor" nach persönlichen Stilkriterien vornehmen zu können.

Der „Indexer " eruiert also gemeinsam mit dem Benutzer das jeweils zu bearbeitende Themengebiet und stellt sich darauf ein. D.h., er „erlernt" die individuellen Relevanz­und Irrelovanzkriterien des Benutzers und bereitet das Datenmaterial entsprechend auf. Dazu bedarf er einer eigenen Schnittstelle, die nach dem Vorbild KI‑gestützter, modifizierbarer, natürlichsprachlicher Zugangssysteme (HAM‑ANS, LOQUI) zu gestalten ist. Sie muß aber ohne einen vorweg spezifizierten Diskursbereich arbeiten, bzw. sich auf jeweils unterschiedliche Diskursspezifikationen einstellen können.

Ein Decision Support System (DSS) könnte bei der Eruierung der eigenen Zugangsweisen zum Material helfen, wobei die Dialogstruktur die Eigeninitiative und Eigeninterpretation des Benutzers stimulativ verstärken (choice enablement), aber Vagheiten und Indifferenzen zulassen sollte (free‑range interaction).

 

(b) Der „Knowledge Navigator" soll nichtlineare Recherche‑Techniken durch assoziativ arbeitende Retrieval‑Sprachen (z.B. zur Erkennung impliziter Bezüge) beherrschen. Die Vorteile optischer Benutzerführung (Bildraumsimulation) sind zu nutzen, um metaphorische Gedächtnisstrukturen in den Vorgang der Recherche einzubeziehen.

Das Retrieval‑System soll einen (nach Vorgabe des „Indexers") individuell‑angepaßten, sinnorientierten Datenzugriff auf die Volltext-datenbank ermöglichen, um z.B. die Aufdeckung von Interdependenzen zwischen begrifflich nicht eindeutig verknüpften Phänomenen zu gestatten (z.B. Phasen der Goethe‑Kritik und‑Affirmation im naturwissenschafts‑ und kulturgeschichtlichen Kontext oder Motivsuche nach Gleichsetzungen von „Natur" und normativ gehaltvollen Begriffen wie „Freiheit" etc.)

Das erfordert eine KI‑gestützte Retrieval‑Sprache, die kontextverstehend ist (Zuhilfenahme von Synonymlexika und co‑occurence‑ bzw. collocation‑Verfahren) und somit geeignet für Stil‑ und Motivanalysen, Quellenforschung, Computer Aided Content Analysis, kontextuelle Konkordanzlisten mit selektiv lemmatisierten Wortindizes.

Für komplexere Forschungsaufgaben, etwa synchronische und diachronische Synopsen zür Begriffs‑ und Deutungsgeschichte, ideengeschichtliche Untersuchungen etc. müßte der „Knowledge Navigator" auch auf iterative Programmstrukturen zurückgreifen (z.B. LISREL) und explorative Heuristiken entwerfen können (Zur Computersimulation kulturgeschichtlicher Zusammenhänge vgl. OIKOS:Walsh 1982).

 

(c) Der „Editor" ist eine Kombination aus intelligentem Ideenprozessor (Outliner), Textverarbeitung und Layoutfunktionen.

Er soll bei der Konzeption und Gestaltung von stilistisch anspruchsvollen Texten helfen, eine entsprechende logische Auszeichnung von Textarten intelligent unterstützen, polyperspektivische, mehrschichtige Textrepräsentationen ermöglichen für die angemessene optische Darstellung nicht‑hierarchischer, parataktisch aufgebauter Typoskripte.

Das Korrekturlesen könnte vereinfacht werden durch lernfähige Lektorats­Programme (speicherresidente Spelling‑ und Style‑Checker, Synonym‑Lexika) für die je individuelle Revision eigener Schreibweisen.

Natürlich kann er sich nicht mit einem Großprojekt wie dem „Ghostwriter" messen (s.o.). Das ist aber auch nicht angestrebt. Zielvorgabe ist die Förderung schriftstellerischer Kreativität und die Ermöglichung individueller Lesarten – etwa durch je nach Rezipienteninteresse deiktisch zu aktivierende Hintergrundinformationen.

Auch für die wissenschaftliche Edition textkritischer Ausgaben könnten hierdurch neue, zeitgemäßere und zweckgemäßere Standards als die derzeit noch üblichen und viel zu komplizierten (weil durch die Zweidimensionalität der Publikationsvorlage beschränkten) möglich werden.

 

(d) Die Benutzeroberfläche muß die drei Grundfunktionen des P.I.R.E. parallel auf dem Bildschirm repräsentieren. Sie soll nach dem Vorbild eines interreferentiellen Display‑Managers gestaltet und gestaltbar sein wie z.B. Hyper Card.

 

Die Einsicht in den Werkzeugcharakter der Schnittstelle muß stets präsent sein. Aufgrund der oben erläuterten Dialektik ist eine optimale Erfüllung der Kriterien für HIAT nicht unbedingt darin zu sehen, daß ihre Benutzeroberfläche möglichst analog zur gewohnten Phänomen-wahrnehmung gestaltet ist. Eine entsprechende Transparenz bestünde eher in einer deutlichen Unterscheidung (etwa durchs Schriftbild und grafische Elemente) zwischen maschinengenerierten und menschlichen Sprachelementen sowie zwischen „dominant‑" und „subordinate"‑Typen der Dialogführung.

 

 

5.2 Hardware

 

Die erforderliche Hardware muß imstande sein, alle drei Komponenten im Multitasking‑Verfahren zu koordinieren (z.B., indem das Retrieval‑System während der Konzeption eines Aufsatzes im Editor Fundstellennachweise aus der Wissensbasis heraussucht und der Indexer sich gleichzeitig den veränderten Schwerpunkten gemäß aktualisiert).

Auf Parallelrechnertechnik, neuronale Architektur u. dergl., die natürlich zur Realisierung des hohen angestrebten Interaktionsgrades der einzelnen Module besonders geeignet wäre, wird aber aus Kostenrücksichten bewußt verzichtet. Angemessen erscheint eine Work Station, die folgende Ausstattung hat (und in drei Jahren zu erschwinglichen Preisen erhältlich sein sollte):

 

‑ offene Architektur, UNIX oder kompatibles Betriebssystem ‑ 32‑Bit‑Prozessor, evtl. Co‑Pozessor(en)

‑ mind. 8 MB RAM

‑ extrem hochauflösender Bildschirm (ca. 20 Zoll)

‑ ca. 80 MB Festplattenspeicher bzw. CD‑Laufwerk.

 

6. Transfermöglichkeiten unter dem Aspekt
einer breiten Verwendung in den Geisteswissenschaften

 

/p>

Das Projekt HIAT ist von vornherein auf eine breite Verwendung angelegt. Denn es orientiert sich an fundamentalen Postulaten für den Einsatz elektronischer Datenverarbeitung in den Geisteswissenschaften. Dementsprechend ist das P.I.R.E. konzipiert als universell verwendbare, persönliche Workstation für modernes geisteswissenschaftliches Arbeiten. Durch einen Austausch der jeweiligen Volltextdatenbank können beliebige andere Forschungsgebiete, die sich schwerpunktmäßig mit der hermeneu-tischen Untersuchung von Texten befassen, mit dem P.I.R.E. bearbeitet werden (Quellenforschung durch Stilvergleiche, Synoptik, sinnorientierte Konkordanzen, motivgeschichtliche Vergleiche, assoziationsbezogene Inhaltsanalyse, Begriffsgeschichte, Metaphorologie etc.). Aber auch für die Erprobung neuer Schreib‑ und Lesetechniken (Rhetorik, Stilistik, Edition) wäre das P.I.R.E. ein ideales Instrument.

 

7. Wissenschaftliche Kontakte

 

 

Es bestehen Kontakte zu folgenden Institutionen, die für das Projekt wichtig sind:


‑ Fachbereich Informatik, Hamburg

‑ Forschungsabteilung für philosophische Information u. Dokumentation, Düsseldorf ( N.Henrichs)

‑ Institut f. integrierte Publikations‑ und Informationssysteme, Darmstadt (GMD)‑ Massachusetts Institute of Technology (M.I.T.)

‑ University of California, Berkeley (Hubert L. Dreyfus)‑ Institut für Didaktik der Mathematik, Bielefeld

‑ Institut für Pädagogik der Naturwissenschaft, Kiel (IPN)

‑ Hamburger Automations‑ und Peripherie‑Technologie GmbH (HAUPT)‑ Apple University Consortium

 

8. Name, Ausbildung und Arbeitsbereich
der am Projekt maßgeblich Beteiligten

 

 

Prof. Dr. Ekkehard Martens (Fachbereich Erziehungswissenschaft, Universität Hamburg; Schwerpunkt Didaktik der Philosophie, Technologiefolgenabschätzung im Bildungsbereich): wissenschaftliche Beratung.

 

N.N. (Fachbereich Inforrnatik, Schwerpunkt Künstliche Intelligenz): wissen­schaftliche Beratung.

 

Peter Matussek soll nach seiner in Kürze abgeschlossenen Promotion die Leitung des Projekts übernehmen. Er hat durch sein (ausgezeichnetes) Examen in den Fächern Literaturwissenschaft, Philosophie und Erziehungswissenschaft und durch seine Dissertationsarbeit über den Naturbegriff Gotthes und dessen Rezeptionsgeschichte, eine profunde Kenntnis der wissenschaftstheoretischen Grundfragen des Projekts. Außerdem besitzt er langjährige Erfahrungen mit dem geisteswissen-schaftlichen Arbeiten am Computer (Matussek 1987), verfügt über gute informationstechnische Kenntnisse und hat in verschiedenen maschinennahen und höheren Programmiersprachen selbst Programme geschrieben, die als Vorstudien zu HIAT nützlich sind (u.a. zur Volltextrecherche, die relationale Literaturdatenbank „HYPER‑ACADEMY 1", ein Poetik‑Programm zur prosodischen Analyse von Gedichten mit Lernumgebung). Als wissenschaftlicher Berater einer Computerzeitschrift ist er über die aktuellen Entwicklungen informiert.

 

N.N. Hierfür soll ein diplomierter Informatiker rekrutiert werden, der mit den neuesten Forschungsentwicklungen seines Fachgebiets, die für HIAT relevant sind, vertraut ist und sie praktisch umzusetzen versteht. Außerdem sollte er über ausreichende Kenntnisse der wissenschafts-theoretischen und philosophischen Grundlagen der Geisteswissenschaften verfügen, um eine enge interdisziplinäre Kooperation innerhalb des Projekts zu gewährleisten.

 

N.N. (Studentische Hilfskraft) für die Durchführung von Schreib‑ und Archivtätigkeiten sowie für sonstige Zuarbeiten (Kopieren u.a.m.).

 

 

 

9. Spezifikation des zeitlichen und finanziellen Rahmens

 

9.1 Zeitplan

 

Die Laufzeit des Projekts ist auf drei Jahre angesetzt, mit einer möglichen Verlängerung für eine Transferphase:

(Parallelarbeiten sind jeweils durch Schrägstrich auf derselben Linie angezeigt. Ansonsten werden die Arbeiten im Teamwork zwischen Geisteswissenschaftler und Informatiker vollzogen.)

 

Konzeptionsphase:

 

- Quellenforschung, Materialbeschaffung / Marktübersicht

zu CD, HD und Lesegeräten / Beginn der Datenerfassung, 6 Monate

‑ Erstellen des Kriterienkatalogs / Zusammenstellung vorhandener Softwarelösungen / Abschluß der Datenerfassung, 6 Monate

‑ Knowledge engineering, 6 Monate

 

Realisierungsphase:

 

‑Programmierung / Entwurf eines Auswertungsplans, 6 Monate

‑Beta‑Testing, 3 Monate

‑Alpha‑Testing, 3 Monate

 

Evaluationsphase:

 

‑Auswertung und Zusammenfassung der Ergebnisse zu Rahmenrichtlinien, 6 Monate

 

Gesamte Dauer: 36 Monate

 

 

9.2 Kostenplan

 

Personalkosten

 

1 Stelle BAT Ib für 3 Jahre                                             167.544,00 DM

1 Stelle BAT IIa für 3 Jahre                                           152.316,00 DM

1 Stelle Stud. Hilfskraft (3000 Stunden a 11.50 DM)           34.500,00 DM

 

Einmalige Sachmittel

 

Hardware (2 Rechner inkl. Ausstattung, 1 Lesegerät)        100.000,00 DM

Software (u.a. NLI, Retrieval‑ u. Editingsoftware)                     40.000,00 DM

 

>

Laufende Sachmittel

 

Projektspezifische Literatur                                              10.000,00 DM

Verbrauchsmaterial                                                         10.000,00 DM

Fotokopierkosten                                                               6000,00 DM

Druckkosten                                                                     6000,00 DM

Porto‑ und Telefonkosten                                             5000,00 DM

Reisekosten (u.a. GMD, M.I.T., Berkeley)                             50.000,00 DM

Durchführung von Kolloquien                                      20.000,00 DM

Expertengutachten                                                          30.000,00 DM

Teilnahmegebühren (Kurse, Seminare etc.)                         5000,00 DM

Schreibarbeiten (1000 Std. a 16.00 DM)                           16.000,00 DM

zusammen                                                                     652.360,00 DM

 

 


10. Literatur

 

Schwindet die Schrift im Medienrauschen? Gotthe elektronisch.‑ Umbruch. Zeitschrift für Kultur, Nr 2(1987).

 

Ailken, A J et al (Hg ): The Computer and Literary Sludies; Edinburgh 1973.

 

Allerbek, Klaus: Datenverarbeitung in der empirischen Sozial-forschung;Stuttgart 1972

 

Allmann, Alexandra: Direkte Manipulation: Empirische Befunde zum Einfluß der Benutzeroberfläche auf die Erlernbarkeit von Textsystemen‑In: A&O Zeitschrifl für Arbeits‑ und Organisationspsychologie Heft 3 (1987), S 108‑114.

 

Antos, G.: Grundlagen einer Theorie des Formulierens. Textherstellung in geschriebener und gesprochener Sprache; Tübingen 1982

 

Arnold, Klaus: Geschichtswissenschaft und elektronische Daten-verarbeitung: Methoden, Ergebnisse und Möglichkeiten einer neuen Hilfswissenschaft‑In: Schieder, Theodor (Hg ): Methodenprobleme der Geschichlswissenschaft; München 1974 (=HZ Beiheft 3, NF) S 98‑148

 

Bailey, Richard W (Hg ) Computing in the Humanities; Amsterdam etc. 1982.

 

Bamme, Arno u a: Maschinen‑Menschen, Mensch‑Maschinen Grundrisse einer sozialen Beziehung; Reinbek bei Hamburg 1983

 

Beckermann, A.: Kann die KI Fragen der Philosophie beantworten?‑ln: The German Workshop 1985 (Hg Stojahn)

 

Boom, Holger van den: „Digilale Ästhetik" Zu einer Bildungstheorie des Computers;Stutagart 1987.

 

Bosler, Ulrich u.a. (Hg.): Mikroelektronik und Neue Medien im Bildungswesen; Kiel 1985 (IPN­Arbeitsberichte).

 

Bove, Tony / Rhodes, Cheryl / Thomas, Wes: Die Kunst des Desktop‑Publishing; Bonn, Reading (Mass.) u.a. 1987.

 

Boy, Peter: Möglichkeiten, Grenzen und Fehlanwendungen von Mikroelektronik in der empirischen Sozialforschung.‑In: Friedrichs (1987), S.226‑229.

 

Brunnstein, Klaus: Einige grundsätzliche Überlegungen zu Wirkungen der Informationstechnologie.‑In: Institut für Informatik; Mitteilung Nr.82 (Ifl‑HH‑M‑82).

 

Brunnstein, Klaus: Ethik und Moral in der Informationsgesellschaft.‑In: Institut für Informatik; Mitteilung Nr.134 (FBI‑HH‑M‑85).

 

Bundesministerium für Bildung und Wissenschaft (Hg.): Bildung an der Schwelle zur Informationsgesellschaft.‑In: Grundlagen und Perspektiven für Bildung und Wissenschaft (13); Bonn 1986.

 

Cappuro, Rafael: Hermeneutik der Fachinformation; Freiburg (Breisgau), München 1986.

 

Degenhardt, Wemer: Der PC als Arbeitsmittel des Sozialsforschers‑ PC‑Einsatz in der Kommunikationsforschung‑In: IBM (1987), Vortrag Nr.907.

 

Dennett, Daniel: Artificial Intelligence as Philosophy and as Psychology.‑ reprinted in: Dennett, D.C.: Brainstorms: Philosophical Essays on Mind and Psychology; Cambridge, MA: MlT/Bradford 1978, S.109‑126.

 

Der Kultusminister des Landes Nordrhein‑Westfalen (Hg.): Rahmenkonzept Neue Informations‑ und Kommunikationstechnologien in der Schule.‑ln: Strukturförderung im Bildungswesen des Landes Nordrhein‑Westfalen, Schriftenreihe des Kultusministers (43); Köln 1985.

 

Dietrich, Rainer:Der Computer als Hilfsmittel in den Geisteswissenschaften.‑ln: IBM (1986), Referat 6.

 

Drews, Jörg: Der erschütterte Sinn und der Tanz der Perspektiven. Zur Lage der Literaturwissenschaft.­ln: Sonderheft Merkur 439/440 (1985), S.922‑927.

 

Dreyfus, Hubert L.: Die Grenzen künstlicher Inlelligenz. Was Computer nicht können; Königstein 1985.

 

Dreyfus, Hubert L. / Dreyfus, Sluart E.: Künstliche Intelligenz. Von den Grenzen der Denkmaschine und dem Wert der Intuition; Reinbek bei Hamburg 1987.

 

Dyck, Joachim:Stumm und ohne Hofrnung. Die totale Paralyse der Germanistik in den 80er Jahren.‑In: DIE ZEIT, 14.6.1985, S.41f.

 

Fodor, Jerry A.: RePresentations; Cambridge MA:Bradford BookslThe MIT Press 1981.

 

Fossier, Lucie et al. (Ed.): Informatique et Histoire Medievale; Roma 1977 (=Collection de l'Ecole Francaise de Rome 31).

 

Franke, Herbert W.: Leonardo 2000. Kunst im Zeitalter des Computers; Frankfurt am Main 1987.

 

Franke, Volker: Aufbau einr Volltextdatenbank in einem geschichtswissenschaftlichen Archiv‑ln: IBM (1987), Vortrag Nr.912.

 

Fresc, M. / Ulich, E. / Dzida, W. (Hg.): Psychological issues of human‑computer interaction in the work place; Amsterdam: North Holland 1987.

 

Friedrich, Günter / Schaff, Adarn: Auf Gedeih und Verderb. Mikroelektronik und Gesellschaft. Bericht an den Club of Rome; Reinbek bei Hamburg 1984.

 

Fürnsinn, M.; M. Khenkar, B. Ruschkowski: Fragebeantwortung mittles kooperierender Problemlösungsstrategien: Imagination und InferenzDiplomarbeit. Fachbereich Inforrnatik. TU Berlin 1985.

 

Gadamer, Hans‑Georg: Auf schwankendem Boden. Vom Wandel in den Geisteswissenschaften.‑In: FAZ, 28.9.1985.

 

Gergely, Stefan M.: Wie der Computer den Menschen und das Lemen verändert; München 1986.

 

Gorz, Andre: Wege ins Paradies; Berlin 1983.

 

Greif, Siegfried / Janikowski, Andreas: Aktives Lemen durch systematische Fehlerexploration oder programmiertes Lernen durch Tutorials?‑ln: A&O H.3 (1987), S.94‑100.

 

Grewendorf, Günther: Computereinsatz in der Linguistik‑Ausbildung.‑In: IBM (1986), Referat 20.

 

Groeben, Norbert: Literaturpsychologie. Literaturwissenschaft zwischen Hermeneutik und Empirie; Stuttgart 1972.

 

Gundlach, Rolf / Lückerath, Carl August: Historische Wissenschaften und elektronische Datenverarbeitung; Frankfurt am Main etc. 1976.

 

Habel, Christopher: Das Lexikon in der Forschung der Künstlichen Intelligenz‑In: Schwarze, Ch.; D. Wunderlich (Hrsg.): Handbuch der Lexikologie. Königstein 1984.

 

Haefner, Klaus: Die neue Bildungskrise. Lernen im Computerzeitalter; Reinbek bei Hamburg 1985.

 

Haerner, Klaus / Weizenbaum, Joseph: „Es ist eine Explosion des Quatsches". SPIEGEL‑Gespräch, moderiert von Michael Haller.‑In: DER SPIEGEL Nr.10 (2.3.1987), S.92‑112.

 

Hahn, Walther von / Hoeppner, W. / Jameson, A.: Kooperatives Dialogverhalten im Simulationssystem HAM‑RPM.‑ In: HAM‑RP‑Projekt, hg. v. Walther von Hahn, Hamburg 1978ff, Bericht Nr.13.

 

Hahn, Walther von: Künstliche Intelligenz; Essen: SEL‑Stiftung 1985.

 

Hahn, Walther von: Natürlichsprachliche KI‑Systeme: Entwicklungsstand und Forschungsperspektive.‑ In: HAM‑RP‑Projekt, hg. v. Walther von Hahn; Hamburg 1978ff., Bericht Nr.18.

 

Häußler, Peter / Tremp, Volker / Ziebarth, Wolfgang: Künstliche Intelligenz und Bildung in der Bundesrepublik; (Ms., IPN) Kiel 1986.

 

Heinlel, Peter / Macho, Thomas H.: Welche Befähigungen müssen wir uns aneignen, um der wachsenden Verantwortung gerecht zu werden?‑In: Franz, H. / Fritzsch, G. / Kneucker, R.F. (Hg.): Lebenskunde für die Zukunft. Neue Strategien für eine lebenswerte Welt; Wien 1985, S.138‑142.

 

Heise, David R. / Simmons, Roberta G.: Some Computer‑Based Developments in Sociology. ‑In: Science 26.4.85.

 

Henrichs, N.: Philosophie‑Datenbank. Bericht über das Philosophy Information Center an der Universität Düsseldorf.‑In: Conceptus 4 (1970), 133‑144.

 

Henrichs, N.:Benutzungshilfen für das Retrieval bei wörterbuchunabhängig indexiertem Textmaterial.­ln: Kuhlen (1980), Bd 3: Erfahrungen mit Retrievalsystemen.

 

Hentig, Hartmut von: Das allmähliche Verschwinden der Wirklichkeit; München/Wien: Hanser 1987.

 

Hilton, Julian: Is the Learner a Computer Peripheral? Artifivial Intelligence and Interactive Video in training and education.‑In: AI & Society (1987), S.127‑136.

 

Hockey, Susan M.: A Guide to Computer Applications in the Humanities; London 1980.

 

Huning, A. / Mitcham, C. (Hg.): Technikphilosophie im Zeitalter der Informationstechnik; Braunschweig/Wiesbaden 1986.

 

Hutchins, E. / Hollan, J. / Norman, D.: Direct manipulation interfaces.‑In: Norman/Draper (1986).

 

IBM Deutschland GmbH (Hg.):Hochschulkongress '86. Informationsverarbeitung in den Geistes‑ und Sozialwissenschaften. Baden‑Baden, 27.‑28. Oktober 1986; München 1986.

 

IBM Deutschland GmbH (Hg.): Hochschulkongress '87. Informationsverarbeitung in Lehre und Forschung. Bd 1: Vorträge. Berlin 7.‑9. Juli 1987. München 1987.

 

Iker, Howard P.: SELECT. A Computer Program to Identify Associationally Rich Words for Content Analysis.‑In: CHum 8. S.313‑319 und 9, S.3‑12.

 

Jackson, D.: Alphabet. Die Geschichte vom Schreiben; Frankfurt am Main 1981.

 

Jarausch, Konrad: Möglichkeiten und Probleme der Quantifizierung in der Geschichtswissenschaft.‑ In: Jarausch (1976)

 

Jarausch, Konrad (Hg.): Quantifizierung in der Geschichtswissenschaft. Probleme und Möglichkeiten; Düsseldorf 1976.

 

Jüttemann, Gerd (Hg.): Die Geschichtlichkeit des Seelischen; München 1986.

 

Kammer, W.: On Problems of Literary Databanks.‑In: Proveedings of XIIth international ALLC Conference June 1985 al Nice. S.521‑529.

 

Kanngießer, Siegfried: Simulationskonzepte des Wissens und der Grammatik‑In: Rollinger, C.‑R. (Hrsg.): Probleme des (Text‑)Verstehens. Ansätze der Künstlichen Intelligenz. Tübingen 1984, S.24‑44

 

Kanngießer, Siegfried: Geisteswissenschaften und Informationsverarbeitung;‑In: IBM (1986), Referat 2.

 

King, Timolhy J.:The use of Computers for Storing Records in Historical Research.‑In: HM 14 (1981), S.59‑64.

 

Kittler, Friedrich A.: Grammophon Film Typewriter; Berlin 1987 .

 

Kittler, Friedrich A.(Hg.): Austreibung des Geistes aus den Geisteswissenschaften. Programme des Poststrukturalismus; Paderborn, München, Wien, Zürich 1980.

 

Klingen, Leo H. / Otto, Alexandra: Computereinsatz im Unterricht; Stuttgart 1986.

 

Kölln Matthias E.: Konzeptioneller Aufbau einer LFG‑Werkbank.‑In: LOKI‑ Forschungsstelle für Informationswissenschaft und künstliche Intelligenz. Memo 1‑86, hg. v. Walther von Hahn.

 

Kreuzer, Helmut (Hg.): Die zwei Kulturen. Literarische und naturwissenschaftliche Intelligenz. C.P. Snows These in der Diskussion; Stuttgart 1969.

 

Laederach, Jürg: Einundzwanzig Bemerkungen zur arbeitenden Maschine.‑In: FR 7.12.1985.

 

Lauterbach, Roland / Lehmann, Jürgen: Wie wirkt sich der Computer in der Schule auf Wissen und Einstellungen aus?‑In: IPN‑Kiel (Hg.): Computer in unserer Schule? Kiel 1985, S.47f.

 

Lem, Stanislaw: Philosophie des Zufalls. Zu einer empirischen Theorie der Literatur. Band 2; Frankfurt am Main 1985.

 

Lenders, W. / Schanze, H. / Schwerte, H. (Hg.): Indices zur deutschen Literatur; Tübingen 1968ff.

 

Lenders, Winfried: Bedeutungsanalyse philosophischer Begriffe.‑ln: Revue Intemationale de Philosophie 27, 103. S.73‑83.

 

Löwe, M. u.a. (Hg.): Umdenken in der Informatik; Berlin 1987.

 

Lückerath, Carl August: Prolegomena zur elektronischen Datenverarbeitung im Bereich der Geschichtswissenschaft.‑In: HZ 207 (1968), S.265‑296.

 

Lückerath, Carl August: Geschichtswissenschaft als Feld für Informationsverarbeitung‑In: IBM (1987), Vortrag Nr.912.

 

Lyotard, Jean‑François: Das postmoderne Wissen; Graz Wien 1986.

 

Maliskat, Hartmut: Computer und Schule.‑In: PhilTech 0 (1987), S.9‑13.

 

Mandl, Heinz / Hron, Aemilian: Förderung kognitiver Fähigkeiten und des Wissenserwerbs durch computerunterstütztes Lernen.‑In: Bosler u.a. (1985), S.105‑143.

 

Marquard, Odo: Über die Unvermeidlichkeit der Geisteswissenschaft.‑In: Apologie des Zufälligen. Philosophische Studien; Stuttgart 1986.

 

Martens, Ekkehard: Computer als Modell menschlichen Denkens?—Erfordernisse der Technikfolgenabschätzung im Bildungsbereich; Ms. eines Vortrags, gehalten am 19.11.1987 in Berlin.

 

Matussek, Peter: Pro‑These. Erfahrungen eines Geisteswissenschaftlers mit dem Computer.‑In: Zeitschrift für Didaktik der Philosophie, H.4 (1987), S.230‑233.

 

McCarthy, J. / Hayes, P.J.: Some philosophical problems from the standpoint of Artificial Intelligence.‑In: Meltzer, B. / Michie D. (Hg.): Machine Intelligence 4 (1969), 463‑502. Edinburgh University Press. Edingburgh 1984.

 

Minsky, M.: A Framework for Representing Knowlegde.‑In: Haugeland, J. (Hg.): Mind Design: Phisosophy, Psychology and AI. MIT‑Press. Cambridge, Mass. 1981

 

Nancarrow, P.H.: Provessing of Ancient Hieroglyphic Texts by Computer.‑In: Bailey (1982), S.175ff.

 

Negrotti, Massimo: The piping of thought and the need for a permanent monitoring of the cultural effects of artificial intelligence.‑ln: AI & Society (1987), S.85‑92.

 

Noble, David F.: Maschinenstilrmer oder Die komplizierten Beziehungen der Menschen zu ihren Maschinen; Berlin 1986.

 

Norman, D. / Draper, S.: User centered system design. New perspectives on human‑computer interaction;Hillsdale, New Jersey: Lawrence Erlbaum 1986.

 

O'Shea, Tim / Self, John: Lernen und Lehren mit Computern. Künstliche Intelligenz im Unterricht; Basel 1986.

 

Oakman, Robert L.: Computer Methods for Literary Research;South Carolina 1980.

 

Ott, Wilhelm: Computerunterstützte Edition geisteswissenschaftlicher Texte.‑ln: IBM (1986), Referat 26.

 

Papert, Seymour: Gedankenblitze. Kinder, Computer und neues Lemen;Reinbek bei Hamburg 1985.

 

Pflüger, Jörg: Der maschinelle Charakter. Sozialpsychologische Aspekte des Umgangs mit Computern; Opladen 1987.

 

Pinkal, Manfred: Kontext und Bedeutung. Ein probalistisch er veiterter pragmatischer Beschreibungsansatz;Tübingen 1977.

 

Pinkal, Manfred / Ballmer, Thomas T. (Hg.): Approaching Vagueness; Amsterdam 1983.

 

Polanyi, Michael:Knowing and Being; Chicago 1969.

 

Quillan, M.: Semantic Memory.‑ln: Minsky, M. (Hg.): Semantic Information Processing. MlT‑Press: Cambridge, Mass 1968. S.227‑270.

 

Reiter, Andrea: EDV und Ideologiekritik: Inhaltsanalyse einer zeitgenössischen völkisch‑nationalen Zeitschrift als Modell.‑ln: SPIEL 4 (1985), H.2, 351‑380.

 

Riesenhuber, Heinz: Technik und sozialer Wandel.‑In: Lutz, Burkhart: Verhandlungen des 23. Deutschen Soziologentages in Hamburg 1986; Frankfurt am Main, New York, S.26‑33.

 

Rolff, Hans‑Günther / Zimmermann, Peter (Hg.): Neue Medien und Lernen; Weinheim, Basel 1985.

 

Roszak, Theodore: Der Verlust des Denkens. Über die Mythen des Computer‑Zeitalters; München 1986.

 

Sappler, Paul / Straßner, Erich (Hg.): Maschinelle Verarbeitung altdeutscher Texte III; Tübingen 1980.

 

Schank, Roger C. / Childers, Peter: The Cognitive Computer. On Language, Learning and Artificial Intelligence;Reading/Mass. etc. 1984.

 

Schanze, Helmut:Von Riesen, Geistern und Zwergen. Überlegungen zum Einfluß der elektronischen Datenverarbeitung auf Lesen und Schreiben.‑In: Der Deutschunterricht Nr.4. 1983. S.5‑14.

 

Schanze, Helmut:Veränderungen des Literaturbegriffs im Kontext „Neuer Medien"(Vortrag). Demnächst in: Reimer, K.F. (Hg.): Zeichen im Wandel.

 

Schanze, Helmut:Erfahrungen mit Indices und Wörterbüchern in den Geisteswissenschaften— Datenverarbeitung als neues Medium für den Geisteswissenschaftler.‑In: IBM (1986), Referat 29.

 

Schivelbusch, Wolfgang: Geschichte der Eisenbahnreise. Zur Industrialisierung von Raum und Zeit im l9.Jahrhundert; München Wien 1977

 

Schmidt, Klaus M.:Wege zu Begriffsglossaren und einem Begriffswörterbuch mittelhochdeutscher Epik.‑In: Maschinelle Verarbeitung altdeutscher Texte 2 (1978)

 

Schmidt, Klaus M.:Errungenschaften, Holzwege und Zukunftsmusik auf dem Gebiet der inhaltlichen Textanalyse mit Hilfe des Elektronenrechners.‑ln: Sappler/Straßner (1980), S.101‑111.

 

Schwens, Ch.:Bilddatenbank „Malerei des Abendlandes". In: Zukunftstechnologie—Neue Medien; Band 9 ;Schriften und Berichte der Universität GHS Essen o.J., S.43‑54.

 

Searle, John R.:Geist, Hirn und Wissenschaft;Frankfurt am Main 1986.

 

Sloan, Douglas (Hg.):Computer in Education. A Critical Perspective; New York 1984.

 

Sloman, Aaron: The Computer revolution in Philosophy; Brighton 1979.

 

Snow, Charles Percy: Die zwei Kulturen. Literarische und naturwissenschaftliche Intelligenz; Stuttgart 1967.

 

Späth, Lothar:Ansprache zum 5. kulturpolitischen Diskurs: High Tech‑ High Culture?‑In: bühnengenossenschaft 1 (1987), S. lS‑ 17.

 

Stürmer, Michael: Dissonanzen des Fortschritts. Was die neuen Technologien für Bildung und politische Kultur bedeuten.‑In: FAZ, 14.12.1985.

 

Thaller, Manfred:Automation on Pamassus. Clio—A Databank Oriented System for Historians;‑In: HSR 15 auly 1980) 40‑65.

 

Thaller, Manfred: Numerische Datenverarbeitung für Historiker; Wien Köln 1982.

 

Thaller, Manfred: Zur Formalisierbarkeit hermeneutischen Verstehens in der Historie.‑In: Mentalitäten und Lebensverhältnisse, Rudolf Vierhaus zum 60.Geburtstag; Göttingen 1982, S.439‑454.

 

Tichy, Matthias / Martens, Ekkehard: Computer—Denken; Hannover 1986.

 

Turkle, Sherry:Die Wunschmaschine. Der Computer als zweites Ich; Reinbek bei Hamburg 1986.

 

Viehoff, Reinhold:ÜBER STANISLAW LEM: Literatur= (Text+Umwelt)* Zufall/Evolution. Eine empirische Theorie der Literatur.‑In: SPIEL 4 (1985), H.2, 257‑295.

 

Volpert, Walter: Zauberlehrlinge. Die gefährliche Liebe zum Computer;Weinheim 1985.

 

Wahlster, Wolfgang: Die Repräsentation von vagem Wissen in natürlichsprachlichen Systemen der Kl; Hamburg 1977.

 

Walsh, Vicky A.:Computer Simulation Methodology for Archeology.‑In: Bailey (1982), S.163‑174.

 

Wcizenbaum, Joseph:Die Macht der Computer und die Ohnmacht der Vemunft;Frankfurt am Main 1978.

 

Weizenbaum, Joseph:Kurs auf den Eisberg. Die Verantwonung des Einzelnen und die Diktatur der Technik;München 1987.

 

Weizsäcker, Carl Friedrich von:Sprache als Infommation.‑In: ders.: Die Einheit der Natur; München 1971.

 

Wisbey, Roy A. (Hg.):The Computer in Literary and Linguistic Research;Cambridge 1971.

 

Wright, Georg Henrik von:Erklären und Verstehen;Königstein/Ts.: Athenäum 1984.

 

 

11. Anlage: Überlegungen zur Finanzierung
außerhalb einer BMFT‑Förderung

 

 

Am 20. Januar 1988 kam es diesbezüglich zu einem ausführlichen Gespräch mit dem Beauftragten für das Bildungswesen Nord der Apple Computer GmbH Deutschland, Herrn Wessolowski. Er konnte von der Wichtigkeit des Forschungsprojektes (auch hinsichtlich der Möglichkeiten für eine stärkere Hochschulrepräsentanz von Apple) überzeugt werden und wird in den nächsten Wochen seinerseits bei den Firmenvertretern in Deutschland und USA für HIAT werben. Eine Übernahme des Gesamtprojekts wäre untypisch für Apples derzeitige Verkaufsstrategie in der Bundesrepublik. Andererseits ist diesbezüglich eine Trendwende abzusehen (z.B. durch den Apple‑Hochschulkongreß im April in Heidelberg, auf dem Peter Matussek weitere Gespräche führen wird). Konkretere Auspizien bestehen für eine Hardware­Unterstützung und eine Kooperation mit Apples neu gegründeter Tochterfirrna für Software‑Entwicklung, CLARIS. Das nächste Treffen mit Herrn Wessolowski wird ca. Ende Februar weitere Klärung bringen.

Andere Finanzierungsmöglichkeiten werden weiter verfolgt.