PhiN 80/2017: 101



Reinhard Krüger (Stuttgart / Berlin)



Digitale Hirten: Zur Debatte um die Digital Humanities aus Anlass einer Rezension



Es gilt die Besprechung einer Untersuchung (Krüger/Nickel 2016) zu besprechen, deren letzter Satz hier gleichsam als Motto vorangestellt werden soll: "Die Digital Humanities sind, was wir aus ihnen machen." (Schöch 2017: 175) Diesem Satz wird ungeteilte Zustimmung zuteil, zumal er impliziert, dass im Bereich der Digital Humanities noch längst nicht alles etabliert und fixiert ist, wie sich dies vielleicht der eine oder andere Verfechter dieser neuen Ausrichtung philologischer Studien wünschte. Panta rhei, alles ist im Fluss, und das ist auch gut so, wenn es darum geht, dass man durch eine Vielzahl von individuellen Herangehensweisen letztlich Wege der computergestützten Textlektüre findet, die allesamt nur ein Ziel haben dürften: Es geht grundsätzlich darum, den Computer als materielle Extension unseres kognitiven Apparates zu nutzen, um unsere Lektüren von Sprachkunstwerken zu verfeinern. Damit ist auch schon gesagt, was zu der Frage bereits entwickelter Verfahren der Digital Humanities zu sagen wäre: Es geht nicht darum, einen Kanon von Verfahren und Methoden festzuzurren, sondern es geht darum, dass jeder den Computer wie sein eigenes Lesegerät verwenden kann, und zwar in der Hoffnung, dass dieses Hilfsmittel ihm mehr Auskunft über die Texte vermittelt, als dies durch die konventionelle Form der Lektüre möglich wäre.

Dies ist genau die gleich zu Beginn des Buches erklärte Intention dieser Schrift gewesen, nämlich zu zeigen, wie insbesondere sehr große Textvolumina, wie es beispielsweise die Pastoral-Romane der Frühen Neuzeit zu sein pflegen, mit Hilfe des Computers genauer gelesen werden können. Es geht also bei der vorgelegten Untersuchung und bei den vorgeschlagenen Lektüren nicht darum, einem gerne evozierten epistemologischen Paradigmenwechsel zu frönen, sondern lediglich darum, die Konsequenzen daraus zu ziehen, dass die meisten Philologen heutzutage schon längst den Computer als eine mediale Darreichungsform der von ihnen zu untersuchenden Texte nutzen. Weitergehende Fragen sind davon vollkommen unbenommen, und so kann man dem Rezensenten durchaus folgen, wenn er fragt: "Erschöpfen sich die Methoden und Verfahren der Digital Humanities also in der Erleichterung etablierter Verfahren geisteswissenschaftlichen Arbeitens, oder können sie diese nicht auch durch grundlegend neue Wege zu wissenschaftlicher Erkenntnis ergänzen?" (Schöch 2017: 175)




PhiN 80/2017: 102


Dies bedeutet zugleich, dass – etablierte Verfahren hin und festgelegte Methoden her –, es hier nun keinesfalls darum geht, auf irgendeine Art und Weise den Anschluss an den wohlgemeinten Standard der aktuellen Diskussion im Bereich dessen, was sich Digital Humanities nennt, zu betreiben. Vielmehr ging es darum zu zeigen, wie die konsequente Nutzung von computergestützter Lektüre als eine Facette der Möglichkeiten von Digital Humanities erscheinen könnte.

Wir leben nämlich zum Glück in dieser erfreulichen Welt, in der nichts vorherbestimmt und demzufolge auch nichts sinnvollerweise abschließend definiert sein kann (Dawkins 1986). Die Skeptiker, wie Michel de Montaigne oder Pierre-Daniel Huet, aber auch die Enzyklopädisten und Georg Christoph Lichtenberg haben daraus den Schluss gezogen, dass man, wenn man die Dinge immer detaillierter betrachtet, letzten Endes zu dem Ergebnis kommen muss, dass jegliche allgemeine Definition, jeder allgemeine Begriff eigentlich an seinem Objekt vorbeigeht. Vermutlich ist dies auch mit den Begriffen so, die man bestimmten intellektuellen Tätigkeiten verleiht. Seit Texte mit Hilfe von künstlicher Intelligenz, Computern und entsprechenden Programmen verarbeitet werden – und dies ist vor allem der Fall, seit die Sprache als "Sprache im technischen Zeitalter" den Versuchen maschineller Übersetzung unterworfen worden ist – konnte immer wieder festgestellt werden, dass es, je nach Qualität der Sprache, ganz bestimmte Grenzen der computergesteuerten Sprachverarbeitung gibt. Die digitale Revolution, die zu einer grundlegenden Veränderung unserer Kommunikationsverhältnisse und der Verfahren der Informationsverarbeitung geführt hat, hat, wie allgemein bekannt, natürlich auch die Verhältnisse der literarischen Kommunikation massiv verändert.

Unter dem Stichwort der Digital Humanities wurde versucht, methodisch reflektiert die Konsequenzen aus dieser Revolution zu ziehen. Die Besprechung führt nun eine ganz interessante, rhetorische Volte durch: Zunächst wird, wie es sich gehört, darüber Rechenschaft gegeben, dass die ersten Verfahren der Digital Humanities bis in die 1960er Jahre zurückzuverfolgen sind. Dazu könnte man anmerken, dass schon Allen Turings aus dem Jahr 1950 stammende und schließlich verworfene Überlegung, ob denn ein Computer imstande sei, ein Sonett zu verfassen, nicht auch schon gewissermaßen eine Inkunabel der Digital Humanities darstellt. Nachdem nun festgestellt worden ist, dass seit den 1960er Jahren so etwas wie die Digital Humanities entstanden ist (damals handelte es sich im Wesentlichen um die maschinelle Sprachverarbeitung, die heutzutage vor allem im Bereich der Verarbeitung pragmatischer Texte Anwendung findet), wird konstatiert, dass in den letzten Jahren die systematische Reflexion über die Möglichkeit der Nutzung von Computerprogrammen zur Erfassung von Texten in einem solchen Maße zugenommen hat, dass es inzwischen auch zur Entwicklung von institutionalisierten Formen von mit digitalen Mitteln betriebener Philologie gekommen ist. Dies, so wird weiter festgestellt, stützt sich vor allem auf Verfahren und Methoden, die gleichsam als die aktuelle Messlatte angelegt werden um zu prüfen, was dazugehört und was nicht: Das, worüber jeder springen muss, der auch nur das Wort Digital Humanities in den Mund nimmt oder in die Tastatur tippt. Diese Messlatte ist dann zugleich auch die Grenzlinie zwischen dem, was als gültige Arbeit im Bereich der Digital Humanities anzusehen ist, und dem, was, so die petitio principii, von Hause aus nicht diesen Kriterien genügt.




PhiN 80/2017: 103


Dieses Votum, nicht dem derzeitigen Standard der Digital Humanities zu genügen, ist nun, erfreulicherweise, der besprochenen Studie zuteil geworden. Denn tatsächlich ging es hier nicht darum, im Rahmen der assoziierten Verfahren und Methoden irgendwie auf dem Stand wie auch immer definierter aktueller Digital Humanities zu sein oder diesen zu erreichen, sondern schlicht und ergreifend darum, wie schon oben angedeutet, zu systematisieren, auf welche Weise die computergestützte Lektüre von Texten den bisherigen Fragestellungen und vor allem einer historischen Hermeneutik auf die Beine helfen kann.

Der Rezensent macht es auch sehr deutlich, dass er bei den Autoren des Buches eine Geringschätzung der unter dem Begriff der Digital Humanities umlaufenden Verfahren erkennt. Doch in der Tat haben die Autoren die Möglichkeiten computergestützter Lektüre und auch die Aussichten, die die darüber hinausgehenden Verfahren geboten haben, sehr bewusst als zusätzliche Hilfsmittel zu einer philologischen Textexegese dargestellt. Es geht expressis verbis darum, die historisch-hermeneutische Lektüre in dem Sinne zu verschärfen, dass solche Textpassagen, die sich üblicherweise der Wahrnehmung der Leser entziehen, nunmehr zusätzlich ins Feld geführt werden sollen, um im Rahmen der zu leistenden historisch-hermeneutischen Interpretationen dem Gesamtwerk auf breiterer Basis besser gerecht zu werden. Es ist nämlich allseits bekannt, dass große (im Sinne von umfangreiche) Werke ihr Leben in den Spalten philologischer Publikationen vielfach nur in Form von knappen, geradezu auf philologische Aphorismen reduzierten Zitaten fristen, ohne dass der Blick auf das Gesamt, und das heißt vor allem, ohne dass der Blick auf die immer wieder überlesenen Details und Seitenlinien gerichtet wird, die natürlich von den als zentral aufgefassten Zitaten überstrahlt werden.

Was in dieser Untersuchung betrieben wurde, ist also so etwas wie die Erhöhung der Disziplin und Aufmerksamkeitsleistung bei den Lektüren, die angesichts des Umfangs dieser Texte aus der Pastoraltradition bei der heutigen Zeitökonomie mit den traditionellen Methoden vielfach überhaupt gar nicht mehr möglich sind. Dass dies grundsätzlich zum Schaden der Texte und damit auch zum Schaden der Erkenntnis und der Aufgaben der Philologie stattfindet, versteht sich wie von selbst, wird aber viel zu selten offen eingestanden.

Damit ist auch klar, dass die im Vordergrund der heutigen Digital Humanities stehenden quantitativen Verfahren sowie die Potenziale der Text-Annotation für die vorgelegte Untersuchung schlicht und ergreifend keine Rolle spielen konnten und auch nicht sollten. Dies bedeutet weiter, dass deren Potenzial natürlich nicht gering geschätzt wird. Vielmehr sollte eine aufkommende Methode und Disziplin offen sein für immer neue Impulse, die von den verschiedensten Sektoren der Wissensproduktion aus als Innovationen in das Feld forschender Praxis importiert werden können. Es kann also darum gehen, Algorithmen zu entwickeln, nach denen Texte automatisch analysiert werden, wobei diese Algorithmen nicht genuin aus der Computerwelt auf die Texte angewendet, sondern als digitale Extensionen einer nicht digitalen Lektürepraxis entwickelt und genutzt werden. Nun ließe es sich herrlich darum streiten, ab wie viel Computereinsatz beim Lesen man von Digital Humanities sprechen kann oder gar darf.




PhiN 80/2017: 104


Doch die Dinge sind viel zu sehr im Fluss, als dass man heute schon und möglicherweise sogar in der Zukunft imstande wäre zu definieren, was die Digital Humanities eigentlich sind. Man wird Felder umreißen und abstecken können, doch in dem Augenblick, da man Grenzlinien erfindet, heißt es schon, dass man Sektoren ausblendet, die unweigerlich auch von dem Phänomen digitaler Informationen und digitalen Informationsaustausches geprägt sind. Der Versuch einer Definition dessen, was die Digital Humanities sind, dürfte aller Voraussicht nach angesichts der Imponderabilien einer dynamischen Entwicklung in der computergestützten Kulturtechnik Textlektüre versagen müssen. So kann man also dafür plädieren, die Methode einer computergestützten Lektüre von Texten, die vor allem zu einer Verfeinerung der hermeneutischen Methode führen soll, als eines der Tätigkeitsfelder der Digital Humanities zu verstehen. Und die Tatsache, dass auch die derzeitigen Vertreter der Digital Humanities sich beispielsweise ins Programm schreiben, Fragen der Hermeneutik in Angriff nehmen zu wollen, dies aber bisher mit keinem erkennbaren Ergebnis, zeigt, dass sich immer wieder neue Felder öffnen werden, bei denen man die Frage stellen kann, ob es nicht von Nutzen wäre, auch hier mit computergestützten Verfahren neue Erkenntnisse zu gewinnen.

Erfreulicherweise spart der Rezensent bei aller Kritik aus seiner Sicht nicht mit Lob, womit er eigentlich bestätigt, dass einige der wesentlichsten Ergebnisse dieser Schrift – nämlich die verfeinerten Lektüren aus historisch-hermeneutischer Sicht – nicht ohne die von den Autoren vorgeschlagene Anwendung bestimmter Algorithmen der computergestützten Lektüre hätten erzielt werden können:

Unabhängig von der Strategie, mit der relevante Passagen identifiziert werden, ist der Ertrag der klassisch-hermeneutischen Lektüren, die darauf beruhen, erheblich. Insbesondere die Sonette und die Emblemata werden kenntnisreich und detailliert kontextualisiert, die Analysen der Textbeispiele fördern zahlreiche interessante Beobachtungen zu Tage und diese fügen sich wiederum einleuchtend in die übergreifende Argumentation des Bandes ein. Das umfangreichste Kapitel des Buches ist dabei den verschiedenen Binnenformen in L'Astrée gewidmet, deren massive Präsenz dem Roman eine "intarsienhafte Struktur" (99) verleiht. Im Zentrum des Kapitels steht dabei ein wunderbares Postulat zur thematisch-strukturellen Verfasstheit des Romans – "ein Roman über die Liebe kann daher nur ein Roman der Kommunikation und ihrer Medien sein" (173) –, das in vielfältiger Weise entfaltet und erläutert wird. (Schöch 2017: 173)

Eine ähnliche Eloge erfährt das Kapitel über die Kombinatorik in der Sprachkunst, womit der Rezensent genau erkennt, welche Spreng- und Innovationskraft in einer vertieften Untersuchung und Analyse der Konzepte von Kombinatorik bei Wortbildung, Imagination und Narration in der Geschichte auch mit Blick auf die Digital Humanities steckt. So heißt es:

Den Analysen der Astrée vorgeschaltet ist ein für sich genommen erhellendes Kapitel zur Geschichte der kombinatorischen Sprachauffassung (25–81). Hier wird kenntnisreich und weit ausgreifend, allenfalls etwas assoziativ strukturiert, eine Geschichte des kombinatorischen Denkens der Sprache in der europäischen Literatur- und Kulturgeschichte ausgebreitet und daraus eine originelle Perspektive auch auf neuere, computergestützte Verfahren der kombinatorischen Textproduktion entwickelt. (Schöch 2017: 170)




PhiN 80/2017: 105


Die allenthalben herrschende Kombinatorik, die wirkt, wenn es um Prozesse der Erzeugung von Zeichenkonstellationen geht, wird zum Algorithmus der Erzeugung immer neuer Ergebnisse, von denen dann einige von den Autoren als poetisch wertvoll identifiziert werden. Wir gelangen mit diesen Fragen dicht an die Problematik der computergestützten poetischen Produktion, aber im Gegenzug auch des Problems – und hier liegt die Crux für die bisherigen Digital Humanities: Wie können poetisch funktionale Kompositionen überhaupt automatisch durch Computerprogramme erkannt werden? Dies bedeutete nämlich, dass man mit solchen Programmen imstande wäre, die genuin menschliche, vielleicht auch einigen Primaten eignende Fähigkeit der ästhetischen Erfahrung zu simulieren, was impliziert, dass man imstande wäre, auch dem Prozess der zufälligen Erzeugung sprachlicher Artefakte wenigstens auf die Spur zu kommen. Aber hier hatte ja schon Alan Turing Zweifel angemeldet, indem er die Frage nach der Möglichkeit computergestützter Sonettproduktion verneinte bzw. maximal konzedierte, dass Computer möglicherweise Sonette erzeugen könnten, die allerdings nur von anderen Computern gut verarbeitet werden könnten. Was jedoch fehlt, ist dieses Quäntchen spezifisch menschlichen Zutuns, dem in letzter Konsequenz nur mit dem quantenmechanisch zu beschreibenden Wirken des Zufalls beizukommen ist. Hier aber dürften die Grenzen digitaler Kognition erreicht sein, denn man kann zwar probabilistische Modelle entwickeln, wie der Zufall wirken kann, d.h. in unserem Fall die poetischen Möglichkeiten ausbreiten, jedoch niemals die Resultate kalkulieren, die der Zufall aus diesen Möglichkeiten erzeugt. Inzwischen ist diesem Kapitel ein Aufsatz über sprachliche Kombinatorik und ihren Zusammenhang mit der frühen Kybernetik und KI gefolgt, in dem diese Fragen weiter vertieft werden (Krüger / Nickel 2017). Ein Buch dazu (Reinhard Krüger / Beatrice Nickel: Computer, Zufall, Gehirn. Zur Geschichte der Theorie und Praxis kombinatorischer Literatur und Kunst. Berlin: De Gruyter) ist derzeit in Vorbereitung.

Eigentlich kann man nur schließen, dass der Rezensent lediglich den Umstand kritisiert, dass ihm hier nicht die Untersuchung vorgelegen hat, die er selbst gern geschrieben hätte, falls er einen solchen Großtext hätte untersuchen wollen. Ansonsten ist er ja des Lobes voll hinsichtlich des historisch-hermeneutischen Ertrags dieser Studie. Und dass er unterdes die These von der fraktalen Struktur von L'Astrée unterstützt, ist sehr erfreulich, zumal dies dem aktuellsten Stand der Forschung entspricht. Es sind ja inzwischen die Ergebnisse einer Krakauer Forschergruppe zugänglich geworden, die die von den Autoren des Buches bereits zuvor formulierte These von der fraktalen Struktur der Texte nun ganz unabhängig und an anderen Kriterien poetischer Texte bestätigen.

Alle diese Teilkapitel liefern überzeugende inhalts- und strukturbezogene Analysen und stützen damit eine weitere zentrale These des Bandes, die sich auf die postulierte Fraktalität des Romans bezieht, also auf die Präsenz selbstähnlicher Strukturen im Text, d.h. die Wiederholung von bestimmten Mustern auf unterschiedlichen Abstraktionsebenen. (Schöch 2017: 173)

Freilich erkennt der Rezensent in der Anwendung des Begriffs des Fraktals lediglich eine Metapher, was aber ganz genau nicht gemeint ist. Beziehen sich die Studien der Krakauer Forschergruppe auf die Satzlängen und fördern auch für Georges de Scudérys Artamène fraktale Strukturen (wenn auch nicht so komplexe wie in James Joyces Finnegans Wake) zutage, so liegt Schäferei, Computer, Internet die These zugrunde, dass auch hinsichtlich der Makrostrukturen der fraktale Charakter von L'Astrée festgestellt werden kann, was schon bei analoger Betrachtung des Textes offensichtlich wird. In der Tat müssten an diesem Punkt computergestützte Berechnungen folgen, doch gibt es schon jetzt die Möglichkeit einer Prognose hinsichtlich des Resultats: Seit Kurzem wissen wir nämlich, dass das Gehirn fraktal strukturiert ist und entsprechend operiert. Es ist also nicht möglich, dass das Gehirn etwas anderes erzeugt als das, was seinen eigenen Strukturen und Verfahren entspricht (Tsang 2017).




PhiN 80/2017: 106


A propos Innovation: Mir scheint, dass eine der wichtigsten Aufgaben, die vor dem Verfahren der Digital Humanities steht und zu deren Erreichen entsprechende Verfahren entwickelt werden müssten, die automatische Identifikation poetischer Funktionen der Sprache ist. Nur dann, wenn die poetischen Funktionen der Sprache automatisch identifiziert werden können, ist letztlich auch der Weg zu einer Semantik der poetischen Sprache und auf diesem Weg auch zu einer computergestützten historischen Hermeneutik möglich. Tatsächlich gibt es erste Ansätze, metaphorische Konstruktionen automatisch zu erkennen. Dabei dürfte dies eine der größten Schwierigkeiten darstellen, da die Metapher eines der kompliziertesten Gebilde poetischer Sprachfunktion ist, wobei es dem Groupe μ erst in jahrzehntelanger Forschung gelungen ist, überhaupt ein semiotisches Modell der Metapher zu entwickeln. Grundsätzlich sind ja alle Abweichungen von der Sprachnorm, die vom Groupe μ als "degré zéro du langage" benannt worden sind, der Ausweis für eine bestimmte Bemühung um eine sprachliche Form, die letztlich die Aufmerksamkeit des Rezipienten erheischt. Das bedeutet, dass eine computergestützte Identifikation poetischer Sprachfunktionen vor allem eines im Auge haben müsste, nämlich die rhetorischen Figuren und Tropen, die sich in Texten nachweisen lassen können und die demzufolge als Ausweis einer bestimmten Bemühung um die Sprachform identifiziert werden können, automatisch zu identifizieren und zu erfassen. Wir haben es auf der einen Seite mit einem durchaus etablierten Kanon von Figuren zu tun, auf der anderen Seite ist es aber im Akt der poetischen Kreation und Kommunikation vollkommen unvorhersehbar, welche poetische Funktion der Sprache von einem Autor gewählt wird. Dies gilt auch für die Wahl der Wörter aus den von Jakobson so benannten Paradigmata verschiedener Klassen von Äquivalenz. Es wird also vielleicht einmal möglich sein, Tropen und rhetorische Figuren zu identifizieren, es wird aber aller Voraussicht nach nicht möglich sein, den kreativen Prozess so zu rekonstruieren, dass letztlich auch bestimmt werden könnte, auf welchem Wege ein Autor zur Verfertigung und schließlich zum Einsatz einer poetischen Sprachfunktion gelangt ist. Die Entscheidung nämlich, einen Text mit poetischen Sprachfunktionen zu versehen, ist auf der einen Seite insofern vorhersagbar, dass sie wahrscheinlich ist, weil sie eine der Bedingungen dafür ist, dass ein Sprachkunstwerk überhaupt als ein Sprachkunstwerk wahrgenommen werden kann. Auf der anderen Seite ist die konkrete Entscheidung für eine konkrete Figur, mit der poetische Funktionen innerhalb des sprachlichen Artefakts erscheinen, nicht bestimmbar. Dies liegt daran, dass schon der Sprechakt sich in einer Weise vollzieht, in der selbst dem Sprechenden nicht bewusst ist, welche Zeichenfolgen sich ihm im Zuge der kommunikativen Handlungen anbieten werden, wobei ebenso unbestimmbar ist, welche er letzten Endes als die poetisch 'richtige' und 'wirkungsvolle' Erfindung in seinen Text einfügt. Wenn sich diese Möglichkeiten schon dem Autor in einer nicht kontrollierbaren und unvorhersehbaren Art und Weise präsentieren, aus denen er dann aus zufälligen Erwägungen heraus eine bestimmte wählt, die er als die 'richtige' auffasst (was nämlich der Kern der Inspiration ist), dann wird es umso mehr für den Rezipienten, und zwar auch für den Rezipienten, der sich einem Text mit dem Computer nähert, nicht möglich sein, die Verkettung von zufälligen Prozessen, die die Voraussetzung für die Entstehung einer poetischen Figur darstellen, zu rekonstruieren.

Zudem stellt sich die Frage, was es mit den seltenen Worten oder gar Solipsismen in Sprachkunstwerken auf sich hat wie beispielsweise dem Wort "rhizocapé" in Fatou Diomes Le ventre de l'Atlantique (Diome 2003: 216). In quantitativen Analysen dürften diese als irrelevant marginalisiert werden, wo doch gerade solche seltenen Worte hochgradig signifikant für den Stil eines Autors sein dürften.




PhiN 80/2017: 107


Wir befinden uns noch ganz am Anfang einer Forschung, die computergestützte Textanalyse, neurobiologische Forschung, Neurolinguistik, Chaostheorie, die Mathematik nicht-linearer Prozesse sowie die Folgen der quantenmechanischen Deutung des Zufalls miteinander verbinden wird. Was sich hier so unvorstellbar komplex anhört, ist es auch, aber es ist schon in Stanisław Lems zweibändiger Philosophie des Zufalls (1968) und Erich Köhlers Studie Der literarische Zufall, das Mögliche und die Notwendigkeit (1972) angelegt. Beide Schriften sind – wahrscheinlich vorzeitig – von Visionären zu Zeiten verfasst worden, als Computer von der Leistungsfähigkeit eines Mobiltelefons noch ganze Häuser anfüllten, und es scheint so, als liege hier noch ein intellektuelles Feld bereit, heute und in Zukunft bestellt zu werden. Beide Schriften kennzeichnen den Gegenpol einer alten Vorstellung, die jeden Zufall aus der Produktion von sprachlichen Artefakten ausschließt. So polemisiert Cicero gegen die Atomisten und hier speziell gegen Lukrez und seine Auffassung von der generativen Kraft des Zufalls in diesem Universum:

Hic ego non mirer esse quemquam, qui sibi persuadeat corpora quaedam solida atque individua vi et gravitate ferri mundumque effici ornatissimum et pulcherrimum ex eorum corporum concursione fortuita?

[Muß ich mich hier nicht wundern, daß jemand die Überzeugung vertritt, bestimmte feste, unteilbare Atome bewegten sich durch ihre Schwerkraft und unser so herrlich ausgestattetes, wunderbares Weltall entstehe durch den zufälligen Zusammenprall dieser Körper?] (Cicero 1995: 200)

Sodann illustriert er seine Polemik gegen den Zufall mit dem Bild der zufällig hingeworfenen und kombinierten Buchstaben, die einen sinnvollen Text ergeben sollten:

Hoc qui existimat fieri potuisse, non intellego, cur non idem putet, si innumerabiles unius et viginti formae litterarum vel aureae vel qualeslibet aliquo coiciantur, posse ex is in terram excussis annales Enni, ut deinceps legi possint, effici; quod nescio an ne in uno quidem versu possit tantum valere fortuna.

[Wenn jemand das für möglich hält, verstehe ich nicht, wieso er nicht gleichfalls denkt, es könnten sich – wenn man die zahllosen Formen der 21 Buchstaben, seien sie golden oder sonst wie, irgendwo zusammenwürfe – aus diesen auf die Erde geschütteten Buchstaben die Annalen des Ennius ergeben, so daß man sie nacheinander lesen könnte. Vermutlich vermag jedoch nicht einmal bei einem einzigen Vers der Zufall so viel zustande zu bringen.] (Ebd.: 200–203)

Wir haben diese Episteme einer zufallslosen Welt definitiv verlassen. Auch die Vorstellung der unabhängig aufeinandertreffenden, kontingenten Prozesse, die noch deutlich die Spuren des mechanischen Materialismus aufweist, ist aus Sicht der Quantenmechanik revisionsbedürftig. Dies hat noch ungeahnte Konsequenzen, die hinsichtlich literaturtheoretischer Fragen noch einer tiefer greifenden Untersuchung harren. Die objektiven Grenzen der Leistungsfähigkeit der Digital Humanities dürften nämlich da erreicht sein, wo es um Prozesse geht, die von keinem Computer und Computerprogramm der Welt mehr erfasst werden können. Dies ist der Fall, wenn es um die Rekonstruktion zufälliger Prozesse geht. Zwar können gemäß der Grundannahmen der Quantenmechanik die Wahrscheinlichkeiten angeben werden, mit denen bestimmte Vorgänge vonstattengehen können. Doch ist es nicht möglich zu bestimmen, welche Vorgänge sich ereignen werden. Diese sind vom Zufall abhängig, der als objektiver Bestandteil der Wirklichkeit aufgefasst werden muss.




PhiN 80/2017: 108


Übertragen wir diese Überlegungen der Quantenmechanik auf das Schachspiel (und denken zugleich die Sprache als Sprachspiel mit), so können wir feststellen, dass 32 Figuren (Worte) nach bestimmten Algorithmen (grammatikalischen Regeln) miteinander zu einer Spielfolge (Satz, Narrativ etc.) verknüpft werden. Die Anzahl der möglichen Spielfolgen liegt bei etwa 1018900, auf deren Grundlage dann die zufällige Wahl einer Spielfolge rekonstruiert werden müsste. Dies scheitert jedoch an den Grenzen der objektiv verfügbaren Rechnerkapazitäten. Wenn wir jedes Atom in diesem Universum nutzten, um eine Spielfolge zu speichern, dann benötigten wir einen aus diesem Universum verfertigten Computer mit 1018900 Speicherplätzen. Allerdings besteht unser Universum nach derzeitigen Schätzungen aus lediglich 1084 bis 1089 Atomen. Es fehlt also unserem Universum als Computer gedacht erhebliche Speicherkapazität für alle Schachpartien. Wenn wir jedoch nur die ersten 40 Spielzüge durchrechneten (Schachpartien dauern im Durchschnitt 35 bis 45 Züge), kommen wir bereits auf 10120 Spielverläufe. Diese könnten lediglich von einem Computer gespeichert werden, der mit 14 Milliarden Jahren bereits so lange existierte wie dieses Universum und sämtliche seither entstandenen und auch wieder vergangenen Teilchen des Universums für die Speicherung aller möglichen Schachpartien bis zum 40. Zug nutzte. Es handelt sich bei der Zahl 10120 um die kosmologische Obergrenze aller möglichen seit dem Beginn des Universums denkbaren Operationen. (Gierer 1984: 45) Das Schachspiel mit seinen 32 Figuren und entsprechenden Kombinationsmöglichkeiten sprengt bereits diese Kapazitäten. Es ist hier schon die hypothetische Obergrenze eines Computers von den Ausmaßen unseres Universums und damit auch die Grenze der Kalkulierbarkeit des zufälligen Ereignisses auf dem Schachbrett erreicht.

Übertragen wir diese Überlegungen auf die sprachliche Kombinatorik und setzten voraus, dass beispielsweise die deutsche Sprache derzeit bis ca. 1 Million, die französische Sprache derzeit ca. 300.000 Worte (im Gegensatz zu den 32 'Worten' des Schachspiels) umfasst (Best 2006), dann ahnen wir, wie viele Universen vom Zuschnitt unseres Universums erforderlich wären, um alle möglichen Sätze oder sprachliche Fügungen von einer Länge von nur 40 Worten (der durchschnittlichen Länge einer Schachpartie) zu generieren und damit den Zufall der sprachlichen Aktivität per Computer zu erfassen.

Wir können hier auch das Infinite-Monkey-Theorem anwenden, das beispielsweise von Jorge Luis Borges in seiner Erzählung El Aleph produktiv angewendet wurde. Es besagt, dass ein Affe, wenn er nur unendliche Zeit auf einer Schreibmaschine tippte, irgendwann zufälligerweise die Werke William Shakespeares niederschreiben würde. Bei Borges ist es analog dazu unter leicht veränderten Versuchsbedingungen die Odyssee, die einmal wiedergeschrieben werden muss (Borges 1971). Was dies jedoch konkret bedeutet, wenn es darum geht zu berechnen, welchen Aufwand der Affe betreiben müsste, bis er nur das Wort "hamlet" schreibt, weist schon in die Richtung der mathematischen und Rechnerleistungen, die hierfür aufgebracht werden müssten: Nach spätestens 1,5 Milliarden Versuchen würde der Affe tatsächlich die Zeichenfolge 'hamlet' getippt haben.

Derzeit ist man noch weit davon entfernt, solche Fragen zu stellen, und das bedeutet, dass Digital Humanities eben das sind, was 'man' daraus macht, und 'man' ist erfreulicherweise eben mehr als der Rezensent dieses Buches. Und genau aus diesem Grund wurde es geschrieben. Das Instrumentarium der Digital Humanities ist immer noch so unterentwickelt, die Ergebnisse sind immer noch so wenig zuträglich für die Erweiterung des Textverständnisses, dass es noch viel Anlass zu weiteren Erfindungen auf diesem Gebiet gibt. Es wurde systematisiert und angewendet, was bei computergestützter Lektüre als Algorithmen entwickelt werden kann, und dies brachte erfreulicherweise eine ganze Reihe neuer, auch vom Rezensenten gelobter Erkenntnisse zutage.




PhiN 80/2017: 109


Bibliographie

Best, Karl-Heinz (2006): Quantitative Linguistik. Eine Annäherung, 3., stark überarb. u. ergänzte Aufl. Göttingen: Peust & Gutschmidt.

Borges, Jorge Luis (1971): "La Biblioteca de Babel", in: Ficciones. Madrid: Alianza, 86–99. [1941]

Cicero, Marcus Tullius (1995): De natura deorum / Über das Wesen der Götter: Lat./Dt., hg. und übers. v.  Ursula Blank-Sangmeister. Stuttgart: Reclam.

Dawkins, Richard (1986): The Blind Watchmaker. New York: W. W. Norton & Company.

Diome, Fatou, (2003): Le Ventre de l'Atlantique. Paris: Éditions Anne Carrière.

Gierer, Alfred (1985): Die Physik, das Leben und die Seele. München: Piper.

Krüger, Reinhard / Beatrice Nickel (2016): Schäferei, Computer, Internet. Digital Humanities und frühneuzeitliche Pastoralliteratur. Göttingen: V&R unipress / Bonn University Press.

Krüger, Reinhard / Beatrice Nickel (2017): "Literatur, Kombinatorik und Archäologie der Digital Humanities", in: Comparatio 9.1, 17–40.

Schöch, Christof (2017): "Rezension zu Reinhard Krüger / Beatrice Nickel (2016): Schäferei, Computer, Internet. Digital Humanities und frühneuzeitliche Pastoralliteratur. Göttingen/Bonn: V&R unipress / Bonn University Press", in: PhiN 79, 169–177. [http://web.fu-berlin.de/phin/phin79/p79t9.htm]

Tsang, Wai H. (2017): The Fractal Brain Theory. Morrisville, North Carolina.