PhiN 79/2017: 169



Christof Schöch (Würzburg)



Reinhard Krüger und Beatrice Nickel (2016): Schäferei, Computer, Internet. Digital Humanities und frühneuzeitliche Pastoralliteratur. Göttingen/Bonn: V&R unipress / Bonn University Press.



Das heute unter den Begriffen der digitalen Geisteswissenschaften oder der Digital Humanities bekannte Feld von Verfahren der computergestützten Bearbeitung geisteswissenschaftlicher Fragestellungen gibt es seit den 1960er Jahren. Erst seit einigen Jahren jedoch institutionalisiert sich das Feld mit Professuren, Studiengängen und einem Fachverband auch im deutschsprachigen Raum und entwickelt breitere Zugkraft. So zeigen sich nun immer größere Teile der geisteswissenschaftlichen Fachvertreter und Fachvertreterinnen davon überzeugt, dass diese Methoden und Verfahren ebenso nützliche wie spannende Perspektiven zu bieten haben. Dabei wird immer wieder diskutiert, ob die Digital Humanities etablierte hermeneutische Verfahren lediglich unterstützen und ergänzen oder ob wir es mit einem tiefgreifenden methodischen und epistemologischen Paradigmenwechsel zu tun haben. Die Tragweite der mit den digitalen Verfahren verbundenen Veränderungen geisteswissenschaftlichen Arbeitens hängt von dieser Frage ebenso wesentlich ab wie die Möglichkeiten und Ambitionen des Felds insgesamt.

Vor diesem Hintergrund ist es erfreulich, dass sich auch die deutschsprachige Romanistik zunehmend an den digitalen Geisteswissenschaften beteiligt. Zugleich stellt sich die Frage, wie sich Arbeiten aus der digitalen Romanistik bezüglich der aufgeworfenen Alternative theoretisch und im praktischen Vollzug positionieren. Wie zu zeigen sein wird, ist die von Reinhard Krüger und Beatrice Nickel vorgelegte Monographie zu Schäferei, Computer, Internet. Digital Humanities und frühneuzeitliche Pastoralliteratur in dieser Hinsicht leider denkbar wenig ambitioniert, denn die Autoren setzen digitale Verfahren nur punktuell unterstützend ein und fallen dabei zudem weit hinter den Stand der Methodenentwicklung zurück.

Gegenstand der Untersuchung ist Honoré d'Urfés Roman L'Astrée (1607–1627), der als umfangreicher "Großtext" und "intellektueller Kreuzungspunkt der europäischen Pastoralliteratur der Frühen Neuzeit" (11) stellvertretend für die Schäferliteratur gesetzt wird. Ziel des Bandes ist es, "die Verfahren der Digital Humanities theoretisch reflektiert für die praktische Lektüre und Interpretation" dieses Romans fruchtbar zu machen (10). Dabei wird den entsprechenden Verfahren zwar attestiert, dass sie einen "erheblichen Zugewinn an Genauigkeit und 'Tiefenschärfe'" leisten, zugleich werden sie aber als "nur zusätzliche Hilfsmittel zu einer philologisch-hermeneutischen Textexegese" charakterisiert (12). Die einleitende methodische Verortung der Arbeit argumentiert zunächst über die vermittelnde Diskussion von close reading und distant reading (Moretti). Dabei minimieren die Autoren einerseits die Perspektivenänderung, die quantitative Verfahren der Analyse umfangreicher Textbestände mit sich bringen, und blenden andererseits die qualitativen, computergestützten Verfahren der sorgfältigen Annotation von Einzeltexten fast vollkommen aus. Das Potential beider Typen von Verfahren bleibt damit unerkannt und im weiteren Verlauf der Arbeit im Wesentlichen ungenutzt.




PhiN 79/2017: 170


Die nun folgende Auseinandersetzung mit dem Band fokussiert fünf Aspekte: Kontextualisierung, Textgrundlagen, Suchmethoden, Ergebnisse und Forschungsperspektiven.


Kontextualisierung, oder die Geschichte der kombinatorischen Sprachauffassung

Den Analysen der Astrée vorgeschaltet ist ein für sich genommen erhellendes Kapitel zur Geschichte der kombinatorischen Sprachauffassung (25–81). Hier wird kenntnisreich und weit ausgreifend, allenfalls etwas assoziativ strukturiert, eine Geschichte des kombinatorischen Denkens der Sprache in der europäischen Literatur- und Kulturgeschichte ausgebreitet und daraus eine originelle Perspektive auch auf neuere, computergestützte Verfahren der kombinatorischen Textproduktion entwickelt. Die Darstellung leidet im vorliegenden Zusammenhang allerdings darunter, dass die Beziehung zwischen der kombinatorischen, mechanischen Textproduktion und der computergestützten Textanalyse und damit den Digital Humanities weitgehend unkommentiert bleibt. Ebenso wird kein Zusammenhang zwischen der kombinatorischen Sprachauffassung und dem Schäferroman hergestellt. Dadurch wirkt dieses an sich interessante Kapitel mit dem übrigen Thema des Bandes unverbunden.


Textgrundlagen, oder von der Erstellung einer digitalen Textfassung

Jegliche computergestützte Bearbeitung eines Textes setzt voraus, dass eine digitale Fassung des Textes verfügbar ist. Was für ein schwieriges Unterfangen das Erstellen einer solchen Fassung im Falle der Astrée ist, wird anhand der im Band skizzierten, hochkomplexen Editionsgeschichte der Astrée deutlich. In den Jahren um 2006–2007 sind gleich drei ganz unterschiedliche digitale Editionen der Astrée in Angriff genommen worden, darunter diejenige unter Leitung von Reinhard Krüger, die auf der Ausgabe von Hugues Vaganay (1925–1928) basiert und ausdrücklich nicht als historisch-kritische Ausgabe, sondern als Leseausgabe konzipiert ist.1 Der Vaganay-Ausgabe werden zwar nicht weiter qualifizierte "Fehler" (88) zugesprochen, ja sie wird sogar als eine "in einigen Punkten entstellte Ausgabe" (90) bezeichnet, dennoch wurde sie aufgrund der besseren Verfügbarkeit und der Anforderungen der Digitalisierung und automatischen Texterkennung (Öffnungswinkel, Druckbild) als Textgrundlage gewählt.2

Mit der "Digitalisierung nicht-normierter Typographie und Orthographie" (115) wird dann eine Herausforderung beschrieben, die man als genuines Thema der Digital Humanities bzw. der digitalen Editionswissenschaften bezeichnen kann. Trotz der Konzeption als Leseausgabe haben sich die Herausgeber der Stuttgarter Edition für die Wahrung der historischen Orthographie entschieden. Zu Recht nennen sie eine stillschweigend modernisierte und normalisierte Edition "defizitär" (120) und weisen eine solche Vereinheitlichung als nicht hinnehmbar zurück. In diesen Zusammenhang gehört die schon in der Einleitung erfolgende Auseinandersetzung mit der Text Encoding Initiative (TEI) für das Erstellen digitaler Textfassungen.3 Die Entscheidung, diesen seit 1987 bestehenden Standard für das Erstellen von Texten in den Geisteswissenschaften nicht zu nutzen, sondern auf das ungleich weniger expressive HTML zu setzen, scheint auf einem mangelnden Verständnis der TEI zu basieren. Die gegenüber HTML deutlich erweiterten Möglichkeiten zur adäquaten Repräsentation beispielsweise von Briefen und Gedichten mit ihren spezifischen strukturellen Merkmalen – gerade in der an Binnenformen reichen Astrée wichtig – wurden offenbar nicht wahrgenommen oder für relevant erachtet.




PhiN 79/2017: 171


Der zentrale Vorwurf an die TEI ist aber, dass hier ein Bedürfnis bestehe, ältere Texte den "'zerstörerischen' Verfahren der 'Modernisierung' und der 'Normalisierung'" zu unterwerfen (20). Die Autoren schreiben: "Unserer Ansicht nach müsste es Ziel sein, die Diversität der Orthographie als historische Signatur der Zeit zu erkennen und entsprechende Verfahren der Digital Humanities zu entwickeln, mit denen diese Vielfalt erfasst und dargestellt werden kann" (120). Dem kann man nur entgegnen, dass die TEI erstens keine entsprechenden Vorschriften macht und zweitens mindestens seit 1992 die Möglichkeit vorsieht, sowohl die historische als auch eine korrigierte und/oder modernisierte Schreibung eines Wortes oder einer Textpassage festzuhalten. Es scheint den Autoren entgangen zu sein, dass diese Funktion der Mehrfachkodierung nicht nur Studien zum Verhältnis von Begriff und varianten Schreibweisen überhaupt erst systematisch und auf breiter Datenbasis ermöglicht, sondern dass sie auch ihre eigenen Anforderungen an historische Exaktheit verbunden mit Lesbarkeit bzw. Durchsuchbarkeit präzise erfüllt. Dies weder zu erkennen noch für die eigene Arbeit zu nutzen heißt, hinter das Reflexionsniveau der Digital Humanities der frühen 1990er Jahre zurückzufallen.


Suchmethoden, oder vom Auffinden von Einzelbegriffen in einem Text

Wenn die orthographische Variabilität nicht bei der Texterstellung berücksichtigt wird, verlagert sich das Problem auf die Suchfunktion. Hierfür gibt es eine Reihe von Lösungsansätzen: Erstens, und diese Möglichkeit wird im Band genannt, kann man für jedes Suchwort eine Liste der varianten Schreibweisen ermitteln und dann bei einer Suche nach einem Begriff alle Varianten als Suchwörter einbeziehen (für temps auch tems, tens oder tans). Zweitens könnte man mit Hilfe von sogenannten 'Regulären Ausdrücken' Suchbegriffe so formulieren, dass sie ausreichend Flexibilität bekommen, um auch variante Schreibweisen mit abzudecken (für temps könnte dies so lauten: "t[ea][mn]p?s"). Die avancierteste Lösung schließlich ist, ein Modell der orthographischen Variabilität zu einer bestimmten historischen Zeit zu erstellen, das Regeln für Ersetzungen und Auslassungen von Buchstaben in bestimmten Kontexten enthält. Auf dieser Grundlage können dann zu einem beliebigen Suchbegriff automatisch sinnvolle Varianten generiert werden, auch für bislang nicht explizit berücksichtigte Begriffe (vgl. u.a. Ernst-Gerlach / Fuhr 2007; Lay 2012). Im vorliegenden Falle bleibt ungeklärt, welche Lösung für die Suche nach Begriffen im Text letztlich eingesetzt wurde. Offenbar wurde keine der drei genannten Strategien systematisch genutzt oder in forschender Auseinandersetzung erprobt, sei es, weil die orthographische Variabilität im letztlich verwendeten digitalen Text doch nicht so massiv ist, wie zunächst suggeriert wurde, sei es, weil dies zumindest bei den letztlich in Frage stehenden Suchbegriffen, deren Anzahl begrenzt ist, nicht zu entsprechenden Problemen führte.4

Eine erste Form der für die vorliegende Arbeit praktizierten computergestützten Suchstrategien betrifft die Erhebung der Häufigkeiten, mit denen eine Reihe von Benennungen für lyrische Formen und kleinere Prosaformen im Inhaltsverzeichnis des Romans vorkommen. Von "statistisch erhobene[n] Daten" (122) zu sprechen, wenn die Häufigkeiten von 15 Begriffen in einem Inhaltsverzeichnis ausgezählt wurden, wirkt skurril, zumal nur absolute Häufigkeiten berichtet werden, ohne dass aber die (durchaus recht unterschiedliche) Länge der fünf Teile berücksichtigt worden wäre.5 Eine zweite Form der computergestützten Suchstrategien erfolgt dann im Kontext eines Kapitels zur inszenierten Schriftlichkeit für den Begriff lettre (sowie einige verwandte Begriffe, zu denen allerdings keine Ergebnisse berichtet werden). Das Wort wurde im Gesamttext der Astrée gesucht und seine Häufigkeit in den verschiedenen Teilen und Büchern erhoben (215–216), wiederum ohne Berücksichtigung der unterschiedlichen Länge der Teile oder eine Analyse der Verteilung.




PhiN 79/2017: 172


Eine dritte Form der computergestützten Suche erfolgt dann auf Grundlage der über den Suchbegriff sonnet identifizierten (insgesamt 78) Sonette, die nun als eigenes Korpus aufgefasst und einer zweiseitigen "quantitativen und qualitativen Analyse" unterzogen werden (167–168). Die Autoren werfen die spannende Frage auf, inwiefern man für die Sonette in L'Astrée, wie von Stéphane Macé vorgeschlagen, eine "double italianité" und insbesondere einen dominanten Petrarkismus annehmen kann. Leider wird diese Fragestellung dann in einer vereinfachten Weise operationalisiert, nämlich über die Erhebung der Häufigkeiten von rund 20 Begriffen, die als "Schlüsselbegriffe des petrarkistischen Systems" (167) eingeführt werden. Wie diese Liste zustandegekommen ist, bleibt offen. Und die Auswertung der Häufigkeiten beschränkt sich im wesentlichen auf zwei Beobachtungen: Erstens, alle 20 Begriffe kommen auch in den Sonetten der Astrée vor. Aber, möchte man einwenden, tun sie das denn mit einer so ungewöhnlichen Häufigkeit, dass dies für einen Einfluss des Petrarkismus spricht? Immerhin geht es hier u.a. um Begriffe wie "amour/Amour" oder "oeil/yeux", die durchaus nicht ausschließlich in petrarkistischem Kontext vorkommen können. Ein Vergleich mit unstrittig nicht-petrarkistischen Sonetten wäre hier aufschlussreich gewesen. Zweitens, sowohl "amour/Amour" als auch "cruel/cruelle/cruauté" kommen vor, was als klarer Beleg für die Präsenz der petrarkistischen "unerfüllten Schmerzliebe" (167) interpretiert wird. Die entscheidende Frage, wie eng die beiden Begriffsfelder in den Sonetten tatsächlich verknüpft werden, wurde nicht untersucht, obwohl man ihr mit einer einfachen Abstandssuche hätte nachgehen können. Zudem wäre hier eine Kookkurrenz-Analyse aufschlussreich gewesen, die aufgezeigt hätte, ob "cruel/cruelle/cruauté" und "amour/Amour" überdurchschnittlich stark miteinander kookkurrieren oder nicht. Solche Analyseschritte, die nicht nur seit langem zum selbstverständlichen Methodenrepertoire der digitalen Geisteswissenschaften gehören (vgl. u.a. Hockey 2000 oder Jannidis 2007), sondern auch von Werkzeugen zur Korpusanalyse wie den altehrwürdigen Wordsmith Tools (seit 1996 verfügbar; vgl. Scott / Tribble 2006) oder dem neueren TXM (seit 2008; vgl. u.a. Pincemin 2008) unterstützt werden, wurden offenbar nicht unternommen. Keines dieser oder vergleichbarer Werkzeuge wurde offenbar eingesetzt, ja es bleibt unerwähnt, mit welchem Werkzeug die Suchabfragen überhaupt durchgeführt wurden. Ohne die Möglichkeiten und Grenzen solcher seit langem verfügbaren, benutzerfreundlichen Werkzeuge tatsächlich erprobt zu haben, erfolgt statt dessen der Hinweis, dass die "konkrete semantische Gestaltung" nur durch die Überprüfung in jedem Einzelfall, d.h. durch eigene Lektüre, ermittelt werden könne (167). Hier wird viel zu früh das methodische Handtuch geworfen.

Mit diesen drei Vorgehensweisen ist das digitale methodische Repertoire des Bandes weitestgehend erschöpft. Der Einsatz von topic modeling, der in Klappentext und Einleitung (24) versprochen wird, bleibt leider reine Fiktion. Dabei wird die Methode durchaus angesprochen und wie folgt definiert: "Hier werden gemäß der Anlage des Textes seine Themen eher intuitiv identifiziert und diese dann mit statistischen Methoden untersucht" (21). Diese Umschreibung ist in höchstem Maße irreführend, denn die Pointe des wohldefinierten Verfahrens liegt gerade in der automatischen, datenbasierten Identifikation der Topics mit statistischen Methoden, nicht in der nachträglichen Untersuchung anderweitig oder gar "intuitiv" identifizierter Themen. Es handelt sich um eine quantitative, unüberwachte, probabilistische Methode, die rein auf der Grundlage distributioneller Eigenschaften von Wörtern, insbesondere ihrer Kookkurrenz in begrenzten Textabschnitten, ein Modell der latenten semantischen Struktur der Textsammlung erstellt (vgl. einführend Underwood 2012 sowie Blei 2012). In diesen Prozess fließen weder externes semantisches Wissen noch Vorannahmen der Forschenden ein, auch wenn einige Entscheidungen bezüglich der Parameter des Modells getroffen werden müssen.6 Das von den Autoren für die folgenden Untersuchungen vorgeschlagene Verfahren wird wie folgt beschrieben: "Wir bleiben bei der intuitiven Identifikation von Kernbegriffen und werden versuchen, diese möglichst differenziert in ihrer Anwendung im Romantext zu beschreiben." (22) Das Verfahren beruht also wie bereits beschrieben auf der Setzung von Suchbegriffen und der Ermittlung von Passagen, in denen diese Suchbegriffe vorkommen. Ziel ist es, die "semantischen Ausdifferenzierungen eines Begriffs in den verschiedenen Syntagmen vergleichend" zu untersuchen (24). Das ist inhaltlich spannend, aber die konkrete Umsetzung im vorliegenden Band ist aus der Perspektive der digitalen Methodik trivial und steht in keinerlei erkennbarer Beziehung zum etablierten Verfahren des topic modeling.




PhiN 79/2017: 173


Sind die für eine bestimmte Fragestellung relevanten Textpassagen erst einmal über die Suchwörter (wie sonnet, lettre oder devise) identifiziert, erfolgt die eigentliche Analyse und Interpretation des jeweils in Frage stehenden Phänomens (einzige Ausnahme ist die beschriebene Sonett-Passage) unabhängig von jeglicher computergestützten Methodik – es wird noch darauf zurückzukommen sein, welche genuin digitalen Forschungsperspektiven der Arbeit dadurch entgehen. Zwar ist natürlich festzuhalten, dass durch die gewählte Vorgehensweise eine Reorganisation des Materials jenseits der Linearität der Lektüre und nach Maßgabe des jeweiligen Erkenntnisinteresses erfolgt. Ob man die Sonette oder Briefe nun aber durch Suchbegriffe identifiziert oder durch Lektüre, macht hier im Wesentlichen einen Unterschied im Zeitaufwand, nicht im spezifischen Erkenntnispotential der Methode.


Ergebnisse, oder von vielfältigen Erkenntnissen

Unabhängig von der Strategie, mit der relevante Passagen identifiziert werden, ist der Ertrag der klassisch-hermeneutischen Lektüren, die darauf beruhen, erheblich. Insbesondere die Sonette und die Emblemata werden kenntnisreich und detailliert kontextualisiert, die Analysen der Textbeispiele fördern zahlreiche interessante Beobachtungen zu Tage und diese fügen sich wiederum einleuchtend in die übergreifende Argumentation des Bandes ein. Das umfangreichste Kapitel des Buches ist dabei den verschiedenen Binnenformen in L'Astrée gewidmet, deren massive Präsenz dem Roman eine "intarsienhafte Struktur" (99) verleiht. Im Zentrum des Kapitels steht dabei ein wunderbares Postulat zur thematisch-strukturellen Verfasstheit des Romans – "ein Roman über die Liebe kann daher nur ein Roman der Kommunikation und ihrer Medien sein" (173) –, das in vielfältiger Weise entfaltet und erläutert wird.

Ein erstes Unterkapitel ist den zahlreichen Sonetten gewidmet und bietet eine vielleicht etwas ausufernde Kontextualisierung an. Darauf folgt die Analyse der in den Roman integrierten Briefe, wobei im Fokus der Aufmerksamkeit die vielfältige Inszenierung von Schriftlichkeit sowie der Kommunikationsaktivitäten rund um das Briefeschreiben und -lesen steht. Dann stehen die Binnenerzählungen im Fokus, wobei insbesondere deren ungewöhnliche Länge, strukturelle Komplexität (bspw. durch die Einfügung von Gedichten) sowie die vielfältige Inszenierung von Mündlichkeit (u.a. durch Strategien der Rahmung), dargestellt wird. Man hätte hier in einer Studie, die sich methodisch in den Digital Humanities verortet, erwarten können, dass Textmerkmale wie Länge und Komplexität oder auch die erwähnten "Oralitätsmarker" in irgendeiner Form formalisiert und quantifiziert würden, um Dichte und Verteilung dieses Phänomens aufzuzeigen und diese Ergebnisse in die Argumentation einzubinden; dies bleibt aber aus. Schließlich führt ein Kapitel zu den Emblemen in der Astrée vor, wie hier die emblematische und die ekphrastische Tradition verknüpft und im Sinne des Liebesdiskurses als Kommunikation und Inszenierung von Kommunikation eingesetzt werden.

Alle diese Teilkapitel liefern überzeugende inhalts- und strukturbezogene Analysen und stützen damit eine weitere zentrale These des Bandes, die sich auf die postulierte Fraktalität des Romans bezieht, also auf die Präsenz selbstähnlicher Strukturen im Text, d.h. die Wiederholung von bestimmten Mustern auf unterschiedlichen Abstraktionsebenen (99–108). Zur Vorbereitung dieser These berufen sich die Autoren einerseits auf Studien, die auf der Ebene der Satzlängenfolge untersucht haben, ob sich hier selbstähnliche Strukturen nachweisen lassen. Dies konnte insbesondere für sogenannte stream of consciousness-Romane wie Finnegan's Wake belegt werden (Drozdz et al. 2016).7 Andererseits wird Fraktalität von den Autoren dann auf einer anderen Ebene definiert, nämlich auf derjenigen der textuellen Makrostruktur, also der Binnenformen. Hier wird konstatiert, dass sich die Astrée durch der Fraktalität zumindest ähnliche Strukturen auszeichnet, wenn der Roman beispielsweise zahlreiche Binnenformen integriert (histoires, Briefe und Gedichte) und die histoires wiederum ebenfalls Binnenformen (Briefe und Gedichte) integrieren. Ob es lohnt, hier die Metapher des Fraktals zunächst aufwändig zu verabsolutieren ("jedes Kunstwerk ist sich in jedem seiner Einzelteile ähnlich", 99), um sie dann gerade in Bezug auf die Astrée wieder umständlich zu relativieren ("Strukturen, die wenigstens dem Fraktal ähnlich sind", 103), sei dahingestellt. Die Funktionsweise der Binnenformen in der Astrée wird jedenfalls mustergültig und vielfältig herausgearbeitet.




PhiN 79/2017: 174



Perspektiven, oder das Aufwerfen möglicher Fragestellungen

Die Autoren des Bandes formulieren im Verlauf der Argumentation mehrfach interessante Forschungsperspektiven für eine genuin digitale Analyse der Astrée, die mehr leisten würde, als etablierte Methoden der Textinterpretation etwas zu unterstützen oder zu beschleunigen. Leider haben sich die Autoren auf keine dieser Perspektiven tatsächlich ernsthaft eingelassen, vielmehr werden sie nur vorsichtig konjunktivisch vorgebracht, dann aber schnell verworfen und nicht weiter verfolgt. Es ergibt sich hieraus allerdings eine vielfältige Forschungsagenda für die digitale Philologie in der Auseinandersetzung mit dem französischen Schäferroman der Frühen Neuzeit. Es wäre lohnenswert gewesen, diese der Forschendengemeinschaft programmatisch als zukünftiges Betätigungsfeld zu präsentieren.

Zu diesen Forschungsansätzen gehört die stilometrische Analyse des Romans mit Blick auf die Autorschaft derjenigen Teile, die nicht von Honoré d'Urfé verfasst wurden, sondern für die mehrere andere Autoren ins Spiel gebracht worden sind, unter ihnen d'Urfés Sekretär Balthazar Baro oder Gomberville und weitere Autoren (20–21). Der hierfür denkbare Einsatz der stilometrischen Autorschaftsattribution, beispielsweise mit dem von John Burrows vorgeschlagenen Delta-Maß für die stilistische Ähnlichkeit von Texten (vgl. einführend u.a. Craig 2004), wird skizziert, das Verfahren dann aber als unausgereift verworfen. Ein weiterer Ansatz wäre die explizite Modellierung orthographischer Variabilität entweder bei der Textkonstitution in TEI oder bei der Implementierung eines geeigneten Suchverfahrens gewesen, worauf ebenfalls ohne überzeugende Begründung verzichtet wurde (siehe oben). Zudem wird die Frage aufgeworfen, wie man emblematische Textpassagen automatisch identifizieren könnte, die nicht im Text als solche markiert oder benannt werden (203–204). Hierbei handelt es sich um eine anspruchsvolle Fragestellung, die an aktuelle Forschung zur automatischen Metaphernerkennung anschließen könnte (vgl. den Überblick bei Berber Sardinha 2012; Shutova 2015) und sicherlich ein eigenes Forschungsprojekt darstellen würde. Der wichtigste Ansatz ist natürlich das topic modeling, das erwähnt und missverständlich beschrieben, dann aber verworfen und durch eine einfache Suche nach Stichworten ersetzt wird. Wenn die Astrée in den Kontext einer größeren Textsammlung gestellt würde, könnte man sicherlich in sinnvoller Weise topic modeling betreiben und beispielsweise die für diesen Schäferroman im Vergleich zu anderen literarischen Texten der Zeit charakteristischen Topics herausarbeiten. Nicht zuletzt wird auch die Möglichkeit aufgeworfen, die These von der fraktalen Satzlängenstruktur computergestützt zu überprüfen (105), wiederum ohne dass ein entsprechender Versuch unternommen worden wäre.


Schlussbetrachtung

Zusammenfassend kann konstatiert werden, dass der Band zwar vielfältige Erkenntnisse zu Tage fördert, diese jedoch abgesehen von der punktuellen Suche nach Einzelbegriffen weitestgehend unabhängig von den Methoden und Verfahren der Digital Humanities ermittelt wurden, die doch eigentlich eingesetzt werden sollten. Wann immer der Band sich Verfahren und Methoden annähert, die üblicherweise den Digital Humanities zugerechnet werden, fällt ihre konkrete Anwendung viele Jahre, wenn nicht das eine oder andere Jahrzehnt, hinter den Stand der Forschung und das Reflexionsniveau der Digital Humanities zurück. Insofern kann man den Autoren nur recht geben, wenn sie konstatieren: "Die von uns gewählte Methode einer computergestützten Lektüre ist letztlich nichts anderes als die Systematisierung von Lektüreweisen, die im Zeitalter des sogenannten digital turn ohnehin von den meisten Philologen als eine der Möglichkeiten der Arbeit am Text angewendet werden." (311) Es findet sich hier in der Tat keinerlei methodische Innovation.




PhiN 79/2017: 175


Das wäre verzeihlich, wenn nicht gleichzeitig der Anspruch formuliert würde, man wolle sich nicht "in den eng gezogenen Grenzen der bisherigen Digital Humanities" (311) bewegen. An keiner Stelle der Arbeit wurde eine Forschungsfrage in für digitale Methoden geeigneter Weise operationalisiert und mit den aktuell verfügbaren Mitteln der digitalen Geisteswissenschaften untersucht. Tut man dies, wird man in der Tat bald die Grenzen dieser Methoden erfahren. Aber die Grenzen eines Methodenrepertoires überwinden zu wollen, ohne dieses überhaupt erst praktiziert zu haben, das ist im Falle der Digital Humanities nicht weniger unrealistisch als für jedes andere Forschungsparadigma.

Zudem wird aus der eigenen Praxis geschlossen, die Methoden der Digital Humanities ermöglichten lediglich das Bearbeiten "größerer Textmengen" mit "größerer Geschwindigkeit" und "größerer Genauigkeit" (311), ohne aber einen grundsätzlichen methodischen Wandel zu bedeuten. Erschöpfen sich die Methoden und Verfahren der Digital Humanities also in der Erleichterung etablierter Verfahren geisteswissenschaftlichen Arbeitens oder können sie diese nicht auch durch grundlegend neue Wege zu wissenschaftlicher Erkenntnis ergänzen? Die Antwort hierauf liegt nicht in einer postulierten Natur der Sache, sondern erweist sich immer wieder neu darin, wie ernsthaft über diese Methoden nachgedacht wird, welchen Aufwand man für das Erarbeiten der notwendigen Kompetenzen aufbringen kann und will und mit welchen Zielen und Ansprüchen sie eingesetzt werden. Die Digital Humanities sind, was wir aus ihnen machen.


Literaturhinweise

Berber Sardinha, Tony (2012): "An Assessment of Metaphor Retrieval Methods", in: MacArthur, Fiona et al. (Hg.): Metaphor in Use. Context, Culture, and Communication. Philadelphia: Benjamins, 21–50.

Blei, David M. (2012): "Probabilistic Topic Models", in: Communications of the ACM 55.4 [http://dl.acm.org/citation.cfm?id=2133826, 21.12.2016].

Burnard, Lou (2015): Qu'est-ce que la Text Encoding Initiative? Marseille: OpenEdition Press [http://books.openedition.org/oep/1297, 21.12.2016].

Craig, Hugh (2004): "Stylistic Analysis and Authorship Studies", in: Schreibman, Susan / Siemens, Ray / Unsworth, John (Hg.): A Companion to Digital Humanities. Oxford: Blackwell, 273–88.

Drożdż, Stanisław et al. (2014): "Quantifying origin and character of long-range correlations in narrative texts", in: arXiv:1412.8319 [physics] [http://arxiv.org/abs/1412.8319, 21.12.2016].

Ernst-Gerlach, Andrea / Fuhr, Norbert (2007): "Retrieval in Text Collections with Historic Spelling Using Linguistic and Spelling Variants", in: ACM Digital Library. [http://dl.acm.org/citation.cfm?doid=1255175.1255242, 21.12.2016].

Hockey, Susan M. (2000): Electronic Texts in the Humanities. Principles and Practice. Oxford: Oxford University Press.

Jannidis, Fotis (1997): "Wider das Altern digitaler Texte: philologische Textauszeichnung mit TEI", in: editio 11, 152–77.

Jannidis, Fotis (2007): "Computerphilologie", in Anz, Thomas (Hg.): Handbuch Literaturwissenschaft. Bd. II. Stuttgart: Metzler, 27–40.




PhiN 79/2017: 176


Lay, Marie-Hélène (2012): "VariaLog: How to Locate Words in a French Renaissance Virtual Library", in Digital Humanities 2012. Book of Abstracts. Hamburg: Hamburg University Press, 256–59 [http://www.dh2012.uni-hamburg.de/conference/programme/abstracts/varialog-how-to-locate-words-in-a-french-renaissance-virtual-library/, 21.12.2016].

Pincemin, Bénédicte (2008): "Modélisation textométrique des textes", in Heiden, Serge / Pincemin, Bénédicte (Hg.): Actes des 9es Journées internationales d'Analyse statistique des Données Textuelles. Bd. II. Lyon: Presses Univ. de Lyon, 949–60 [https://halshs.archives-ouvertes.fr/halshs-00280721/document, 21.12.2016].

Scott, Mike / Tribble, Chris (2006): Textual Patterns. Key Words and Corpus Analysis in Language Education. Amsterdam / Philadelphia: John Benjamins.

Shillingsburg, Peter (2006): From Gutenberg to Google. Electronic Representations of Literary Texts. Cambridge: Cambridge Univ. Press.

Shutova, Ekaterina (2015): "Design and Evaluation of Metaphor Processing Systems", in: Computational Linguistics 41.4, 579–623.

Stäcker, Thomas (2004): "Schonendes Verfahren zur Reproduktion alter Drucke. Der 'Wolfenbütteler Buchspiegel'", in: Bibliotheksdienst 38.1, 76–79.

Underwood, Ted (2012): "Topic modeling made just simple enough", in: The Stone and the Shell [https://tedunderwood.com/2012/04/07/topic-modeling-made-just-simple-enough/, 21.12.2016].


Anmerkungen

1 Die Publikation der Astrée erfolgt dabei im Rahmen der Stuttgarter Bibliothèque numérique du Berger, die "Teil eines umfangreicheren Konzepts der Digital Humanities" und als "digitale Bibliothek aller in Europa verfügbarer Schäferliteratur der Frühen Neuzeit" konzipiert ist (88–89); vgl. http://www.uni-stuttgart.de/romlit/forschung/astree/index.html.

2 Selbstverständlich werden frühneuzeitliche Materialien allerdings schon seit Langem nicht mehr mit Flachbettscannern gescannt, sondern mit Buchwippe, Buchwiege oder Buchspiegel. Letzterer erlaubt perfekt plane Aufnahmen auch von Büchern, die nur zu 45° geöffnet werden können (vgl. Stäcker 2004).

3 Ein Plädoyer für TEI ist schon Jannidis 1997; grundsätzliche Überlegungen finden sich bei Shillingsburgh 2006; eine aktuelle, ausführliche Einführung in TEI ist Burnard 2015.




PhiN 79/2017: 177


4 Es bleibt in der Beschreibung der verwendeten digitalen Textfassung offen, wie stark diese variante Schreibweisen aufweist: denn die Vaganay-Ausgabe beruht zwar auf (je nach Band verschiedenen) Editionen, die zu Lebzeiten d'Urfés erschienen sind, greift aber in nicht weiter präzisiertem Umfang in den Text ein; und die Stuttgarter Textfassung baut auf Vaganay auf, wiederum mit nicht genauer präzisierten Eingriffen.

5 Die meisten der Begriffe sind mit Blick auf variante Schreibweisen wohl eher unproblematisch, mit Ausnahme von villanelle, das sich in der Stuttgarter Edition als Gedichttitel in den Schreibweisen "VILANELLE" und VILLANNELLE" findet, wie ein Blick in die Ausgabe zeigt. Das bleibt allerdings ebenso unerwähnt wie die Tatsache, dass weder die Vaganay-Ausgabe noch die Stuttgarter Edition ein Inhaltsverzeichnis haben, das die Gattungsbezeichnungen enthalten würde; die Gedichte werden dort zwar aufgeführt, aber durch ihre erste Zeile identifiziert; erst im Text tragen die Gedichte Gattungsbezeichnungen. Es muss also eine andere Ausgabe verwendet worden sein, die aber nicht genannt wird, was die (nicht nur in den digitalen Geisteswissenschaften so wichtige) Nachvollziehbarkeit der Ergebnisse deutlich schmälert.

6 Das resultierende Modell besteht erstens aus Wahrscheinlichkeitsverteilungen von Wörtern (den sogenannten Topics) und zweitens aus Wahrscheinlichkeitsverteilungen von Topics in den untersuchten Texten. Die Wörter mit der höchsten Wahrscheinlichkeit in einem Topic weisen, im Sinne der distributionellen Semantik, häufig eine Art semantischen gemeinsamen Nenner auf. Dieser kann sich, wenn Romane untersucht wurden, unter anderem auf ein gemeinsames Thema oder Handlungsmotiv oder die Beschreibung von Figuren oder Handlungsorten beziehen.

7 Die Autoren stellen leider nicht klar, dass der von Drozdz et al. ebenfalls untersuchte Artamène ou le Grand Cyrus, welcher der Astrée nahesteht, zu den am wenigsten fraktalen unter den 113 untersuchten Romanen gehört (38), was die Hypothese von der Fraktalität der Astrée zumindest auf der Ebene der Satzlängen nicht stützt. Leider wird einmal mehr nicht unternommen, die von Drozdz et al. beschriebene Methode auch auf die Astrée anzuwenden, sodass diese Frage offen bleibt.