Rabea Kleymann: ÜBER DAS ERZÄHLWÜRDIGE DER THEORIE IN DEN DIGITAL HUMANITIES

Unter dem Label »Digital Humanities« (DH) werden unterschiedliche Themen, Gegenstände und Erkenntnisansprüche subsumiert. Vielen gelten die DH als Erweiterung des klassischen Methodenkanons, da sie computergestützte Verfahren für die Geisteswissenschaften in Aussicht stellen. Gleichzeitig verstärken die DH, indem sie unter anderem neue Werkzeuge anbieten, auch praxeologische Tendenzen innerhalb der Geisteswissenschaften. Infolgedessen haben sich die Rede von der Theorielosigkeit der DH sowie Erzählungen vom »Ende der Theorie«[1] in den Diskussionen über digitale Methoden, Praktiken und Forschungsinfrastrukturen als Hauptnarrative etabliert. Dem Status der Theorie in den DH widmete sich die Tagung Theorytellings: Wissenschaftsnarrative in den Digital Humanities, die am 8. und 9. Oktober 2020 in Leipzig stattfand und von der Arbeitsgruppe »Digital Humanities Theorie« des Verbandes »Digital Humanities im deutschsprachigen Raum« und dem »Forum für Digital Humanities Leipzig« organisiert wurde.

Ihr zentrales Anliegen war es, Wissenschaftler*innen aus verschiedenen Disziplinen zusammenzubringen, um gemeinsam über Bedeutung, Form und Einsatz von Theorien in den DH zu diskutieren. Mit Blick auf den Forschungsdiskurs hat sich gezeigt, dass die Möglichkeiten von Theoriearbeit oftmals mit Fragen nach Legitimation und Relevanz der DH selbst verknüpft sind. Die Tagung lud nun dazu ein, von den vermeintlich unerzählten oder nicht erzählbaren Geschichten der Theorie in den DH zu berichten. In insgesamt fünf Vorträgen wurde nicht nur das Feld der Theorie in den DH neu begangen, sondern es wurden auch erzählwürdige Theorytellings sichtbar gemacht.

***

Eröffnet wurde die Tagung mit dem Vortrag Wider die Tiefenrhetorik‹. Über die Kulturtechnik der Verflachung, diagrammatische Maschinen und dasDeep Learning‹ der Philosophin Sybille Krämer (FU Berlin / Leuphana Universität Lüneburg). Ausgangspunkt dieses Vortrags war ein in Bezug auf Interpretationsvorgänge positiv besetzter »Gestus des Tiefgangs«. In den Geisteswissenschaften werde das Generieren von Bedeutungen häufig über ein Durchdringen von Oberflächen imaginiert. Die erkenntnistheoretischen Potenziale von Oberflächen hingegen würden fortwährend diskreditiert. Ein Theoriebeitrag der DH, so Krämers These, bestehe in der Rehabilitierung einer »Epistemologie der Oberfläche«. Die DH stellten nämlich eine produktive Gegenbewegung zur forcierten Tiefenrhetorik hermeneutischer Wissenschaften dar. Krämer skizzierte Perspektiven einer solchen spezifischen Epistemologie. Zuerst sei es wichtig, das kulturstiftende Potenzial in der Kulturtechnik der Verflachung zu erkennen: »Wir denken nicht nur auf der Fläche, sondern mit der Fläche.« Computer würden dann als Oberflächentechnologien deutbar, die über datenanalytische Operationen intrinsische Bedeutungen generieren. Gleichzeitig kehre jedoch mit diesem Bedeutungsverstehen des Computers eine unkontrollierbare Tiefendimension, eben eine neue Form des Blackboxing, zurück. Krämer beschrieb »Blackboxing« – Bruno Latours Ansatz folgend – als ein »Unsichtbarmachen wissenschaftlicher und technischer Arbeit durch ihren eigenen Erfolg«.[2] Hinter dem Bildschirm entstehe ein Netz von Protokollen, Algorithmen und virtuellen Maschinen, das von den Nutzer*innen gewöhnlich weder eingesehen noch verstanden wird. Die damit einhergehende Dialektik der Ent- und Verbergung sei sogleich Teil einer zukünftigen Epistemologie der DH. Am Beispiel von maschinellen Lernverfahren, hier Convolutional Neural Networks, zeigte Krämer abschließend erkenntnistheoretische Implikationen des Blackboxing auf. Entscheidend ist in ihren Augen dabei, dass Deep Learning selbst mit der Vervielfachung von maschinenintern bearbeiteten Oberflächen einhergeht.

Der Historiker Manfred Thaller (Universität zu Köln) rückte in seinem Vortrag Können Reaktionäre und Revolutionäre die gleiche Theorie haben? die hermeneutische Tradition der Geisteswissenschaften in den Fokus. Anhand dreier Beispiele – dem Einsatz von Computern in den Literaturwissenschaften, der Geschichtswissenschaft und der Archäologie – zeichnete er den Einfluss von fachspezifischen Theoriebeziehungen auf die Implementierung und Anwendung von informationstechnischen Werkzeugen historisch nach. Thaller erklärte, dass IT-Anwendungen sowohl von Reaktionär*innen wie Revolutionär*innen der Fächer favorisiert würden, denen gemeinsam sei, dass die informationstechnischen Möglichkeiten in Bezug zur Hermeneutik gedacht werden. Der theoretische Beitrag der DH liegt für ihn daher in einer »Ehrenrettung der Hermeneutik«. Hierzu formulierte er zwei Thesen: Erstens müssten die metaphysischen Prämissen in traditionell hermeneutischen Theorien verbannt und durch Ansätze aus den modernen Kognitionstheorien ersetzt werden. Nur so könne das hermeneutische Vorgehen durch Informationssysteme unterstützt werden. Daran schloss Thaller seine zweite These an: Gegenwärtig werden IT-Anwendungen in den Geisteswissenschaften meist nur für einzelne Arbeitsschritte im Forschungsprozess eingesetzt (z.B. für eine Korpusexploration). Zukünftige digitale Forschungsumgebungen sollten jedoch gerade den zirkulären Interpretationsvorgängen von Geisteswissenschaftler*innen Rechnung tragen (z.B. durch Netzwerkvisualisierungen). Auf diese Weise könnten IT-Anwendungen nicht nur einzelne Arbeitsschritte, sondern den gesamten geisteswissenschaftlichen Forschungsprozess unterstützen.

Hier knüpften die Überlegungen der Literaturwissenschaftlerinnen Evelyn Gius und Janina Jacke (TU Darmstadt) unmittelbar an. In ihrem Vortrag Sinn und Unsinn von Strukturalismus in den DH nahmen sie modellhaft Arbeitsschritte von hermeneutisch-literaturwissenschaftlichen Textanalysen und Interpretationen in den Blick, um ein etabliertes ›Anti-Theorienarrativ‹ neu zu verhandeln. Vonseiten der traditionellen Literaturwissenschaft würden computationelle Forschungsansätze zuweilen mit dem Vorwurf konfrontiert, dass sie rein strukturalistisch arbeiten. Hinter diesem Vorwurf verberge sich die Vorstellung, dass computationelle Zugänge literarische Texte lediglich auf formalistisch beschreibbare und numerisch zu erfassende Variablen reduzieren. Gius und Jacke gingen diesem Vorwurf nicht nur auf den Grund, sondern diskutierten am konkreten Beispiel von Text-Mining-Methoden auch, wo eine literaturtheoretische Fundierung stärker eingefordert werden könne. Sorgfältig prüften sie, inwiefern der Vorwurf des Strukturalismus und einer damit unterstellten Theorielosigkeit anhand dreier Zusammenhänge begründet werden kann: (1) beim Einsatz von computationellen Methoden für eine freie Exploration von Texten, (2) beim Erkennen relevanter Phänomene in der Analyse, (3) für die Erklärung ausgewählter Muster und Beispiele in der Interpretation. Neben einer Beliebigkeit der Auswahl von Methoden bei der freien Exploration führten sie als methodologische Probleme auch eine begründete Auswahl von Befunden sowie das prekäre Verhältnis von Daten und Interpretation auf. Es wurde jedoch deutlich, dass vermeintliche (theoretische) Defizite von computationellen Zugängen (wie z.B. das ungeklärte Verhältnis von quantitativen Auffälligkeiten und qualitativ verstandener Exemplarität) ebenso den traditionellen Literaturwissenschaften zugeschrieben werden können. Kriterien für Interpretationen werden in den Literaturwissenschaften häufig nicht ausreichend expliziert, sodass auch eine systematische Reflexion zu kurz komme. Die gemeinsame theoretische Auseinandersetzung mit diesen Defiziten obliege nun, so Gius und Jacke abschließend, den traditionellen wie den digitalen Literaturwissenschaften gleichermaßen.

Vom Strukturalismus ging es weiter zu Michel Foucaults Diskursanalyse. An den Anfang seines Vortrags Vom Archiv zum Computer. Foucault und die Digitalen Humanwissenschaften stellte der Medienwissenschaftler Henning Schmidgen (Bauhaus-Universität Weimar) eine Vorhersage des französischen Historikers Emmanuel Le Roy Ladurie aus dem Jahr 1968: »Der zukünftige Historiker wird Programmierer sein, oder er wird nicht sein.« Ein Jahr später antwortete Foucault auf diese Herausforderung mit seinem Werk Archäologie des Wissens, das Schmidgen in seinem Vortrag neu zu lesen versuchte. Seine Kernthesen waren dabei, dass Foucaults archäologische Überlegungen nicht nur die Implikationen der beginnenden automatisierten Informationsverarbeitung reflektieren. Vielmehr adressiere Foucault in seiner Vorgehensweise bereits wesentliche Fragestellungen der DH. Erstens sieht Schmidgen in der von Foucault wiederholt hervorgehobenen Dispersion des Diskurses die Übernahme einer im weitesten Sinne statistischen Perspektive begründet. Entscheidend sei zweitens, dass Foucaults archäologischer Ansatzpunkt gerade Umbrüche in übergreifenden Wahrnehmungsstrukturen zum Gegenstand habe und er in seiner Diskursanalyse auch der Frage nachgehe, wie in der Masse diskursiver Elemente einzelne Entitäten abzugrenzen seien. Drittens könnten Foucaults Überlegungen zur inneren Ordnung des Diskurses zu zeitgenössischen und aktuellen Verfahren der Stilometrie und Indexikalisierung ins Verhältnis gesetzt werden. Eine weitere Parallele zu aktuellen Problemstellungen der DH sei ferner, dass auch Foucault die immanenten Regelmäßigkeiten des Diskurses auf einer oberflächlichen Ebene verorte. Im Epilog entwarf Schmidgen dann ein noch zu erzählendes Theorytelling der DH, das im Sinne von Foucaults Diskursanalyse die »Algorithmen der Algorithmenanalyse« selbst untersucht. Von dieser Erzählung der Theorie, so Schmidgen, sei es aber noch ein weiter Weg in die Praxis der DH.

Während Schmidgen die Implementierung von Foucaults Diskursanalyse erst in einer fernen Zukunft sah, präsentierte die Sozialwissenschaftlerin Ramona Roller (ETH Zürich) in ihrem Vortrag Warum wurde Luther protestantisch? Erklärungsnarrative mit statistischen Modellen entwickeln und zur Theoriebildung nutzen. Vorschläge zur Operationalisierung von Theorieansätzen. Dazu schlug sie zunächst drei heuristische (Forschungs-)Narrative vor: Einem »Gegenwartsnarrativ« folgen Forschungsansätze, die ohne theoretisches Setting auf große Datensätze zugreifen. Dabei seien statistische Zufallseffekte und nicht replizierbare Datensätze prägend; es handele sich, salopp gesprochen, um eine »data piñata«.[3] Davon unterschied Roller ein »Klassiknarrativ« der Theoriebildung, dessen Ausgangspunkt eine Forschungsfrage sei, die bereits an einen theoretischen Ansatz anknüpfe. Es würden dann Hypothesen generiert, die anhand von kleineren Datensätzen falsifiziert werden. Rollers zukünftiges »Sollnarrativ« stellte eine Kombination der beiden genannten Narrative dar. Hierbei werden disziplinäre Theorieansätze berücksichtigt und große Datensätze bearbeitet. In ihrem Vortrag ging Roller sogar noch einen Schritt weiter, indem sie anhand der konkreten Forschungsfrage »Warum wurde Luther protestantisch?« das zuvor skizzierte Sollnarrativ evaluierte. Neben der disziplinären Theorie der Konfessionalisierung präsentierte sie Datensätze, operationalisierende Faktoren und generierte Hypothesen. Mit ihrem Vortrag warf Roller die grundsätzliche Frage auf, wie sich etablierte humanwissenschaftliche Theorien zu computationellen Analysen verhalten. Für sie besteht der Beitrag der DH vor allem in der Weiterentwicklung von bestehenden Theorieansätzen.

***

Die Frage nach dem Status der Theorie in den DH verschiebt den Fokus von den technischen Verfahrensweisen hin zu epistemischen, ästhetischen und disziplinären Implikationen der Digitalität in den Geisteswissenschaften. Auffällig ist insbesondere das heterogene Verständnis von Theorie. Einerseits wird Theoriearbeit als eine Auseinandersetzung mit vorhandenen theoretischen Ansätzen (z.B. Strukturalismus oder Diskursanalyse) verstanden. Andererseits lassen sich wissenschaftstheoretische Reflexionen über die Geisteswissenschaften sowie statistische Modellierungen anschließen. Auf die Frage nach Bedeutung und Relevanz von Theorien in den DH gibt es, wie die Tagung zeigte, viele Antworten und noch mehr erzählwürdige Geschichten. Gerade die mit dem Tagungsthema initiierten Theorytellings deuten nicht nur auf diverse Zugänge und neue Orte der Theoriebildung in den DH hin. Vielmehr erproben solche Theorytellings auch mögliche partizipative Formen. Statt einer großen Erzählung präsentierte die Tagung daher heterogene theoretische Unternehmungen einer (zukünftigen) Theorie im Plural.

 

Die Literaturwissenschaftlerin Rabea Kleymann verfolgt am ZfL ihr Projekt »Kompostierungen. Stoffkreisläufe und Wiederverwertbarkeit in Biologie, Literatur und Technologie«. Sie ist Co-Sprecherin der Arbeitsgruppe »Digital Humanities Theorie« im Verband DHd (Digital Humanities im deutschsprachigen Raum) und Mitherausgeberin der Sonderausgabe »Theorytellings: Epistemic Narratives in the Digital Humanities« des Journal of Cultural Analytics.

 

[1] Chris Anderson: »The End of Theory: The Data Deluge Makes the Scientific Method Obsolete«, in: Wired, 23.6.2008.

[2] Bruno Latour: Die Hoffnung der Pandora. Untersuchungen zur Wirklichkeit der Wissenschaft, Frankfurt a.M. 2002, S. 373.

[3] Simon Lindgren: Data Theory. Interpretive Sociology and Computational Methods, Cambridge u.a. 2020, S. 22.

 

VORGESCHLAGENE ZITIERWEISE: Rabea Kleymann: Über das Erzählwürdige der Theorie in den Digital Humanities, in: ZfL BLOG, 8.2.2021, [https://www.zflprojekte.de/zfl-blog/2021/02/08/rabea-kleymann-ueber-das-erzaehlwuerdige-der-theorie-in-den-digital-humanities/].
DOI: https://doi.org/10.13151/zfl-blog/20210208-01

Print Friendly, PDF & Email