KI in den Geisteswissenschaften – eine Frage der Verantwortung

Künstliche Intelligenz ist längst Teil unseres akademischen Alltags. Immer häufiger schreiben, forschen, unterrichten, organisieren wir auch mit KI – manchmal gezielt, oft beiläufig. Und doch ist unser Umgang mit ihr von Irritationen begleitet: von methodischer Unsicherheit, von ethischen und rechtlichen Fragen, von strukturellen Herausforderungen. In Forschung, Lehre und Studium begegnet KI nicht als abgeschlossene Technologie, sondern als offenes Feld. Sie verändert unsere Praxis – und sie fordert unsere lang etablierten und zu Recht verteidigten Vorstellungen davon heraus, was wissenschaftliche Praxis ist. Dieser Blog will ein Ort sein, an dem wir diese Veränderungen gemeinsam reflektieren – offen, kritisch, disziplinenübergreifend.

Forschung mit KI – neue Zugänge, neue Verantwortung

KI-basierte Technologien wie Retrieval-Augmented Generation (RAG) bergen aus meiner Sicht ein erhebliches Potenzial für geisteswissenschaftliche Forschung – gerade weil sie den Zugriff auf Wissen nicht bloß automatisieren, sondern theoretisch kontrollierbar machen. Anders als bei klassischen generativen Sprachmodellen besteht bei RAG die Möglichkeit, die zugrunde liegende Wissensbasis gezielt zu kuratieren – nach wissenschaftlichen Kriterien, fachlich validiert, transparent nachvollziehbar. Das eröffnet nicht nur neue methodische Spielräume, sondern stärkt auch die epistemische Verantwortung der Forschenden.

Besonders relevant erscheint mir dieser Ansatz für die Analyse großer, heterogener und schwer erschließbarer Quellenbestände: etwa vormoderner Texte in mehreren Sprachen, fragmentarisch edierter Überlieferungen oder diskursübergreifender Korpora. Solche Materialien entziehen sich oft klassischen quantitativen wie hermeneutischen Verfahren – nicht, weil sie unzugänglich wären, sondern weil ihnen eine stabile, strukturierende Oberfläche fehlt. Hier können semantisch-adaptive Modelle neue Wege eröffnen: Sie erlauben es, Fragen an den Text zu stellen, ohne dessen Struktur zuvor vollständig normieren zu müssen – explorativ, dynamisch, anschlussfähig.

In einem Pilotprojekt erprobe ich diese Methode derzeit mit einer interdisziplinären Arbeitsgruppe im Bereich der vormodernen Wissensgeschichte: Wir untersuchen das Konzept des „dämonischen Wissens“ im christlich-lateinischen Mittelalter – ein epistemisch ambivalentes Phänomen, das über Theologie, Recht, Philosophie und Literatur hinweg wirksam ist. Ziel ist es, ein komplexes, weitgehend unerschlossenes Textfeld mithilfe kuratierter semantischer KI systematisch zu kartieren. Im Zentrum steht dabei nicht nur das historische Erkenntnisinteresse, sondern eine methodische Selbstverpflichtung: Wenn KI-Modelle zunehmend an der Analyse und Strukturierung geisteswissenschaftlicher Gegenstände beteiligt sind, dann tragen wir als Forschende Verantwortung für die epistemische Rahmung dieser Prozesse, für die Auswahl der Daten, für die Modellarchitektur und selbstverständlich für die Interpretation der Ergebnisse.

KI darf unsere Fragen nicht ersetzen – sie muss von ihnen geleitet sein. Die Herausforderung liegt nicht allein in der Entwicklung neuer technischer Werkzeuge, sondern in der Etablierung einer forschungsethischen Haltung, die Offenheit mit methodischer Reflexivität verbindet. Gerade hier, an der Schnittstelle von Technik, Hermeneutik und Wissensordnung, beginnt das eigentliche Innovationspotenzial geisteswissenschaftlicher KI-Forschung.

Neue Medien, alte Fragen – Bildung und Lehre mit KI

Die Frage nach den epistemischen Grundlagen unseres Tuns stellt sich nicht nur in der Forschung, sondern ebenso in der Lehre, vielleicht sogar noch unmittelbarer. Denn dort wird am deutlichsten, welche Vorstellungen von Wissen, Verstehen und Bildung implizit wirksam sind. Auch hier eröffnet der Einsatz KI-basierter Systeme neue Möglichkeiten – und verschärft zugleich die alten Fragen. Was bedeutet es, zu lernen? Wodurch wird Urteilskraft ausgebildet? Und wie können digitale Verfahren dabei unterstützen, ohne den Bildungsbegriff selbst zu verengen?

Als Mediävistin blicke ich auf diese Entwicklungen aus einer wissens- und mediengeschichtlichen Perspektive. Universitäten und die Bildungsinstitutionen, die ihnen vorangegangen sind, waren nie bloß Orte der Wissensvermittlung. Sie waren Räume, in denen die Ordnungen des Wissens selbst zur Disposition standen: in Diskursen, in Kontroversen und im forschenden Denken. Die verschiedenen Etappen im Medienwandel – vom mündlichen Lehrgespräch zum geschriebenen Buch, vom Manuskript zum Buchdruck, von der Enzyklopädie zur Plattform – haben diese Praktiken nie obsolet werden lassen, sondern stets herausgefordert und erweitert.

Das gilt auch für die aktuelle Medienrevolution. KI-Systeme versprechen Effizienz, Zugänglichkeit und Automatisierung, und dabei bergen sie die Gefahr, Komplexität zu reduzieren, Differenz zu glätten und Urteilskraft zu externalisieren. Bildungsprozesse lassen sich nur wenig normieren und schon gar nicht automatisieren. Freiheit im Denken entsteht nicht durch optimierte Lernpfade, sondern durch Konfrontation mit dem Unvertrauten, durch kritische Reibung an Widersprüchen, an fremden Perspektiven und offenen Fragen.

Gerade deshalb liegt in KI-gestützten Lehrformaten ein ambivalentes Potenzial: Sie können Lernprozesse normieren – oder sie individuell ermöglichen. Projekte wie Tutor.AI erproben letzteres: Mit wissenschaftlich kuratierter Datenbasis angereicherte Sprachmodelle begleiten Studierende niedrigschwellig – nicht als Ersatz für Lehre, sondern als Einladung zur eigenständigen Aneignung. Solche Formate können helfen, Präsenzlehre wieder stärker zum Ort gemeinsamen Forschens und Denkens zu machen – insbesondere in heterogenen Lerngruppen, in denen Bildungsbiografien, Zugänge und Voraussetzungen zunehmend divergieren.

Doch auch hier gilt: Es sind nicht die Tools, die darüber entscheiden, was Bildung ist – sondern die Art, wie wir sie konzipieren, integrieren und zum Gegenstand gemeinsamer Reflexion machen. Während Systeme wie Tutor.AI auf die Ermöglichung individueller Aneignung zielen, setzen andere Anwendungen – etwa automatisierte Feedback-Tools wie FelloFish, die zunehmend Verbreitung in allen Schulformen finden – auf standardisierte Rückmeldeschleifen, die weniger zur Entwicklung eigener Denk- und Ausdrucksformen beitragen, als vielmehr das Schreiben und Denken von Lernenden in vorgegebene Muster lenken. Gerade in der Lehrer:innenbildung ist es daher unser Anliegen, durch solche Projekte wie Tutor.AI nicht nur digitale Unterstützung bereitzustellen, sondern auch eine kritisch-reflektierte Haltung gegenüber KI-Systemen zu fördern. AI Literacy meint hier nicht nur Anwendungskompetenz, sondern Urteilsfähigkeit – im Hinblick auf das, was pädagogisch sinnvoll, didaktisch verantwortbar und bildungstheoretisch begründbar ist.

Gemeinsam lernen – in und aus den Geisteswissenschaften

Die Philologien und Geisteswissenschaften verfügen über eine besondere Expertise im Umgang mit Sprache, Text, Interpretation – und mit kulturellen Formen des Wissens. In einer Situation, in der Künstliche Intelligenz zunehmend an der Produktion, Strukturierung und Bewertung von Wissen beteiligt ist, sind genau diese Kompetenzen mehr denn je gefordert: die Sensibilität für Ambiguitäten, für historische Kontextualisierungen, für die Unterscheidung zwischen Text und Bedeutung, zwischen Information und Erkenntnis.

AI Literacy heißt in unseren Fächern nicht nur, neue Werkzeuge zu beherrschen, sondern sich mit alten Fragen neu auseinanderzusetzen. Was heißt es, zu verstehen? Wer spricht mit welchem Anspruch? Wie entsteht Bedeutung – und wie lässt sie sich vermitteln, transformieren, reflektieren und kritisieren?

Als Fachbereich sind wir gefordert, diese Fragen nicht nur auf technologische Entwicklungen zu beziehen, sondern aus der Mitte unserer disziplinären Praxis heraus zu stellen. Die Initiative „AI Literacy im Fachbereich Philologie“ will dazu einen Rahmen schaffen, möglichst offen, strukturiert und diskursiv. Dieser Blog ist eines der Foren dafür: ein Raum, in dem Perspektiven, Erfahrungen, Fragen und Impulse gesammelt, geteilt und weitergedacht werden können. Er soll den analogen Austausch nicht ersetzen, sondern vorbereiten, begleiten und forcieren.

Ich lade Sie herzlich ein, diesen Raum mitzugestalten – mit Ihrer Stimme, Ihren Fragen und Ihrem Wissen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert