Panel 3

Information – Daten – Wissen: Wie Unterscheiden sich menschliche und künstliche Intelligenz? (auf deutsch)

Moderation: Dennis Möbus (Hagen)

10:00–10:40 Uhr
Almut Leh (Hagen): „Die Antwort ist 42“ – Wenn Algorithmen das digitale Gedächtnis übernehmen. Erfahrungen mit künstlicher Intelligenz im Archiv „Deutsches Gedächtnis“

Almut Leh wird aus der Digitalisierungsarbeit der ersten deutschen Oral History-Erzeugnisse berichten. Das Archiv Deutsches Gedächtnis umfasst etwa 3000 Audio- und Videointerviews. Mit Leben und Sozialkultur im Ruhrgebiet (LUSIR) entstand ab 1980 die Pionierarbeit der deutschen Oral History mit ca. 350 Zeitzeugeninterviews, die eine Zeitspanne vom Kaiserreich bis in die 1980er Jahre abdecken. Seit einigen Jahren arbeitet das Archiv Deutsches Gedächtnis mit Partnern aus dem E-Learning und der IT an einem digitalen Archiv. 

Die vom Zentrum für digitale Systeme der Freien Universität Berlin (CeDiS) mitentwickelte Onlineplattform soll ebenso vorgestellt werden, wie die State of the Art-Spracherkennung des Fraunhofer IAIS, die zur automatischen Verschriftlichung der Interviewkassetten eingesetzt wird.

Dr. Almut Leh ist Historikerin. Seit 1994 ist sie wissenschaftliche Mitarbeiterin am Institut für Geschichte und Biographie an der FernUniversität in Hagen und Leiterin des Archivs „Deutsches Gedächtnis“. Ihr Arbeits- und Forschungsgebiet ist die historische Biographieforschung (Oral History) mit Arbeiten (Publikationen, Filme und Computerinstallationen) zu Gewerkschafterinnen, Soldaten im Zweiten Weltkrieg, Wehrmachtsjustiz, Zwangsarbeit, Kriegskindern, der Neuapostolischen Kirche und Universitätsgeschichte. Publikationen und Projektberatung zu forschungsethischen und methodischen Fragen der Oral History und der Archivierung lebensgeschichtlicher Interviews.

10:40–11:20 Uhr
Felix Engel (Hagen): Digitale Methoden zur inhaltlichen Erschließung von Zeitzeugeninterviews 

Perspektivische Entwicklungen des im vorangehenden Vortrag vorgestellten Onlinearchivs zielen insbesondere auf Erschließungstechnologien, um die unstrukturierten Interviews inhaltlich aufzuschlüsseln und für die Recherche zugänglicher zu machen. Eine zentrale Methode ist die Named Entity Recognition, um Personen, Orte und Ereignisse automatisiert aus den Transkripten herauszufiltern. Dazu kommen Verfahren der KI – hier synonym für Machine Learning stehend – zum Einsatz. 

Felix Engel plant auf den Beständen des Archivs Deutsches Gedächtnis entsprechende Algorithmen aufzusetzen und wird über Möglichkeiten und Grenzen der Named Entity Recognition für diese Datenbestände berichten. Besonderes Augenmerk gilt der Vermittlung des maschinellen ‚Lernens’: Was bedeutet Lernen, was bedeutet das computergestützte Lernen und wo unterscheidet es sich vom menschlichen Lernen?

Felix Engel ist seit 2015 promovierter Informatiker und arbeitet an der FernUniversität in Hagen am Lehrstuhl für Multimedia und Internetanwendungen. Er hat an verschiedenen nationalen und internationalen Projekten im Bereich der digitalen Archivierung mitgewirkt. Seit 2017 arbeitet er an der Überarbeitung von mit dem Consultative Committee for Space Data Systems (CCSDS) verbundenen ISO-Standards, wie dem Open Archival Information System ISO (OAIS) und neuen Standards, wie dem Open Archival Information System Interoperability.

11:20–12:00 Uhr
Tobias Hodel (Bern): Die Maschine verstehen? Ansätze zum geisteswissenschaftlichen Umgang mit der Black Box 

Ausgehend von den auf diesem Panel präsentierten Ergebnissen und den aufgeworfenen Fragen, wird Tobias Hodel epistemologische und methodische Überlegungen aus Sicht eines Historikers und Digital Humanist zur Diskussion stellen. So können Fehler und Ungereimtheiten in den Ergebnissen Hinweise auf Schwachstellen der verwendeten Verfahren zwar in der Regel aufzeigen, im Sinne einer erweiterten Quellen- und Methodenkritik gilt es jedoch, die Algorithmen ins Visier und ernst zu nehmen, um Einblicke in die scheinbare Black Box zu erlangen. 

Anhand von Beispielen der automatisierten Handschriftenerkennung, Named Entity Recognition und Topic Modeling-Anwendungen auf große Textkorpora, können Potential aber auch Probleme von Deep Learning aufgezeigt werden. Dies führt uns zurück zu epistemologischen Fragen der Kulturwissenschaften, indem zum Abschluss des Panels Möglichkeiten zum Verständnis und sinnvollen Einsatz der Technologie ausgearbeitet werden sollen.

Tobias Hodel hat in mittelalterlicher Geschichte promoviert und ist Assistenzprofessor für Digital Humanities an der Universität Bern. Er arbeitet derzeit an Deep-Learning-Ansätzen in den Geisteswissenschaften mit dem Schwerpunkt Textual Studies.Framework (OAIS-IF).