Tag 2 [Donnerstag, 04.03.2021]

Trenner

PANEL 3: INFORMATION – DATEN – WISSEN: WIE UNTERSCHEIDEN SICH MENSCHLICHE UND KÜNSTLICHE INTELLIGENZ? (auf deutsch)
Moderation: Dennis Möbus (Hagen)

10:00–10:40 Uhr
Almut Leh (Hagen): „Die Antwort ist 42“ – Wenn Algorithmen das digitale Gedächtnis übernehmen. Erfahrungen mit künstlicher Intelligenz im Archiv „Deutsches Gedächtnis“

Almut Leh wird aus der Digitalisierungsarbeit der ersten deutschen Oral History-Erzeugnisse berichten. Das Archiv Deutsches Gedächtnis umfasst etwa 3000 Audio- und Videointerviews. Mit Leben und Sozialkultur im Ruhrgebiet (LUSIR) entstand ab 1980 die Pionierarbeit der deutschen Oral History mit ca. 350 Zeitzeugeninterviews, die eine Zeitspanne vom Kaiserreich bis in die 1980er Jahre abdecken. Seit einigen Jahren arbeitet das Archiv Deutsches Gedächtnis mit Partnern aus dem E-Learning und der IT an einem digitalen Archiv. 

Die vom Zentrum für digitale Systeme der Freien Universität Berlin (CeDiS) mitentwickelte Onlineplattform soll ebenso vorgestellt werden, wie die State of the Art-Spracherkennung des Fraunhofer IAIS, die zur automatischen Verschriftlichung der Interviewkassetten eingesetzt wird.

Dr. Almut Leh ist Historikerin. Seit 1994 ist sie wissenschaftliche Mitarbeiterin am Institut für Geschichte und Biographie an der FernUniversität in Hagen und Leiterin des Archivs „Deutsches Gedächtnis“. Ihr Arbeits- und Forschungsgebiet ist die historische Biographieforschung (Oral History) mit Arbeiten (Publikationen, Filme und Computerinstallationen) zu Gewerkschafterinnen, Soldaten im Zweiten Weltkrieg, Wehrmachtsjustiz, Zwangsarbeit, Kriegskindern, der Neuapostolischen Kirche und Universitätsgeschichte. Publikationen und Projektberatung zu forschungsethischen und methodischen Fragen der Oral History und der Archivierung lebensgeschichtlicher Interviews.

10:40–11:20 Uhr
Felix Engel (Hagen): Digitale Methoden zur inhaltlichen Erschließung von Zeitzeugeninterviews 

Perspektivische Entwicklungen des im vorangehenden Vortrag vorgestellten Onlinearchivs zielen insbesondere auf Erschließungstechnologien, um die unstrukturierten Interviews inhaltlich aufzuschlüsseln und für die Recherche zugänglicher zu machen. Eine zentrale Methode ist die Named Entity Recognition, um Personen, Orte und Ereignisse automatisiert aus den Transkripten herauszufiltern. Dazu kommen Verfahren der KI – hier synonym für Machine Learning stehend – zum Einsatz. 

Felix Engel plant auf den Beständen des Archivs Deutsches Gedächtnis entsprechende Algorithmen aufzusetzen und wird über Möglichkeiten und Grenzen der Named Entity Recognition für diese Datenbestände berichten. Besonderes Augenmerk gilt der Vermittlung des maschinellen ‚Lernens’: Was bedeutet Lernen, was bedeutet das computergestützte Lernen und wo unterscheidet es sich vom menschlichen Lernen?

Felix Engel ist seit 2015 promovierter Informatiker und arbeitet an der FernUniversität in Hagen am Lehrstuhl für Multimedia und Internetanwendungen. Er hat an verschiedenen nationalen und internationalen Projekten im Bereich der digitalen Archivierung mitgewirkt. Seit 2017 arbeitet er an der Überarbeitung von mit dem Consultative Committee for Space Data Systems (CCSDS) verbundenen ISO-Standards, wie dem Open Archival Information System ISO (OAIS) und neuen Standards, wie dem Open Archival Information System Interoperability.

11:20–12:00 Uhr
Tobias Hodel (Bern): Die Maschine verstehen? Ansätze zum geisteswissenschaftlichen Umgang mit der Black Box 

Ausgehend von den auf diesem Panel präsentierten Ergebnissen und den aufgeworfenen Fragen, wird Tobias Hodel epistemologische und methodische Überlegungen aus Sicht eines Historikers und Digital Humanist zur Diskussion stellen. So können Fehler und Ungereimtheiten in den Ergebnissen Hinweise auf Schwachstellen der verwendeten Verfahren zwar in der Regel aufzeigen, im Sinne einer erweiterten Quellen- und Methodenkritik gilt es jedoch, die Algorithmen ins Visier und ernst zu nehmen, um Einblicke in die scheinbare Black Box zu erlangen. 

Anhand von Beispielen der automatisierten Handschriftenerkennung, Named Entity Recognition und Topic Modeling-Anwendungen auf große Textkorpora, können Potential aber auch Probleme von Deep Learning aufgezeigt werden. Dies führt uns zurück zu epistemologischen Fragen der Kulturwissenschaften, indem zum Abschluss des Panels Möglichkeiten zum Verständnis und sinnvollen Einsatz der Technologie ausgearbeitet werden sollen.

Tobias Hodel hat in mittelalterlicher Geschichte promoviert und ist Assistenzprofessor für Digital Humanities an der Universität Bern. Er arbeitet derzeit an Deep-Learning-Ansätzen in den Geisteswissenschaften mit dem Schwerpunkt Textual Studies.Framework (OAIS-IF).

Trenner

PANEL 4: PRODUCING KNOWLEDGE WITH/ABOUT MACHINES (auf englisch)
Moderation: Paula Helm (Tübingen)

[Es] steht im Raum, ob der Einsatz von AR im Bildungsbereich […] den seit längerem stattfindenden Paradigmenwechsel in der Lehr-/Lerntheorie vom enzyklopädischen Faktenwissen hin zur Vermittlung von Kompetenzen und Soft Skills noch unterstützen kann.

14:00–14:40 Uhr
Wulf Loh (Tübingen): Lernen mit und von Augmented Reality. Ein Wandel im Wissenserwerb? 

In jüngerer Zeit legen Pädagogik und Psychologie einen verstärkten Fokus auf Anwendungen der Augmented Reality (AR), da damit das „Versprechen verbunden ist, direkte, automatische und umsetzbare Verbindungen zwischen der physischen Welt und elektronischen Informationen zu schaffen“ (Schmalstieg/Hollerer 2016). Hiervon versprechen sich viele eine Herabsenkung der kognitiven Belastung und damit insgesamt eine Steigerung der Lernleistung. In diesem Vortrag interessiert mich jedoch vor allem, ob und wie sich durch den Einsatz von AR die Art des erworbenen Wissens verändert und welche möglichen Auswirkungen dies haben könnte. 

Ausgehend von der langjährigen erkenntnistheoretischen Debatte über die Unterschiede zwischen Knowledge-How (KH) und Knowledge-That (KT), untersucht der Vortrag verschiedene Möglichkeiten, wie AR-Umgebungen das Lernverständnis und die Art des aufgenommenen Wissens durch Visualisierungen, Trial-and-Error-Lernen sowie Gamification-Elemente verändern. Infolgedessen steht im Raum, ob der Einsatz von AR im Bildungsbereich zu einer Verschiebung des Wissenserwerbs von Faktenwissen zu Kompetenzen beitragen und damit den seit längerem stattfindenden Paradigmenwechsel in der Lehr-/Lerntheorie vom enzyklopädischen Faktenwissen hin zur Vermittlung von Kompetenzen und Soft Skills noch unterstützen kann.

Wulf Loh ist PostDoc-Forscher (Akad. Rat) am Int. Zentrum für Ethik in den Wissenschaften (IZEW) an der Universität Tübingen. Er ist als Berater für verschiedene Technologieentwicklungsprojekte tätig, wo er die Abschätzung der ethischen und sozialen Implikationen (ELSI) leitet. Seine Forschungsgebiete umfassen Technikphilosophie (Medienethik, Privatsphäre und digitale Öffentlichkeiten, Ethik der KI, Roboterethik), Sozialphilosophie (Sozialontologie, Praxistheorie, Kritische Theorie), politische Philosophie (Legitimität, Demokratie und Öffentlichkeiten, globaler Konstitutionalismus) und Rechtsphilosophie (Philosophie des Internationalen Rechts). 

Wer als Urheber bestimmter Daten oder Inhalte wie agiert, ist nicht mehr unbedingt ersichtlich oder nachvollziehbar.

14:40–15:20 Uhr
Katharina Kinder-Kurlanda (Klagenfurt): Kollaborationen zwischen Menschen und Maschinen in der Produktion von Wissen 

In verschiedensten akademischen Disziplinen wird vermehrt mit neuen Datenquellen gearbeitet, wie etwa mit Social-Media-Inhalten oder mit Datenspuren, die durch den Gebrauch von Internet-of-Things-Technologien erzeugt wurden. In der Analyse dieser Daten kommen neue Forschungsmethoden der Data Science und des Machine Learning zum Einsatz, wie sie auch vielfach etwa auf Social-Media-Plattformen verwendet werden, um Nutzerverhalten zu analysieren, Trends zu spiegeln oder gar vorherzusagen. Neue Arten der Wissensproduktion entstehen dabei aus komplexen Kollaborationen menschlicher und nicht menschlicher Akteure. Die hier gemeinte Forschung ist eingebettet in ein Netzwerk aus Verbindungen zwischen den veränderlichen Affordanzen (kommerzieller), mehr oder weniger automatisierter und algorithmisch kuratierter Internet-Plattformen; den Werkzeugen von Drittanbietern, die Datenerfassung, -aufbereitung und -analyse unterstützen; verschiedenen Daten-Formaten; Forschungsinstitutionen und -infrastrukturen; bis hin zu den von Forschungsgemeinschaften selbst bereitgestellten Tools und Plattformen. Wer als Urheber bestimmter Daten oder Inhalte wie agiert ist nicht mehr unbedingt ersichtlich oder nachvollziehbar. Eine traditionelle Quellenkritik etwa stieße schnell an ihre Grenzen. 

Im Vortrag sollen die neuen Kollaborationen zwischen menschlichen und nicht-menschlichen Akteuren in der Erzeugung von Wissen beleuchtet werden. Dabei steht auch im Vordergrund, wie diese Kollaborationen sowohl global vernetzt als auch lokal verankert sind. 

Katharina Kinder-Kurlanda ist Professorin für Humanwissenschaft des Digitalen am Digital Age Research Center (D!ARC) der Alpen-Adria-Universität Klagenfurt in Österreich. Sie arbeitet interdisziplinär an der Schnittstelle von Sozialwissenschaften und Informatik. Ihre Forschungsinteressen sind neue epistemologische Konzepte für Social Media und Big Data; Datenethik; Privacy, Datenschutz & Security; Algorithmen; Casual Games und das Internet der Dinge. Derzeit untersucht sie am Center for Advanced Internet Studies (CAIS) Selbstverständnisse von Nutzer*innen im Hinblick auf den Einsatz neuer Methoden der Data Science. Im NoBIAS-Projekt steht Machine Learning als spezielle Ausprägung der Künstlichen Intelligenz (KI) im Vordergrund und es werden Entstehungsmechanismen für algorithmische Diskriminierung erforscht. 

Aus der Erfahrung […] wird jedoch immer deutlicher, dass die Konzentration auf rein statistische und numerische Aspekte bei der Datenanalyse weder soziale Nuancen erfasst noch ethische Kriterien berücksichtigt.

15:20–16:00 Uhr
Claudia Müller-Birn (Berlin): Von den Herausforderungen und Möglichkeiten der Mensch-Maschine-Zusammenarbeit 

In den letzten Jahren hat sich der Bereich der datengestützten Entscheidungsunterstützung aufgrund bedeutender Fortschritte auf dem Gebiet des maschinellen Lernens rasch entwickelt. Diese Entwicklung hat neue Möglichkeiten in einer Vielzahl von sozialen, wissenschaftlichen und technologischen Bereichen eröffnet. Aus der Erfahrung, insbesondere im sozialen Bereich, wird jedoch immer deutlicher, dass die Konzentration auf rein statistische und numerische Aspekte bei der Datenanalyse weder soziale Nuancen erfasst noch ethische Kriterien berücksichtigt. Eine weit verbreitete Annahme ist, dass datenbasierte Softwaresysteme Menschen in ihren Entscheidungsprozessen ersetzen können. Häufig wird die Einführung von Software als „Substitutionsproblem“ verstanden. In einem festen menschlichen Arbeitsablauf werden bestimmte Aufgaben durch einen Algorithmus ersetzt, was u.a. zu weniger Arbeit, weniger Fehlern und höherer Genauigkeit führt. Es müssen jedoch zwei Herausforderungen berücksichtigt werden: Technologien sind nicht wertneutral. Das Delegieren ehemals manueller Aufgaben an Software (oder umgekehrt) führt zu erheblichen Verschiebungen der sozialen Praktiken und Verantwortlichkeiten.

Daher plädiere ich in diesem Vortrag für einen alternativen Ansatz beim Entwurf von Softwaresystemen. Durch den Einsatz partizipativer Methoden sollten bestehende Interdependenzen kollaborativer Mensch-Maschine-Aktivitäten offengelegt werden. Die mit diesen Methoden gewonnenen Erkenntnisse können die quantitativen Ergebnisse des maschinellen Lernens durch qualitative Daten ergänzen. Darüber hinaus sollte das Entscheidungsmodell des genutzten Algorithmus transparent kommuniziert und interaktiv von Menschen erforscht werden können. 

Claudia Müller Birn ist Professorin für Human-Centered Computing am Institut für Informatik der Freien Universität Berlin. Mit ihrem interdisziplinären Team forscht sie in den Bereichen Collaborative Computing und Mensch-Computer-Interaktion. Der Schwerpunkt liegt dabei auf Interaktiven Intelligenten Systemen, d.h. auf der Gestaltung partizipativer und nachhaltiger Technologien, die eine Mensch-Maschine-Kooperation ermöglichen. Ihre aktuelle Forschung konzentriert sich auf maschinelles Lernen, Privatsphäre und Konversationsschnittstellen. Ihre theoriegetriebene Forschung umfasst sowohl eine empirische als auch eine ingenieurwissenschaftliche Dimension.

16:30 UHR
KEYNOTE II (auf englisch)
Moderation: Paula Helm (Tübingen)

Immer häufiger kommt es zu Szenarien, in denen Mensch-Maschine-Interaktionen, die scheinbar zugunsten der maschinellen Entscheidungsfindung voreingenommen sind, die Souveränität der Bürger zu gefährden scheinen.

Stefania Milan (Amsterdam): Die Handlungsfähigkeit in Mensch-Maschine-Interaktionen zurückgewinnen 

Angesichts der atemberaubenden Fortschritte auf dem Gebiet der Künstlichen Intelligenz (KI) nehmen Bedenken über die Auswirkungen von KI auf Bürgerrechte und demokratische Teilhabe in der Bevölkerung zu. Immer häufiger kommt es zu Szenarien, in denen Mensch-Maschine-Interaktionen, die voreingenommen sind und zugunsten der maschinellen Entscheidungsfindung erfolgen, die Souveränität der Bürger zu gefährden scheinen. Beispiele hierfür sind Predictive Policing, invasive Smart-City-Technologien und der Einsatz von KI zur Eindämmung globaler Virenausbrüche – wie etwa gesichtserkennungsfähige Wärmebildkameras, die während der COVID-19-Pandemie den Zugang zum öffentlichen Raum kontrollierten. Diese Technologien werden häufig ohne öffentliche Debatte, demokratische Kontrolle und angemessene Regulierung eingeführt und setzen die Bürger dem serienmäßigen Missbrauch aus. Mehr noch: Einmal in Krisenzeiten eingeführt, wird ihre Präsenz selten in Frage gestellt. 

Aus der Perspektive von Critical Software Studies und politischer Soziologie untersucht dieser Vortrag, wie die Ausbreitung intelligenter Systeme die Ausübung und Wahrnehmung politischer Handlungsfähigkeit verändert. Besonderes Augenmerk gilt der Arbeit von Basisgruppen und aktivistischen Initiativen in ihren Bemühungen, alternative Datenepistemologien und algorithmische Gegenbilder zu entwickeln, um die Bedrohungen unseres komplexen digitalen Ökosystems für Laien zu ‚übersetzen’ und eine informierte öffentliche Debatte anzuregen.

Stefania Milan ist Associate Professor für Neue Medien und Digitale Kultur an der Universität Amsterdam. Ihre Arbeit erforscht das Zusammenspiel von digitaler Technologie, Aktivismus und Governance.  Sie ist Principal Investigator von DATACTIVE und „Citizenship and standard-setting in digital networks“, die vom Europäischen Forschungsrat bzw. dem Niederländischen Forschungsrat finanziert werden.