TRR 318 - Erklärbarkeit konstruieren

Project Period: 2021-07-01 – 2025-06-30
Externally Funded
Alternative Name
TRR 318 - Constructing Explainability
Acronym
TRR 318
Principal Investigator
Suzana Alpsancar, Heike M. Buhl, Angela Grimminger, Ilona Horwath, Reinhold Häb-Umbach, Tobias Matzner, Axel-Cyrille Ngonga Ngomo, Katharina Rohlfing, Ingrid Scharlau, Carsten Schulte, Kirsten Thommes, Hendrik Buschmeier, Philipp Cimiano, Hanna Drimalla, Elena Esposito, Barbara Hammer, Eyke Hüllermeier, Friederike Kern, Stefan Kopp, Anna-Lisa Vollmer, Henning Wachsmuth, Petra Wagner, Britta Wrede
Member
Stefan Heindorf, Leonie Nora Sieger
Department(s)
Nachrichtentechnik (NT) / Heinz Nixdorf Institut
Datenbank- und Informationssysteme
Didaktik der Informatik (DDI)
Institut für Germanistik und Vergleichende Literaturwissenschaft -> Germanistische und Allgemeine Sprachwissenschaft
Technische Mechanik
Organizational Behavior
Kognitive Psychologie und Psychologiedidaktik
Pädagogische Psychologie und Entwicklungspsychologie
Data Science
Psycholinguistik (Rohlfing)
Angewandte Ethik mit Schwerpunkt Technikethik in der digitalen Welt
Kulturen der Digitalität
Description

In unserer digitalen Gesellschaft nehmen die algorithmischen Ansätze (wie das maschinelle Lernen) rasant an Komplexität zu. Diese erschwert es den Bürger:innen, die Assistenz nachzuvollziehen und die von Algorithmen vorgeschlagenen Entscheidungen zu akzeptieren. Als Antwort auf diese gesellschaftliche Herausforderung hat die Forschung begonnen, selbsterklärende Algorithmen zu entwickeln, die darauf abzielen, Erklärungen auf intelligente Weise bereitzustellen (XAI). Obwohl solche KI-Systeme, Menschen Erklärungen vermitteln können, ist ihre Interaktion stark eingeschränkt, da sie auf der (impliziten) Vorstellung aufbauen, Erklärungen würden ‚geliefert‘, d.h. Informationen nur bereitgestellt. Das Risiko eines solchen Paradigmas besteht darin, Erklärungen zu erzeugen, die nicht auf das Verständnis der Empfänger zugeschnitten sind—geschweige denn auf ihre Informationsbedürfnisse oder den gegebenen Kontext.Mit dem interdisziplinären Sonderforschungsbereich (TRR) stellen wir diese reduktionistische Sichtweise infrage und schlagen ein neues Paradigma der Ko-Konstruktion einer Erklärung vor, das zu neuartigen Formen der Interaktion mit Maschinen beitragen wird: Darin nimmt der Mensch aktiv an Erklärpraktiken teil, indem er das Ziel und den Prozess mitgestaltet. Unser Ansatz fördert die aktive Teilnahme der Menschen an soziotechnischen Systemen und erhöht so ihre Informationssouveränität. Da ein solcher innovativer Paradigmenwechsel einen interdisziplinären Ansatz erfordert, bringt unser vorgeschlagener TRR Linguist:innen, Psycholog:innen, Medienforscher:innen, Soziolog:innen, Ökonomen und Informatiker:innen zusammen, die davon überzeugt sind, dass die Erforschung der Mechanismen von Erklärbarkeit und Erklärungen das menschliche Verständnis in den Mittelpunkt stellen und dieses als Produkt einer kontextualisierten multimodalen Ko-Konstruktion betrachten muss.In unserem Ansatz werden wir den Erklärungsprozess als eine Interaktion modellieren, die sich im Verlauf der Zeit entfaltet und die Konstruktion des Erklärungsansatzes vorantreibt. Daher werden wir das Explanandum als dynamisches Produkt der Interaktion untersuchen. Dieser Ansatz wird die aktuelle Forschung (in der Informatik) erweitern und neue Antworten auf die oben genannte gesellschaftliche Herausforderung geben, indem er einen Beitrag leistet zur Entwicklung von: (i) einem multidisziplinären Verständnis vom Erklärungsprozess in enger Kopplung mit dem Prozess des Verstehens und den ihn modulierenden Kontextfaktoren, (ii) Computermodellen und komplexen KI-Systemen, die ihre Erklärung effizient für den Partner in einem aktuellen Kontext generieren, und (iii) einer Theorie der Erklärungen als soziale Praktiken, die die Erwartungen der Partner und ihre Rollen im kommunikativen Handeln berücksichtigt. Unsere Forschung wird die Grundlagen für erklärbare und verstehbaren KI-Systeme legen, die es den Bürger:innen eine aktive und kritische Teilnahme an einer digitalen Gesellschaft ermöglichen.


DFG-Verfahren Transregios


Laufende Projekte


A01 - Adaptive Erklärungsgenerierung (Teilprojektleiterinnen / Teilprojektleiter Buhl, Heike M.Kopp, StefanRohlfing, Katharina)


A02 - Das Verständnis von Erklärungen überprüfen und beobachten (Teilprojektleiterinnen / Teilprojektleiter Buschmeier, HendrikGrimminger, AngelaWagner, Petra)


A03 - Ko-Konstruktion von Erklärungen mit emotionaler Ausrichtung zwischen KI-Erklärer und menschlichem Adressaten (Teilprojektleiterinnen Thommes, KirstenWrede, Britta)


A04 - Integration des technischen Modells in das Partnermodell bei der Erklärung von digitalen Artefakten (Teilprojektleiterinnen / Teilprojektleiter Buhl, Heike M.Kern, FriederikeSchulte, Carsten)


A05 - Kontextualisierte und online Parametrisierung der Aufmerksamkeit im Mensch-Roboter-Erklärdialog (Teilprojektleiterinnen Rohlfing, KatharinaScharlau, IngridWrede, Britta)


A06 - Ko-Konstruktion sozialer Signale des Verstehens für Inklusives Monitoring (Teilprojektleiterin Drimalla, Hanna)


B01 - Ein dialogbasierter Ansatz zur Erklärung von Modellen des maschinellen Lernen (Teilprojektleiterinnen / Teilprojektleiter Cimiano, PhilippEsposito, ElenaNgonga Ngomo, Axel-Cyrille)


B03 - Erkundung von Benutzern, Rollen und Erklärungen in realen Kontexten (Teilprojektleiterinnen / Teilprojektleiter Horwath, IlonaMatzner, Tobias)


B05 - Ko-Konstruktion von Erklärbarkeit mit einem interaktiv lernenden Roboter (Teilprojektleiterin Vollmer, Anna-Lisa)


B06 - Ethik und Normativität der erklärbaren KI (Teilprojektleiterinnen / Teilprojektleiter Alpsancar, Suzana; Matzner, Tobias)


C01 - Gesundes Misstrauen in Erklärungen (Teilprojektleiterinnen Hammer, BarbaraScharlau, Ingrid)


C02 - Interaktives Lernen von erklärbaren, situationsangepassten Entscheidungsmodellen (Teilprojektleiterinnen / Teilprojektleiter Hüllermeier, EykeThommes, Kirsten)


C03 - Interpretierbares maschinelles Lernen: Veränderung erklären (Teilprojektleiterinnen / Teilprojektleiter Hammer, BarbaraHüllermeier, Eyke)


C04 - Metaphern als Mittel der Erklärung (Teilprojektleiterinnen / Teilprojektleiter Scharlau, IngridWachsmuth, Henning)


C05 - Erstellen von Erklärungen in der kollaborativen Mensch-Maschine-Wissensexploration (Teilprojektleiter Cimiano, PhilippKopp, Stefan)


C06 - Technisch ermöglichtes Erklären von Sprecher-Eigenschaften (Teilprojektleiterinnen / Teilprojektleiter Häb-Umbach, ReinholdWagner, Petra)


INF - Bewertung der Erklärungsqualität (Teilprojektleiter Cimiano, PhilippWachsmuth, Henning)


MGK - Integriertes Graduiertenkolleg (Teilprojektleiterin Scharlau, Ingrid)


Z - Verwaltungsprojekt (Teilprojektleiterin Rohlfing, Katharina)


Ö - Fragen zur erklärbaren Technik (Teilprojektleiterinnen / Teilprojektleiter Horwath, IlonaSchulte, CarstenWrede, Britta)


Antragstellende Institution Universität Paderborn


Mitantragstellende Institution Universität Bielefeld


Beteiligte Hochschule Ludwig-Maximilians-Universität München


Sprecherin Professorin Dr. Katharina Rohlfing



Der von der DFG zum 01. Juli 2021 an den Universitäten Bielefeld und Paderborn neu eingerichtete Sonderforschungsbereich/Transregio „Constructing Explainability“ (TRR 318) beschäftigt sich mit der Fragestellung, wie Transparenz von algorithmischen Entscheidungen, insbesondere durch Black-Box Verfahren der modernen Künstlichen Intelligenz, hergestellt werden kann. Die zentrale Hypothese des TRR 318 ist, dass Erklärungen am effektivsten sind, wenn sie von Erklärer:in und Erklärungsempfänger:in gemeinsam ko-konstruiert werden. Die Mechanismen dieser Ko-Konstruktion werden in einem interdisziplinären Konsortium untersucht, um die Grundlagen für neue Paradigmen der Erklärungen in Mensch-Maschine-Interaktion zu schaffen und damit Menschen zur souveränen und informierten Entscheidungsfindung in Interaktion mit intelligenten Systemen zu befähigen. Der TRR ist in drei Bereiche gegliedert: A "Explaining", B "Social practice", C "Representing and computing explanations". Die Bereiche wiederum gliedern sich in interdisziplinäre Teilprojekte, an denen insgesamt 21 Projektleiter:innen aus der Linguistik, Psychologie, Medienwissenschaft, Soziologie, Wirtschaftswissenschaft und Informatik der Universitäten Bielefeld und Paderborn beteiligt sind.


Funding program


Deutsche Forschungsgemeinschaft (DFG, German Research Foundation): TRR 318/1 2021 – 438445824

Grant Number
Funding Organisation
Deutsche Forschungsgemeinschaft
Cooperator
Ludwig-Maximilians-Universität München
Universität Bielefeld

11 Publications

2023 | Journal Article | LibreCat-ID: 48603
Technology and Civic Virtue
W. Reijers, Philosophy & Technology 36 (2023).
LibreCat | DOI
 
2021 | Journal Article | LibreCat-ID: 24456 | OA
Explanation as a Social Practice: Toward a Conceptual Framework for the Social Design of AI Systems
K.J. Rohlfing, P. Cimiano, I. Scharlau, T. Matzner, H.M. Buhl, H. Buschmeier, E. Esposito, A. Grimminger, B. Hammer, R. Haeb-Umbach, I. Horwath, E. Hüllermeier, F. Kern, S. Kopp, K. Thommes, A.-C. Ngonga Ngomo, C. Schulte, H. Wachsmuth, P. Wagner, B. Wrede, IEEE Transactions on Cognitive and Developmental Systems 13 (2021) 717–728.
LibreCat | Files available | DOI
 
2023 | Journal Article | LibreCat-ID: 49516
RISE: an open-source architecture for interdisciplinary and reproducible human–robot interaction research
A. Groß, C. Schütze, M. Brandt, B. Wrede, B. Richter, Frontiers in Robotics and AI 10 (2023).
LibreCat | Files available | DOI
 
2023 | Journal Article | LibreCat-ID: 51743
From mental models to algorithmic imaginaries to co-constructive mental models
C. Schulz, Navigationen – Zeitschrift Für Medien- Und Kulturwissenschaften 2 (2023) 65–75.
LibreCat | DOI
 
2023 | Journal Article | LibreCat-ID: 51744
Tech/Imaginations – Introduction
C. Schulz, J. Schröter, Navigationen – Zeitschrift Für Medien- Und Kulturwissenschaften 2 (2023) 7–14.
LibreCat | DOI
 
2023 | Conference Paper | LibreCat-ID: 52230
SHAP-IQ: Unified Approximation of any-order Shapley Interactions
F. Fumagalli, M. Muschalik, P. Kolpaczki, E. Hüllermeier, B. Hammer, in: NeurIPS 2023 - Advances in Neural Information Processing Systems, Curran Associates, Inc., 2023, pp. 11515--11551.
LibreCat
 
2024 | Journal Article | LibreCat-ID: 53073
Beyond TreeSHAP: Efficient Computation of Any-Order Shapley Interactions for Tree Ensembles
M. Muschalik, F. Fumagalli, B. Hammer, E. Huellermeier, Proceedings of the AAAI Conference on Artificial Intelligence 38 (2024) 14388–14396.
LibreCat | DOI
 
2024 | Book Chapter | LibreCat-ID: 51745
Vernakulärer Code oder die Geister, die der Algorithmus rief - digitale Schriftlichkeit im Kontext von sozialen Medienplattformen
C. Schulz, in: M. Bartelmus, A. Nebrig (Eds.), Digitale Schriftlichkeit – Progammieren, Prozessieren und Codieren von Schrift, 1st ed., transcript , Bielefeld, 2024.
LibreCat | DOI
 
2024 | Book Chapter | LibreCat-ID: 51746
Vom foto-sozialen Graph zum Story-Format: Über die Institutionalisierung sozialmedialer Infrastruktur aus dem Geiste der Fotografie
C. Schulz, in: A. Schürmann, K. Yacavone (Eds.), Die Fotografie und ihre Institutionen. Von der Lehrsammlung zum Bundesinstitut , 1st ed., Reimer Verlag, Berlin , n.d.
LibreCat
 
2023 | Special Issue | LibreCat-ID: 51741
Tech/Imaginations
C. Schulz, J. Schröter, C. Ernst, eds., Tech/Imaginations, Universi Verlag , 2023.
LibreCat | DOI