Explainable Feature Importance: Interpretierbare maschinelles Lernen durch spieltheoretische Analyse von Einflussgrößen und Interaktionseffekten

Project Period: 2021-01-01 – 2024-12-31
Alternative Name
Explainable Feature Importance: Interpretable machine learning through game theoretic analysis of influence variables and interaction effects
Coordinator
Reinhold Häb-Umbach
Principal Investigator
Reinhold Häb-Umbach
Department(s)
Nachrichtentechnik (NT) / Heinz Nixdorf Institut
Description

Methoden des maschinellen Lernens (ML) unterstützen die Suche nach Mustern in Daten und Zusammenhängen zwischen Variablen, z.B. in komplexen bio-medizinischen Systemen. Auf diese Weise können sie neue Einsichten vermitteln und Entscheidungen in Handlungs­feldern wie der medizinischen Diagnostik verbessern. Neben der Güte der aus den Daten gelernten Modelle bildet das Vertrauen menschlicher Experten in diese Modelle eine wichtige Voraussetzung für die Nützlichkeit und Anwendbarkeit von ML. Dies setzt ein gewisses Maß an Transparenz der Modelle voraus, vor al­lem im Hinblick auf die Bedeutung von und die Interaktion zwischen einzelnen Einflussgrößen. In diesem Projektvorhaben schlagen wir einen spieltheoretischen Ansatz zur Modellierung und Dekomposition von Abhängigkeiten höherer Ordnung vor, d.h. Abhängigkeiten zwischen Teilmengen von Variablen. Auf dieser Grundlage lassen sich theoretisch fundierte Maße für die Wichtigkeit einzelner Einflussgrößen und die Stärke der Interaktion zwischen diesen Größen bestimmen. Im Rahmen des Projektes entwickeln wir nicht nur die theoretischen und konzeptionellen Grundlagen dieses Ansatzes, sondern arbeiten auch an einer effizienten algorithmischen Umsetzung. Zur Verbesserung von Verständnis und Akzeptanz entwickeln wir zudem einen interaktiven Ansatz zur Explora­tion von Abhängigkeiten in hochdimensionalen Datenräumen.

Funding Organisation
Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen (MKW)