Neues DFG-Forschung­s­pro­jekt!

Die Deutsche Forschungsgemeinschaft (DFG) hat heute die Einrichtung eines neuen Sonderforschungsbereichs/Transregio (TRR) zum Thema „Erklärbarkeit von künstlicher Intelligenz (KI)“ an den Universitäten Paderborn und Bielefeld bekanntgegeben. In den kommenden vier Jahren wird sie dafür rund 14 Millionen Euro Fördergelder zur Verfügung stellen. Das stark interdisziplinär ausgerichtete Forschungsprogramm mit dem Titel „Constructing Explainability“ („Erklärbarkeit konstruieren“) geht über die Frage nach Erklärbarkeit von KI als Grundlage algorithmischer Entscheidungsfindungen hinaus. Der Ansatz fördert die aktive Teilnahme der Menschen an soziotechnischen Systemen. Ziel ist es, die Mensch-Maschine-Interaktion zu verbessern, das Verständnis von Algorithmen in den Mittelpunkt zu stellen und dieses als Produkt eines multimodalen Erklärprozesses zu untersuchen. Die vierjährige Förderung beginnt am 1. Juli. Unser Lehrstuhl wird sich dabei an zwei Teilprojekten beteiligen. 

Zusammen mit Britta Wrede (Uni Bielefeld) untersucht Kirsten Thommes im ersten Teilprojekt (Co-Konstruktion von Erklärungen mit emotionaler Ausrichtung zwischen KI-Erklärer) die Rolle von Emotionen im Erklärprozess. Menschliche Emotionen führen nicht nur dazu , dass Erklärungen besser oder schlechter verstanden werden, sondern beeinflussen auch menschliches Entscheiden nach der Erklärung.  Um effektive Erklärungsprozesse durch KI zu ermöglichen, muss der Einfluss von emotionalen Prozesse auf den Erklärungsprozess zwischen der KI und dem Menschen verstanden werden.  Ziel des Projekts ist es zu untersuchen, inwiefern im Rahmen einer Ko-konstruierten Erklärung zwischen Mensch und KI die Emotionen des Menschen verändert werden und ob mögliche Veränderungen der Emotionen (1) ein Hinweis auf ge- oder misslungene Erklärstrategien sein können und (2) den Erfolg der Erklärung beeinträchtigen oder auch befördern können.

Zusammen mit Eyke Hüllermeier (LMU München) untersucht Kirsten Thommes in einem weiteren Projekt (C02 - Interaktives Lernen von erklärbaren, situationsangepassten Entscheidungsmodellen), wie Menschen dazu befähigt werden können, situationsadäquate Entscheidungsmodelle mitzukonstruieren und einzusetzen. Optimale Enstcheidungsmodelle können komplex, intransparent und für die Situation unangemessen sein, weil zum Beispiel Variablen genutzt werden, die in der Situation nicht zur Verfügung stehen. Daher muss die Komplexität eines Entscheidungsmodells gut angepasst sein an die Erfahrung des Entscheidungsträgers, die vorliegenden Informationen und die verfügbaren Ressourcen. Wir untersuchen, wie Menschen zum einen dazu gebracht werden können, verschiedene Entscheidungsmodelle für mögliche zukünftige Umweltzustände ko-konstruieren zu können und zum anderen dann auch dazu befähigt werden, später das adäquate Entscheidungsmodell zu wählen.