Prof. Dr. Kirs­ten Thom­mes forscht im neu­en Son­der­for­schungs­be­reich zu künst­li­cher In­tel­li­genz: „Er­klä­run­gen ge­mein­sam ent­wi­ckeln“

 |  PressemitteilungenProjekte Forschung

Die Deutsche Forschungsgemeinschaft (DFG) hat heute die Einrichtung eines neuen Sonderforschungsbereichs/Transregio (TRR) zum Thema „Erklärbarkeit von künstlicher Intelligenz (KI)“ an den Universitäten Paderborn und Bielefeld bekanntgegeben. In den kommenden vier Jahren wird sie dafür rund 14 Millionen Euro Fördergelder zur Verfügung stellen. Das stark interdisziplinär ausgerichtete Forschungsprogramm mit dem Titel „Constructing Explainability“ („Erklärbarkeit konstruieren“) geht über die Frage nach Erklärbarkeit von KI als Grundlage algorithmischer Entscheidungsfindungen hinaus. Der Ansatz fördert die aktive Teilnahme der Menschen an soziotechnischen Systemen. Ziel ist es, die Mensch-Maschine-Interaktion zu verbessern, das Verständnis von Algorithmen in den Mittelpunkt zu stellen und dieses als Produkt eines multimodalen Erklärprozesses zu untersuchen. Die vierjährige Förderung beginnt am 1. Juli. In zwei Teilprojekten ist aus den Wirtschaftswissenschaften der Universität Paderborn Prof. Dr. Kirsten Thommes von der Professur „Organizational Behavior“ beteiligt.

Die Rolle von Emotionen im Erklärprozess

Zusammen mit Prof. Dr.-Ing. Britta Wrede (Uni Bielefeld) untersucht Kirsten Thommes im Projekt A3 (Co-Konstruktion von Erklärungen mit emotionaler Ausrichtung zwischen KI-Erklärer) die Rolle von Emotionen im Erklärprozess. Menschliche Emotionen führen nicht nur dazu, dass Erklärungen besser oder schlechter verstanden werden, sondern beeinflussen auch menschliches Entscheiden nach der Erklärung. Um effektive Erklärungsprozesse durch KI zu ermöglichen, muss der Einfluss von emotionalen Prozesse auf den Erklärungsprozess zwischen der KI und dem Menschen verstanden werden. Ziel des Projekts ist es zu untersuchen, inwiefern im Rahmen einer ko-konstruierten Erklärung zwischen Mensch und KI die Emotionen des Menschen verändert werden. Darüber hinaus stehen die folgenden beiden Forschungsfragen im Mittelpunkt:  Können mögliche Veränderungen der Emotionen ein Hinweis auf ge- oder misslungene Erklärstrategien sein? Und können diese Veränderungen den Erfolg der Erklärung beeinträchtigen oder auch befördern?

Wie können Menschen ein situationsadäquates Entscheidungsmodell mit konstruieren und als Anwendung wählen?

Zusammen mit Eyke Hüllermeier (LMU München) untersucht Kirsten Thommes in einem weiteren Projekt (C02 – Interaktives Lernen von erklärbaren, situationsangepassten Entscheidungsmodellen), wie Menschen dazu befähigt werden können, situationsadäquate Entscheidungsmodelle mit zu konstruieren und einzusetzen. Optimale Entscheidungsmodelle können komplex, intransparent und für die Situation unangemessen sein, weil zum Beispiel Variablen genutzt werden, die in der Situation nicht zur Verfügung stehen. Daher muss die Komplexität eines Entscheidungsmodells gut angepasst sein an die Erfahrung des Entscheidungsträgers, die vorliegenden Informationen und die verfügbaren Ressourcen. Wir untersuchen, wie Menschen zum einen dazu gebracht werden können, verschiedene Entscheidungsmodelle für mögliche zukünftige Umweltzustände ko-konstruieren zu können und zum anderen dann auch dazu befähigt werden, später das adäquate Entscheidungsmodell zu wählen.

Weitere Informationen / Pressemitteilung zum Sonderforschungsbereich „Erklärbarkeit von künstlicher Intelligenz (KI)“:
https://www.uni-paderborn.de/nachricht/95634

Foto (Universität Paderborn): Prof. Dr. Kirsten Thommes

Kontakt