Digitale Schlüsseltechnologien

News und Pressemitteilungen

Bild: Siarhei (AdobeStock)

Licht in die Black-Box

Erklärbare KI soll die Ergebnisse von Algorithmen der Künstliche Intelligenz verständlich machen. Ein Forschungsteam um Prof. Dr. Klaus Pohl hat eine Erklärungstechnik speziell für die vorausschauende Überwachung von Geschäftsprozessen entwickelt.

Viele Unternehmen werden künftig bei der Optimierung ihrer Geschäftsprozesse auf Künstliche Intelligenz (KI) setzen; zum Beispiel in der Logistik, um frühzeitig mögliche Transportverzögerungen zu erkennen und diesen Verzögerungen entgegenzusteuern. Grundlage dafür sind KI-Modelle, die anhand großer Datenmengen darauf trainiert werden, den Verlauf von Geschäftsprozessen vorherzusagen. Das funktioniert sehr gut, wie zahlreiche Arbeiten in Forschung und Praxis demonstrieren. Die Nutzung von KI-Modellen hat jedoch einen großen Nachteil: Die Prognose-Ergebnisse der KI-Modelle sind nicht ohne weiteres verständlich bzw. nachvollziehbar – weder für normale Nutzer noch für KI-Experten. Die Vorhersage-Modelle sind so komplex, dass sie praktisch nur als Black-Box betrachtet werden können.

Die Arbeitsgruppe von Prof. Pohl erforscht Technologien, mit den sich die Ergebnisse der Black-Box-Verfahren erklären lassen. Speziell für KI-generierte Geschäftsprozess-Prognosen hat das Forschungsteam die kontrafaktische Methode LORELEY entwickelt. Diese Methode schlüsselt auf, welche konkreten Charakteristiken der Geschäftsprozessdaten für die Prognose verantwortlich sind. Daraus lassen sich Erklärungen ableiten, die Prognosen nicht nur verständlicher machen, sondern zugleich Handlungsempfehlung beinhalten. Sie zeigen auf, wie mit einer Veränderung der Charakteristiken bessere Prognoseergebnisse erzielt werden könnten. Hiermit können beispielsweise Logistiker im Falle von prognostizierten Lieferverzögerungen fundierte Entscheidungen für die Anpassung der Prozesse treffen, die Verspätungen zu vermeiden oder zumindest abzumildern.

Ableitung interpretierbarer Modelle

Die kontrafaktischen Erklärungen werden von den paluno-Wissenschaftler:innen aus interpretierbaren Entscheidungsbaum-Modellen gewonnen (siehe Abb.). LORELEY trainiert die Entscheidungsbäume mit Stichproben aus dem komplexen KI-Modell, so dass die Entscheidungsbäume (für diese Stichproben) ähnliche Prognose-Ergebnisse liefern, wie das ursprüngliche KI-Modell.  Experimente mit realen Datensätzen zeigen, dass der LORELEY-Ansatz die Ergebnisse der komplexen Prognose-Modelle sehr genau, d.h. mit einer Wiedergabetreue von bis zu 98% approximieren kann. „Die abgeleiteten Erklärungen können dazu beitragen, das Vertrauen der Anwender in KI-Anwendungen zu stärken“, sagt Prof. Pohl. „Gleichzeitig helfen sie Experten, KI-Modelle und die ihnen zugrundeliegenden Trainingsdaten besser zu verstehen und geeignet auf Prognosen zu reagieren.“

Funktionsprinzip der kontrafaktischen Methode LORELEY

Aktuelle Publikation

Tsung-Hao Huang, Andreas Metzger and Klaus Pohl: Counterfactual Explanations for Predictive Business Process Monitoring. In: Marinos Themistocleous and Maria Papadaki (eds.): Information Systems - 18th European, Mediterranean, and Middle Eastern Conference, EMCIS 2021, Virtual Event, December 8-9, 2021, Proceedings , Volume 437 of Lecture Notes in Business Information Processing , Springer , 2021 , 399-413.  [DOI]

Kontakt

NameKontakt

Software Systems Engineering (SSE)

Prof. Dr. Klaus Pohl
+49 201 18-34660

Presse- und Öffentlichkeitsarbeit

Birgit Kremer
+49 201 18-34655

Weitere Informationen

Die Arbeiten zum Thema „Erklärbare KI für die Überwachung von Geschäftsprozessen“ wurden von Tsunghao Huang, Andreas Metzger und Klaus Pohl auf der EMCIS 2021 (European, Mediterranean and Middle Eastern Conference on Information Systems) veröffentlicht und dort mit dem Best Theoretical Paper Award ausgezeichnet.