Haben Sie schon einmal von der Abkürzung XAI gehört?

Die fehlende Nachvollziehbarkeit von Entscheidungen basierend auf Künstlicher Intelligenz (KI) wirkt häufig abschreckend und führt in vielen Fällen dazu, auf KI-Anwendungen zu verzichten. Eben deshalb nannte Tadeusz auch in seinem letzten Blogbeitrag dies als großen Nachteil einer KI. Doch glücklicherweise gibt es dafür bereits eine Lösung. Und genau hier kommt XAI ins Spiel. EXplainable Artificial Intelligence - oder zu Deutsch erklärbare Künstliche Intelligenz.

Vertrauen Sie Ihrer KI?

Durch rasant wachsende Datenmengen (eine gute Qualität der Daten natürlich vorausgesetzt), werden immer bessere KI-Algorithmen entwickelt und somit immer häufiger eingesetzt. In Banken finden diese mittlerweile in unterschiedlichen Bereichen Anwendung. Ob in der Interaktion mit dem Kunden, der Betrugserkennung, der Automatisierung von Prozessen oder im Risikocontrolling. Durch KI-Algorithmen erschließen sich dort ganz neue Möglichkeiten, die durch beispielsweise lineare Modelle nicht realisierbar sind. Zum Opfer fällt da häufig jedoch die Nachvollziehbarkeit oder Erklärbarkeit des Ergebnisses. Was nutzen Ihnen die besten Vorhersagen, wenn Sie diese nicht verstehen können? Sind Sie trotzdem bereit, diese zu akzeptieren? Dürfen Sie diese überhaupt verwenden?

Gedanken machen sich Viele …

Auch die BaFin hat sich mit diesem Thema bereits beschäftigt und ihre Studie „Big Data trifft auf Künstliche Intelligenz “   veröffentlicht. In dieser wird die Nachvollziehbarkeit von KI-Entscheidungen ganz explizit gefordert. Dafür gibt es auch einige gute Gründe. Spontan fällt mir dabei die Schlagzeile ein, dass mal wieder ein KI-Algorithmus unbemerkt und ungewollt bestimmte Personengruppen diskriminiert hat. Solch ein Szenario würde zu einem nicht unerheblichen Reputationsschaden für eine Bank führen. Aber auch die Rechenschaftspflicht ist gegenüber den Aufsichtsbehörden ein wichtiges Thema, für das es Nachvollziehbarkeit braucht.

Neben der Regulierung von KI-Algorithmen spielt auch die Interaktion zwischen Menschen und Software eine große Rolle. Aus meiner Erfahrung weiß ich, dass KI für viele Mitarbeiter erst einmal ungewohnt in der Zusammenarbeit ist. Die Unsicherheit über die Funktionsweise der Algorithmen führt häufig zu wenig Vertrauen in die Ergebnisse. Dabei ist gerade XAI in der Lage, die Akzeptanz zu verbessern. 

… aber gibt es eine Lösung?

Durch XAI setzen Sie genau dort an und machen KI-Entscheidungen nachvollziehbarer. Insbesondere steht dabei die sogenannte Post-Hoc Erklärbarkeit im Fokus. Dies bedeutet, dass Entscheidungen im Nachhinein nachvollzogen werden können. Das Gegenteil davon wäre die Ante-Hoc Erklärbarkeit, bei der ein transparentes Modell gewählt wird und dieses bereits an sich verständlich ist. Da häufig jedoch KI-Modelle durch ihre Komplexität keine transparenten Modelle sind, können Sie auf erstere Form der Erklärbarkeit zurückgreifen. Bei dieser wird somit nicht das Modell als Ganzes betrachtet, sondern nur jeweils eine einzige Entscheidung. Sie sollen verstehen können, wieso aus den gegebenen Eingangsdaten genau die ausgegebene Entscheidung des KI-Algorithmus entstanden ist. Für diese lokale Erklärbarkeit gibt es bereits einige vielversprechende Ansätze. Der sicherlich prominenteste Ansatz ist LIME (Local Interpretable Model-Agnostic Explanations). Durch LIME können Sie einzelne Entscheidungen betrachten und auf die Eingangsmerkmale zurückführen. Da dies grafisch aufbereitet wird, ist es auch fachfremden Nutzern möglich, die Vorgehensweise bei der Entscheidungsfindung schnell nachzuvollziehen. Außerdem kann LIME auf die meisten KI-Modelle angewendet werden und erzeugt Interpretationen von Entscheidungen verschiedenster Klassifikatoren, ob zwei- oder mehrklassig, ob Textdaten oder auch Bilddaten.    

Neben den beiden genannten Arten der Erklärbarkeit gibt es weitere Voraussetzungen, die erfüllt sein müssen und im weitesten Sinne dem Themenfeld XAI zugeordnet werden können. Insbesondere brauchen Sie ein gutes Verständnis der Datengrundlage, um auch das daraus resultierende Modell verstehen zu können. Die Verwendung von KI-Algorithmen ist kein Freifahrtschein, auf eine sorgfältige Datenauswahl und -aufbereitung zu verzichten.  

Was kommt als nächstes?

Durch den wachsenden Stellenwert von KI-Algorithmen in vielen Bereichen in den letzten Jahren, gewinnt auch das Thema XAI zunehmend an Bedeutung. Gerade das Vertrauen in KI-Anwendungen muss in Zukunft gestärkt werden, um einen positiven Einfluss auf unsere Gesellschaft und unsere Arbeitsweise zu ermöglichen. Dass nun durch die BaFin eine erste Regulierungseinheit das Thema aufgegriffen hat, unterstreicht die Bedeutung von Nachvollziehbarkeit in KI-Anwendungen. Seitens der Regulierung kann man weitere Veröffentlichungen erwarten bis schließlich erste Regularien definiert werden. Aus technischer Sicht ist ebenfalls mit einigen Fortschritten in der nächsten Zeit zu rechnen. Nicht umsonst wurde jüngst die sogenannte Dritte Welle der KI ausgerufen, in der nach Ansätzen zur Erklärbarkeit geforscht wird.  

Die Möglichkeit mithilfe von XAI komplexe KI-Entscheidungen nachvollziehbar zu machen, bietet Ihnen enorme Chancen. Was einst als großer Nachteil der Anwendung von Künstlicher Intelligenz galt, dem können Sie nun entgegengetreten. Die Ansätze, welche dazu heute bereits existieren, liefern gute und insbesondere verständliche Ergebnisse und Sie können diese mit geringem Aufwand auf fast alle KI-Algorithmen anwenden. 

Da ich mich auch in Zukunft intensiv mit dem Thema beschäftigen werde, interessiert mich Ihre Meinung. Was sind Ihre Erfahrungen mit der (fehlenden) Nachvollziehbarkeit von KI-Entscheidungen? Ich freue mich auf Ihre Kommentare!


Viele Grüße
Jan Eßer  

0 Kommentare:

Kommentar veröffentlichen