Um den Ansatz einer KI-Lösung für Mitarbeiter verständlich darzulegen, kann ihre Entscheidung auf zwei Ebenen erklärt werden: lokal oder global.
Lokale Erklärbarkeit
Die lokale Erklärbarkeit ist ein einfacher und visueller Prüfpfad, um festzustellen, wie eine Entscheidung getroffen wurde. Warum schlägt das Modell etwa vor, den Bestand einer Lagereinheit, eines Ersatzteils oder Rohstoffs zu verdoppeln? Warum sollten bestimmte Anlagen künftig häufiger gewartet werden als andere?
Dabei können intuitive visuelle Methoden zur lokalen Erklärbarkeit beitragen. In einigen Fällen können inhärent erklärbare Modelle wie Entscheidungsbäume verwendet werden, sodass die Entscheidungsfindung besser nachvollziehbar ist. Hier sind die einzelnen Attribute für Nutzer einsehbar, ebenso wie die Gewichtungsfaktoren, die bestimmen, welche Aspekte bedeutender sind als andere.
Globale Erklärbarkeit
Manchmal ist ein umfassenderer Einblick in die tatsächliche Funktionsweise des Modells erforderlich; etwa, um sicherzustellen, dass das Modell die Daten nicht einseitig interpretiert. So gab es in der Vergangenheit Fälle von einseitigen Modellen, durch die beispielsweise bestimmte Ethnien oder soziale Gruppen bei Kredit-Empfehlungen benachteiligt wurden. Um solche Fälle zu vermeiden, kann die Argumentation eines Modells auf einer höheren Ebene beschrieben werden, anstatt sich nur auf die einzelnen Schritte zu konzentrieren, die zu einer bestimmten Entscheidung geführt haben. Ein globaler Erklärungsansatz kann ML-Technikern auch dabei helfen, den Entscheidungsprozess des Modells in Hinblick auf eine bessere Leistung und Qualität zu optimieren und anzupassen.
Zwei Interpretationsmethoden: SHAP und LIME
Um zu verdeutlichen, wie eine künstliche Intelligenz Entscheidungen trifft, gibt es zwei Methoden, die besonders häufig in Unternehmenssoftware zum Einsatz kommen – abhängig vom jeweiligen Anwendungsfall.
Eine dieser Methoden ist das sogenannte Shapley Additive Explanation (SHAP) Framework. Es basiert auf der spieltheoretischen Arbeit von Lloyd Shapley und ermöglicht es, die Ausgabe eines Algorithmus’ zurückzuverfolgen und zu verstehen, welche Variablen am meisten zur Entscheidung beigetragen haben.
Ähnlich wie SHAP kann das LIME-Modell (Local Interpretable Model-Agnostic Explanations) dabei helfen, die Relevanz und den Beitrag von Merkmalen zu bestimmen. Allerdings betrachtet das Modell weniger Variablen als SHAP und kann daher unter Umständen weniger genau sein. Der Vorteil von LIME liegt stattdessen in seiner Geschwindigkeit.
Anbieter für Unternehmenssoftware wie beispielsweise IFS verwenden je nach Anwendungsfall entweder SHAP oder LIME, um KI-Prozesse für Endanwender nachvollziehbar zu machen. Unter Umständen kann LIME bei einem relativ einfachen Modell ausreichend sein. Ein komplexes Modell in einer stark regulierten oder systemrelevanten Branche kann jedoch mehr Aufwand und Ressourcen erfordern, um die gewünschten Einblicke zu gewähren.
Transparenz für mehr Akzeptanz
Unternehmen sollten die Bedürfnisse ihrer Mitarbeiter nach einer nachvollziehbaren Entscheidungsfindung ernstnehmen. Das gilt insbesondere dann, wenn die Entscheidungen nicht auf klaren menschlichen Überlegungen beruhen, sondern auf vermeintlich schwer interpretierbaren Daten, Prozessen und Algorithmen. Beachten Unternehmen hierbei jedoch einige Faktoren, können sie mit der richtigen Unternehmenssoftware das Fundament für erklärbare KI legen und so die Akzeptanz der Technologie innerhalb der Belegschaft dauerhaft steigern.