Interpretierbarkeit von KI-Modellen mit XAI
In einer Welt, in der künstliche Intelligenz und maschinelles Lernen immer mehr an Bedeutung gewinnen, spielt die Interpretierbarkeit der zugrunde liegenden Algorithmen eine entscheidende Rolle. Wenn Menschen die Verantwortung für einen Algorithmus übernehmen sollen, müssen sie dessen Entscheidungen nachvollziehen können und ihm vertrauen. Dieser Artikel beleuchtet die Relevanz und die verschiedenen Aspekte der Interpretierbarkeit von Algorithmen und stellt das Gebiet der Explainable Artificial Intelligence (XAI) als Antwort auf diese Herausforderung vor.
Unsere Podcast-Episode zum Thema
Klassische Statistik vs. maschinelles Lernen
Mit klassischen statistischen Modellen, wie beispielsweise einer Regression, ist die Interpretierbarkeit direkt gegeben. Der Wert der Koeffizienten gibt Aufschluss darüber, wie sich einzelne Features auf die Vorhersage auswirken. Bei den deutlich komplexeren Modellen des Maschinellen Lernens ist die erreichbare Prognosegüte oftmals besser, da komplexere Informationsstrukturen in den Daten besser abgebildet werden können, jedoch geht dies zu Lasten der direkten Interpretierbarkeit. Hier kommt XAI ins Spiel.
Das Ziel von XAI
XAI zielt darauf ab, Antworten auf folgende Fragen zu liefern:
- Welche Informationen sind wichtig? (Feature Importance)
- Welchen Einfluss haben einzelne Features? (Wirkungsrichtung und Art des Zusammenhangs, Nicht-Linearitäten)
- Warum erhält man für eine einzelne Beobachtung einen bestimmten Prognosewert? (Mikroskopisches Verständnis auf Individualebene)
Bei der Bestimmung der Feature Importance wird der anteilige Beitrag der einzelnen Features zum gesamten Erklärungsgehalt des Modells ermittelt, um die Relevanz der unterschiedlichen, in den Daten enthaltenen Informationen im Vergleich zueinander zu bestimmen. Bei korrelierten Informationen ist die Trennung nicht immer einfach, so dass hier auf das Konzept der Shapley Werte aus der kooperativen Spieltheorie zurückgegriffen wird. Best-Practice bei tabularen Daten ist aktuell die Kombination von XGBoost und treeSHAP.
Um die Wirkungsrichtung und die Art des Zusammenhangs zwischen den Features und der zu prognostizierten Größe zu verstehen, können zum einen direkt interpretierbare verschiedene Algorithmen wie die Generalisierte Lineare Regression, Generalized Additive Models (GAM) oder baumbasierte Methoden in Kombination mit SHAP-Werten verwendet werden.
Darauf aufbauend ist die mikroskopische Erklärung individueller Prognosewerte direkt möglich.
Anwendung von XAI
Ob XAI zum Einsatz kommt und ausreichend für die gewünschte Interpretierbarkeit des verwendeten Algorithmus ist, hängt von zwei Faktoren ab:
- Ist der verwendete Algorithmus intransparent und nicht direkt interpretierbar, so dass zusätzliche XAI Modelle benötigt werden?
- Ist die mit XAI erreichte Interpretierbarkeit noch so komplex, dass die identifizierten Zusammenhänge das menschliche Auffassungsvermögen übersteigen?
Damit ist klar, dass XAI zum Einsatz kommt, falls die erste Frage bejaht wird und dass ggf. ein weiterer Schritt, nämlich die Hinzunahme schlanker und dadurch gut interpretierbarer Surrogat-Modelle, notwendig sein kann.
Fazit
Der große Vorteil von Explainable Artificial Intelligence (XAI) besteht darin, dass es Benutzer*innen ermöglicht, das aus den Daten gelernte Regelwerk komplexer Blackbox-Modelle zu verstehen, zu interpretieren und somit Vertrauen in die KI zu gewinnen. Dieses Vertrauen ist notwendig, damit der Einsatz von KI ethisch und inhaltlich verantwortbar ist.
Links
- In Numbers We Trust - Der Data Science Podcast: Episode #24: Explainable AI: Entscheidungen von Black-Box-Modellen verstehen
- Impact Distillery: "Explainable AI – Vertrauen ist gut, Verständnis ist besser" von Prof. Dr. Steffen Wagner