Erklärbare KI - Vertrauen schaffen am Beispiel des persönlichen Inflationsrechners des Statistischen Bundesamts

Der Beitrag von Künstlicher Intelligenz (KI) zur Digitalisierung der öffentlichen Verwaltung könnte riesig sein – wenn die Technologie nicht so undurchsichtig wäre. In der öffentlichen Verwaltung ist Transparenz besonders wichtig, damit digitale Anwendungen das Vertrauen von Bürger:innen gewinnen. Ein Forschungsprojekt zeigt nun, wie die digitale Transformation der öffentlichen Verwaltung mithilfe von »Erklärbarer KI« vertrauenswürdig und bürger:innennah erfolgen kann.
KI kann die digitale Transformation ankurbeln
Die Erwartungen von Bürger:innen an die nachzuholende Digitalisierung in der öffentlichen Verwaltung sind hoch. Besonderes Potenzial für die digitale Transformation birgt KI. Datenbasierte Verfahren – wie KI-Verfahren – können sehr gute Ergebnisse liefern. Rasante Fortschritte in der Forschung sorgen für eine immer größere Vielfalt an Anwendungsmöglichkeiten. In der öffentlichen Verwaltung können KI-basierte Anwendungen Verwaltungsprozesse vereinfachen und beschleunigen, Bürger:innen neue Informationskanäle zur Verfügung stellen und Entscheidungs- und Planungsprozesse verbessern. Eine große Herausforderung besteht darin, solche digitalen Anwendungen bürger:innenzentriert zu gestalten. Tatsächlich zeigen Studien, dass für bestehende Anwendungen in der öffentlichen Verwaltung gute Praktiken fehlen, um das Vertrauen von Beschäftigten und Bürger:innen sicherzustellen.
Viele digitale Anwendungen haben ein Verständlichkeitsproblem
Mit dieser Herausforderung steht die öffentliche Verwaltung nicht allein da. Viele digitale Anwendungen – im öffentlichen Sektor wie in der Privatwirtschaft – haben ein Verständlichkeitsproblem. Dabei spielt keine Rolle, ob einer digitalen Anwendung hochkomplexe KI-Verfahren oder einfachere datenbasierte Verfahren zugrunde liegen. Entscheidend ist die Wahrnehmung der Nutzer:innen. Wenn Nutzer:innen nicht mehr nachvollziehen können, wie die Ergebnisse der datenbasierten Verfahren zustande kommen, ist die digitale Anwendung für sie eine »Black Box«. Bürger:innen haben dann keine Möglichkeit mehr, Rückfragen zu stellen oder Widerspruch einzulegen, wie dies in einem Gespräch mit einem menschlichen Gegenüber möglich wäre. Wie sollen Bürger:innen einer Anwendung vertrauen, die sie über ihre Entscheidungswege und -gründe im Dunkeln lässt? Stand heute fehlt es an konkreten Maßnahmen, um digitale Anwendungen in der öffentlichen Verwaltung transparent und nachvollziehbar zu machen.
Bürger:innenzentrierung durch »Erklärbare KI« verbessern
Die Nachvollziehbarkeit und Nutzer:innenzentrierung von digitalen Anwendungen zu steigern ist unter dem Begriff »Erklärbare KI« eine eigene Forschungsdisziplin geworden. Erklärbare KI (oft: XAI, vom Englischen »Explainable Artificial Intelligence«) beschreibt technische und methodische Ansätze, welche die Ergebnisse von datenbasierten Verfahren für Menschen verständlich machen. Es werden automatisiert Erklärungen erzeugt, welche die Entscheidungswege und -gründe eines datenbasierten Verfahrens für Nutzer:innen offenlegen.
Typischerweise werden Erklärungen durch Erklärmodule erzeugt, die ergänzend zu einem datenbasierten Verfahren entwickelt und installiert werden. Um eine Erklärung zu erzeugen, »beobachtet« das Erklärmodul das Verhalten eines datenbasierten Verfahrens. Oft sind Erklärmodule modell-agnostisch gestaltet, sodass sie für eine Vielzahl an existierenden datenbasierten Verfahren – seien es neuronale Netz oder einfache datenbasierte Verfahren – anwendbar sind.
Entwickler:innen von »Erklärbarer KI« legen Wert darauf, dass Darstellung, Umfang und Inhalt von Erklärungen auf den Kenntnisstand und die Bedürfnisse der Nutzer:innen einer konkreten Anwendung abgestimmt sind. Sonst verfehlen Erklärungen ihren Zweck. Zum Beispiel brauchen Bürger:innen, die digitale Behördendienste in Anspruch nehmen, andere Erklärungen als Manager:innen, die digitale Anwendungen zur Prognose von Unternehmenskennzahlen nutzen.

Abbildung 1: Ein Erklärmodul ergänzt eine »Black Box« und erhöht deren Nachvollziehbarkeit für Bürger:innen (Grafik: XAI-Studio)
Das XAI-Studio – das gemeinsame Innovationslabor des Instituts für Business Analytics der Universität Ulm und des KI-Startups Inlinity – begleitet die öffentliche Verwaltung dabei, das Potenzial der Schlüsseltechnologie »Erklärbare KI« zur Entfaltung zu bringen. In einem gemeinsamen Leuchtturmprojekt hat das XAI-Studio mit dem Statistischen Bundesamt deren Applikation »persönlicher Inflationsrechner« um ein Erklärmodul erweitert und so die Bedürfnisse von Bürger:innen nach mehr Nachvollziehbarkeit der Auswirkungen von Inflation auf die eigene Lebensrealität adressiert.
Showcase: Der persönliche Inflationsrechner des Statistischen Bundesamts
Das Statistische Bundesamt bietet auf seiner Website einen persönlichen Inflationsrechner an. Bürger:innen können hier ihre Konsumausgaben, aufgeteilt in verschiedene Güterbereiche, eintragen. Zu den insgesamt 18 Bereichen zählen unter anderem Ausgaben für Miete, Strom, Bekleidung, Nahrungsmittel und Kraftstoffe. Mit diesen Angaben wird die persönliche Inflationsrate ermittelt, indem die Preisentwicklungen der Güterbereiche mit der persönlichen Ausgabenverteilung gewichtet werden. So können interessierte Bürger:innen ihre persönliche mit der amtlichen Inflationsrate vergleichen.

Abbildung 2: Screenshot des persönlichen Inflationsrechners des Statistischen Bundesamtes (Grafik: Destatis)
Die Berechnung der persönlichen Inflationsrate erfolgt durch ein einfaches datenbasiertes Verfahren. Dennoch ist das Zustandekommen der persönlichen Inflationsrate und deren Abweichung von der amtlichen Inflationsrate für die meisten Bürger:innen nicht leicht nachvollziehbar. Aus ihrer Sicht ist der Vorgang zur Ermittlung der persönlichen Inflationsrate eine »Black Box«.
An dieser Stelle setzt das Projekt an: Forscher:innen des XAI-Studios entwickelten in Zusammenarbeit mit Expert:innen des Statistischen Bundesamts ein Erklärmodul, das heute Erklärungen spezifisch für die Zielgruppe des persönlichen Inflationsrechners erzeugt.
Die Zielgruppe des persönlichen Inflationsrechners sind Bürger:innen, die sich unabhängig von ihren Vorkenntnissen über den Einfluss der Inflation auf ihre finanzielle Situation informieren möchten. Für sie sind drei Fragen wichtig:
- Warum weicht die persönliche Inflationsrate von der amtlichen Inflationsrate ab?
- Welche persönlichen Konsumausgaben sind ursächlich für die Abweichung?
- Wie müssten sich die Ausgaben ändern, damit sich die persönliche Inflationsrate ändert?
Die Bürger:innen wollen verstehen, welche der eigenen Konsumausgaben dazu beitragen, dass sich ihre persönliche von der amtlichen Inflationsrate unterscheidet. Das eingesetzte Erklärmodul ermittelt daher, welche Ausgabe-Kategorien einen besonders großen Einfluss auf die Abweichung haben. Für die Erklärungen dieser Abhängigkeiten werden gut verständliche Texte generiert. In einem spielerischen Element können Bürger:innen darauf aufbauend erkunden, wie sich eine Anpassung von Ausgabe-Kategorien auf die persönliche Inflationsrate auswirkt. Ziel der Erklärungen ist unter anderem, das Vertrauen von Bürger:innen in den persönlichen Inflationsrechner und deren Selbstwirksamkeit hinsichtlich der Auswirkungen von Inflation auf die eigene Lebensrealität zu steigern.

Abbildung 3: Screenshot einer Erklärung des persönlichen Inflationsrechners des Statistischen Bundesamtes (Grafik: Destatis)
Erklärungen schaffen Vetrauen und steigern die Nutzung
Die Wirksamkeit des Erklärmoduls wurde von Forscher:innen des Instituts für Business Analytics der Universität Ulm wissenschaftlich untersucht. Konkret wurde ein randomisiertes Experiment durchgeführt, in dem über 200 Proband:innen entweder den herkömmlichen persönlichen Inflationsrechner oder den neuen persönlichen Inflationsrechner (also inklusive des neuen Erklärmoduls) nutzten und anschließend zu ihren Erfahrungen befragt wurden. Die Ergebnisse demonstrieren den großen Mehrwert von Erklärmodulen für die Bürger:innenzentrierung digitaler Anwendungen.
- Erklärmodule steigern das Vertrauen von Bürger:innen in digitale Anwendungen der öffentlichen Verwaltung
- Erklärmodule erhöhen die Selbstwirksamkeit, das heißt Bürger:innen sind dadurch weniger stark auf weitere Hilfe durch Beschäftigte in der öffentlichen Verwaltung angewiesen
- Erklärmodule fördern die Nutzung digitaler Anwendungen der öffentlichen Verwaltung.
Potenzial von »Erklärbarer KI« für die Digitalisierung der öffentlichen Verwaltung
Das Beispiel des persönlichen Inflationsrechners zeigt, wie bestehende digitale Anwendungen durch die Installation eines Erklärmoduls einen Booster erhalten können. Erklärungen nehmen Bürger:innen bei der Nutzung digitaler Behördenservices »an die Hand«.
»Erklärbare KI«-Ansätze könnten weit über den persönlichen Inflationsrechner hinaus Anwendung finden. Charmant ist bei vielen Ansätzen, dass sie die Funktionstüchtigkeit der zugrundeliegenden datenbasierten Verfahren und Anwendungen nicht beeinträchtigen. So könnten »Erklärbare KI«-Ansätze in Zukunft auch andere Informationsservices von Behörden verbessern, die gegenüber Bürger:innen ihre Prozesse und Leistungen einfach und verständlich kommunizieren wollen. Vielversprechende und noch unerschlossene Anwendungen von »Erklärbarer KI« sind beispielsweise die Kalkulation von Sozialleistungen wie Kindergeld oder die Berechnung der Lohn- und Einkommensteuer.