KI-Agenten

Ein Tool, das selbstständig Dokumente sichtet, Informationen extrahiert, Antragstellende kontaktiert, Berechnungen durchführt, Angaben korrigiert und bei anderen Behörden notwendige Unterstützung anfordert – klingt nach einer Utopie? KI-Agenten versprechen bereits heute genau das. Sie können aufeinanderfolgende Arbeitsschritte selbstständig ausführen, Fortschrittskontrollen durchführen und hierfür verschiedene Tools orchestrieren und nutzen. Doch wie funktionieren KI-Agenten, wie können sie den öffentlichen Sektor stärken, was sind die notwendigen Vorrausetzungen und welche gesellschaftlichen Folgen können sich daraus ergeben?

Die erweiterte KI

KI-Agenten können als Erweiterung bisheriger KI-Anwendungen betrachtet werden. Sie sind gewissermaßen selbstständiger, indem sie Zugriff auf Softwaretools zur Bewältigung ihrer Aufgaben haben. Bei generativer Künstlicher Intelligenz (GenKI) zeichnet sich die Mensch-Maschine Interaktion durch die wechselseitige Unterhaltung und schrittweise Verbesserung der Ergebnisse durch menschliche Anleitung aus. KI-Agenten hingegen arbeiten deutlich autonomer: Sie erhalten eine Zielsetzung, auf die sie selbstständig, im Sinne einer KI gesteuerten schrittweisen Planung, Ausführung und Fortschrittskontrolle, hinarbeiten. Die kleinteiligen Einzelaufgaben erschließt sich der KI-Agent selbst, während der Mensch dessen Arbeit in den richtigen Kontext setzt und den Gesamtzusammenhang im Blick behält.

Ein KI-Agent erstellt Zwischenschritte dynamisch und abhängig von der Aufgabenstellung. Damit sind KI-Agenten mehr als schlichte KI-Workflows, in denen KI als Teilschritt innerhalb eines größeren Kontrollflusses eingesetzt wird. Das Vorgehen ist somit weniger deterministisch und wird nicht von den Entwickler:innen für nur einen Anwendungsfall festgelegt.

Es handelt sich also um begrenzt autonome KI-Systeme, die ihre jeweilige Umgebung wahrnehmen und mit den ihnen zur Verfügung gestellten Software-Werkzeugen größtenteils eigenständig versuchen, ein Ziel zu erreichen. Die Autonomie der Systeme beschränkt sich auf den von den Entwickler:innen gegebenen Rahmen. Je nach Einsatzgebiet können sich sowohl die Handlungsmöglichkeiten als auch die Wahrnehmungsfähigkeiten eines KI-Agenten erheblich unterscheiden.

Varianten

Es existieren unterschiedliche Architektur-Prinzipien, nach denen KI-Agenten entwickelt werden können. KI-Agenten werden modular aufgebaut und können einzeln (»Single-Agent Systems«) oder im Team (»Multi-Agent Systems«) eingesetzt werden, um kooperativ zu agieren oder im Wettstreit um das Lösen der Aufgabe zu konkurrieren. Die konkrete Wahl der Architektur ist abhängig von der jeweiligen Aufgabe, die der KI-Agent bewältigen soll, dem verfügbaren Budget und der entsprechenden Qualitätsanforderung, die an das Programm gestellt wird. Neben mehreren involvierten KIs kann im Kontrollfluss eines KI-Agenten eine feste menschliche Instanz eingebaut werden. Dieser Ansatz nennt sich »Human-in-the-loop« und bietet sich besonders für sensible KI-Anwendungsfälle an. Dabei wird KI-generierter Output von einem Menschen verifiziert, bevor dieser weiterverwendet wird.

Die Aufgabenstellungen können hinsichtlich Komplexität und Zeithorizont eines KI-Agenten stark variieren. Das sogenannte »Task-oriented-Deployment« (deutsch: »Aufgaben-orientierter Einsatz«) setzt einen KI-Agenten zur Bewältigung spezieller, vordefinierter Aufgabenbereiche, wie beispielsweise ein zufriedenstellender individueller Kundenservice oder ein hilfreicher Coding-Assistent, ein. 

Des Weiteren wird »Innovation-oriented-Deployment« (deutsch: »Innovations-orientierter Einsatz«) verwendet, um in dem eingesetzten Aufgabenbereich Innovationen voranzutreiben beziehungsweise Neuartiges zu entdecken und zu erforschen. Probleme, die algorithmisch verifiziert und gelöst werden können, bieten sich besonders für dedizierte evolutionäre Coding-Agenten an. Diese erhalten die Möglichkeit, ihr Ergebnis iterativ zu verbessern, in der Absicht eine hinreichend gute Lösung zu finden oder eine neuartige Entdeckung zu machen. Das »Lifecycle-oriented-Deployment« (deutsch: »Lebenszeit-orientierter Einsatz«) setzt bei Agenten eine Perspektive des Langzeitlernens voraus, bei dem der KI-Agent seine Herangehensweise ständig anpasst, um einem übergeordneten Ziel gerecht zu werden. Ein solcher Agent reagiert somit nicht ausschließlich auf kurzfristige Signale unmittelbaren Inputs, sondern kann auch von Mustern lernen, die erst über eine erweiterte Betriebszeit sichtbar werden.

Die Arten der Aufgaben, die KI-Agenten gegenwärtig bewältigen, können grob in drei Bereiche unterteilt werden:   

  • Informationsfilterung und Analyse
    Die KI-Agenten spezialisieren sich auf das Sammeln, Zusammenführen und Analysieren unterschiedlicher Datenquellen, deren Inhalte komprimiert und aufbereitet werden.
  • Aufgabendurchführung und Automatisierung
    Die KI-Agenten führen operative Handlungen aus, die aktiv digitale oder auch physische Zustände durch konkrete Handlungen verändern.  
  • Interaktion und Kommunikation
    Die KI-Agenten sind auf dialogbasierte Prozesse ausgelegt, bei denen der Austausch selbst das Hauptziel ist.

Systemaufbau

Konzeptionell lassen sich die wesentlichen Bestandteile eines KI-Agenten in vier Komponenten unterteilen (siehe Abbildung 1). Die Gedächtnis- und die Planungskomponente können als Entscheidungszentrum angesehen werden, in dem Informationen gesammelt und verarbeitet werden. Das technische Fundament dafür bilden Large Language Models (LLMs). Die aktuelle Welle von KI-Agenten ist maßgeblich auf den Erfolg dieser LLMs beziehungsweise Large Reasoning Models (LRMs) zurückzuführen. Diese Modelle können verschiedene Informationsquellen zusammentragen, schrittweise planen und somit unterschiedlichste Probleme bearbeiten. Außerdem besitzen LLMs gewisse »soziale« Fähigkeiten im direkten natürlichsprachlichen Austausch mit Menschen. Das Kurzzeitgedächtnis eines KI-Agenten funktioniert analog zu dem der auf LLMs basierenden Chatbots. Indem nicht nur die aktuelle Anfrage sondern auch der Konversationsverlauf mit in das Netzwerk eingespeist wird, kann das Model auf bereits erwähnte Konversation zurückgreifen. Der limitierende Faktor ist dabei jedoch das sogenannte Kontextfenster des Modells. Vereinfacht ausgedrückt bestimmt dieses, wie viele Informationen (gemessen in Tokens) das Modell gleichzeitig berücksichtigen kann. Das Langzeitgedächtnis gehört, im Gegensatz zum Kurzzeitgedächtnis, nicht direkt zum LLM. Stattdessen besteht das Langzeitgedächtnis eines KI-Agenten aus externen Datenquellen, wie einer Vektordatenbank oder einem Retrieval Augmented Generation (RAG) System, die dem LLM zur Verfügung gestellt werden und auf deren Inhalt bei der Aufgabenbearbeitung zurückgegriffen werden kann. 

Die verbleibenden Komponenten bilden die Handlungsmöglichkeiten des KI-Agenten und können in dem Agenten zur Verfügung gestellte Werkzeuge und Aktionen unterteilt werden. Die bereitgestellten Werkzeuge sind Softwaretools, die von Rechen- beziehungsweise Programmierumgebungen über andere API-Schnittstellen oder Browser-Oberflächen bis hin zu spezialisierten Expertensystemen reichen können. Die Aktionen des KI-Agenten können beispielsweise eine klassische Textausgabe oder die Erstellung einer Datei sein, aber auch das Auslösen eines Ereignisses in der physischen Welt ist denkbar. Die genaue Auswahl der unterschiedlichen Handlungsmöglichkeiten wird zweckgerichtet von den Entwickler:innen getroffen und soll den Agenten befähigen, bestimmte Aufgabenklassen autonom abzuwickeln. 

Abbildung 1: Komponenten eines KI-Agenten, nach Weng, 2023

Eine Herausforderung bei der Entwicklung von KI-Agenten besteht darin, verschiedene Tools und Datensätze so zugänglich zu machen, dass ein LLM sie zuverlässig und produktiv nutzen kann. Das Model-Context-Protocol (MCP) löst dies durch eine Client-Server-Architektur, in der ein MCP-Client zwischen den verwendeten LLMs und den MCP-Servern vermittelt. Der MCP-Client kann mit mehreren MCP-Servern kommunizieren, die eine Auswahl an Prompts, gespeicherten Ressourcen wie Datenbanken oder auch andere Tools anbieten, die das LLM für seine Aufgabenbewältigung mit in Betracht zieht.

Das Model-Context-Protocol bietet so einen standardisierten Zugriff auf Tools oder andere externe Ressourcen. Diese Normierung des Zugriffes ermöglicht es, Tools auszuwechseln, ohne eine Neukonfiguration des LLMs riskieren zu müssen. Gleichzeitig wird anderen Modellen durch die Veröffentlichung der jeweiligen MCP-Server auch der Zugriff auf die jeweiligen Tools vereinfacht.

Begriffliche Verortung

Einsatzmöglichkeiten in der Verwaltung

Auf der Verwaltungsseite bestehen unterschiedliche Möglichkeiten, Mitarbeitende mithilfe von KI-Agenten zu entlasten. Einige Anwendungsmöglichkeiten werden hier exemplarisch aufgelistet.

KI-Systeme können umfassende, selbstständige Recherchen durchführen, die interne Datenbanken, Dokumentenmanagementsysteme sowie das Internet einbeziehen. Dieser Prozess kann die Vorauswahl und Aktualitätsprüfung von Quellen ebenso umfassen wie auch das Kondensieren und adressatengerechte, kontextunabhängige Aufbereiten der Informationen. Ein wesentliches Merkmal von KI-Agenten ist dabei, dass sie ihren Arbeitsablauf dynamisch an Zwischenergebnisse anpassen und diese im Hinblick auf das Gesamtziel einordnen.

KI-Agenten können auch als juristische Unterstützung wertvoll sein. Beispielsweise könnte ein KI-Agent mit der juristischen Vorprüfung eines Entwurfs betraut werden. Dafür ermittelt der KI-Agent die Kernaussagen des Textes, gleicht diese automatisiert mit relevanten Gesetzespassagen ab und erstellt einen Bericht, in dem potenzielle Konflikte oder sonstige Risiken aufgezeigt werden. Der KI-Agent würde hier als Werkzeug dienen, um eine schnelle Ersteinschätzung zu erhalten mit dem Ziel, grobe Unstimmigkeiten früh im Prozess erkennbar zu machen.

KI-Agenten könnten für Bürger:innen als erster Ansprechpunkt dienen, bei dem sie ihr Anliegen rund um die Uhr anbringen können, um nicht nur die Terminvergabe zu automatisieren, sondern auch das Anlegen der Fallakte, die den Mitarbeitenden bereitgestellt wird. Ein solcher reibungsloser Behördenkontakt mit Fokus auf der Unterstützung von Bürger:innen birgt das Potenzial, das Vertrauen in Institutionen und Staat zu stärken.

Ein weiteres Potenzial ist die Einbindung bestehender Verwaltungssoftware in den dem KI-Agenten zur Verfügung stehenden Werkzeugsatz. Die unterschiedlichen Verwaltungen arbeiten bereits mit einer Vielzahl von Softwarelösungen, die Mitarbeitende bei der Bearbeitung vielfältiger Arbeitsaufträge unterstützen sollen. Dank des bereits erwähnten MCP, das eine KI-Agenten konforme Schnittstelle definiert, können die Funktionen der bestehenden Verwaltungssoftware auch für KI-Agenten nutzbar gemacht werden.

KI-Agenten könnten auch bei automatisierten Berichterstattungen und Kontrollen auf Rechtsmäßigkeit unterstützen. Denkbar wäre ein KI-Agent, dem auf unterschiedliche betriebsinterne Dokumente beziehungsweise Abläufe Zugriff gegeben wird und der anschließend anhand eines Regelwerkes einen Bericht für die entsprechende Behörde verfasst. Diese kann alle Schlussfolgerungen der KI überprüfen und entscheiden, wann ein Verdacht auf Regelverstoß zusätzliche Aufmerksamkeit erfordert.

Auch im Bereich des Krisenmanagements können KI-Agenten Teil der Antwort auf vielfältige Herausforderungen sein. KI-Agenten können unterschiedliche Metriken unermüdlich beobachten und bei auffälligen Anomalien verlässlich die entsprechende Notfallkette auslösen. KI-Agenten könnten beauftragt werden, dynamische politische Situationen kontinuierlich zu überwachen, um Entscheidungsträger:innen beispielsweise frühzeitig über sich entwickelnde Krisen zu informieren. In solch einem Moment könnte der KI-Agent mit einer Zusammenfassung der wichtigsten Ereignisse alle Beteiligten schnell auf einen aktuellen Stand bringen.

Voraussetzungen und Herausforderungen

Die ermöglichende Kerntechnologie moderner KI-Agenten birgt gleichzeitig erhebliche Risiken. Diese Risiken sind jedoch nicht spezifisch für KI-Agenten, sondern betreffen große Sprachmodelle (LLMs) generell. Dazu gehören die Gefahr von mangelnder Nachvollziehbarkeit des Outputs, eine begrenzte Kontextlänge, Biases oder die Reproduktion gesellschaftlicher Stereotype sowie Risiken bezüglich des Datenschutzes und der Cybersicherheit wie eine Manipulation der Systeme und ungeklärte Haftungsfragen.

Doch während bei klassischen Chatbots die Schäden zwar nicht zu unterschätzen, aber meist abstrakter sozialer Natur sind, könnten LLMs als Teil des Entscheidungszentrums von KI-Agenten durch die ihnen zur Verfügung gestellten Werkzeuge direkteren Schaden anrichten. 

Themenkonjunkturen

Folgenabschätzung

Möglichkeiten

  • Entlastung von Routineaufgaben  
  • Höhere Effizienz und schnellere Verfahren  
  • Verbesserte Bürger:inneninteraktion  
  • Monitoring und Krisenmanagement  
  • Abfedern des Fachkräftemangels  

Wagnisse

  • Intransparente Funktionsweise der Schlüsseltechnologie LLMs 
  • Limitierte Kontextlänge
  • Komplexe Entwicklung von Software-Anwendungen mit KI-Agenten-Beteiligung  
  • Frage der Haftbarkeit im Schadensfall beim Umgang mit KI-Agenten  
  • Mangelnde Datengrundlage

Handlungsräume

Ausprobieren  

Die aktive Entwicklung von KI-Agenten in der und für die öffentliche Verwaltung kann präventiv Abhängigkeiten entgegenwirken und die digitale Souveränität stärken. Ein pragmatischer Ansatz besteht darin, KI-Agenten zunächst in kontrollierten Sandboxes und begrenzten Anwendungsfällen zu erproben, um in dieser experimentellen Phase wertvolle Erfahrungswerte zu sammeln und die Erfolgswahrscheinlichkeiten für zukünftige, umfangreichere Projekte realistisch einzuschätzen. Für den Übergang zu breitflächig eingesetzten Anwendungen sollten Pilotprojekte priorisiert werden, die klare Mehrwerte bieten, niedrigschwellig umsetzbar sind und eine hohe Erfolgschance aufweisen. Nur durch diese schrittweise Herangehensweise kann die Verwaltung sowohl das Potenzial von KI-Agenten ausschöpfen als auch die damit verbundenen Risiken minimieren.

Datenbasis schaffen  

KI-Agenten können Kontextinformationen nutzen, um Anfragen besser zu bewältigen. Dafür müssen diese Daten verfügbar und sein und die entsprechenden Datenbanken kontinuierlich gepflegt und gewartet werden. Auch behördenspezifische Softwaretools und Datenbestände könnten so aufbereitet werden, dass diese dem KI-Agenten als weitere Quellen für die Anfragenbewältigung dienen. Das bedeutet vor allem, digitale Schnittstellen im MCP-Stil zu schaffen. Diese bilden das Fundament für die Umgebung, in der ein KI-Agent wirkt.

Standards etablieren und Kontrollen sicherstellen  

Die Bearbeitungsabläufe von KI-Agenten sollten gespeichert werden, um im Zweifelsfall eine bessere Nachvollziehbarkeit zu garantieren und so auf eine faire Behandlung prüfen und die Abläufe gegebenenfalls korrigieren zu können. Mindestsicherheitsstandards und Kontrollen, die sich auf die Ausführungsumgebung und den Anwendungszweck von KI-Agenten beziehen, können Cyberattacken oder anderweitigen Missbrauch vorbeugen (siehe Denkende Maschinen). Behörden und Institutionen könnten sich bei der Beschaffung von KI-Agenten auf diese Mindeststandard beziehen, die beispielsweise die Erklärbarkeit der Entscheidungen oder die Qualität der Trainingsdaten sicherstellen.

Forschungsförderung zu erklärbaren KI-Agenten 

Der Staat kann weitere Investitionen in die wissenschaftliche Ergründung der Erklärbarkeit von KI-Modellen tätigen, um KI-Entscheidungen nachvollziehbarer zu machen und die zugrundeliegenden Konzepte besser zu verstehen. Durch ein verbessertes Verständnis der wirkenden Mechanismen lässt sich zuverlässiger entscheiden, in welchen Situationen eine KI-Agenten-gestützte Entscheidung eher zu hinterfragen ist als in anderen.

Kompetenzen aufbauen  

Fortbildungen, in denen öffentlich Bediensteten Grundkenntnisse im Umgang mit generativer KI vermittelt werden, schaffen Berührungspunkte, Vertrauen und Verständnis. Die Öffentlichkeit sollte ebenfalls aufgeklärt werden über das Potenzial, aber auch die Grenzen von generativer KI beziehungsweise KI-Agenten. Dadurch werden die Vorrausetzungen geschaffen, um Mitarbeitende wie auch Bürger:innen partizipativ in den Entwicklungsprozess mit einzubinden mit dem Ziel, eine nutzendenzentrierte Umsetzung sicherzustellen. So wird nicht nur Akzeptanz bei den Endnutzer:innen, geschaffen, sondern ebenfalls die Wahrscheinlichkeit erhöht, dass die entwickelten Tools auch praxistauglich sind.  

Quellen & Weiterführendes

Shunyu Yao, Jeffrey Zhao, DIan Yu, Nan Du, Izhak Shafran, Karthik Narasimhan, Yuan Cao (2023) ReAct: Synergizing Reasoning and Acting in Language Models

Qingyun Wu, Gagan Bansal, Jieyu Zhang, Yiran Wu, Beibin Li, Erkang Zhu, Li Jiang, Xiaoyun Zhang, Shaokun Zhang, Jiale Liu, Ahmed Hassan Awadallah, Ryen W White, Doug Burger, Chi Wang (2023) AutoGen: Enabling Next-Gen LLM Applicatoins via Multi-Agent Conversation

Xingyao Wang, Yangyi Chen, Lifan Yuan, Yizhe Zhang, Yunzhu Li, Hao Peng, Heng Ji (2024) Executable Code Actions Elicit Better LLM Agents

Nestor Maslej, Loredana Fattorini, Raymond Perrault, Yolanda Gil, Vanessa Parli, Njenga Kariuki, Emily Capstick, Anka Reuel, Erik Brynjolfsson, John Etchemendy, Katrina Ligett, Terah Lyons, James Manyika, Juan Carlos Niebles, Yoav Shoham, Russell Wald, Tobi Walsh, Armin Hamrah, Lapo Santarlasci, Julia Betts Lotufo, Alexandra Rome, Andrew Shi, Sukrut Oak (2025) Artifical Intelligence Index Report 2025

Lisa Soder, Julia Smakman, Connor Dunlop, Oliver Sussman (2025) An Autonomy-Based Classification

Lilian Weng (2023) LLM Powered Autonomous Agents

Zhiheng Xi, Wenxiang Chen, Xin Guo, Wei He, Yiwen Ding, Boyang Hong, Ming Zhang, Junzhe Wang, Senjie Jin, Enyu Zhou, Rui Zheng, Xiaoran Fan, Xiao Wang, Limao Xiong, Yuhao Zhou, Weiran Wang, Changhao Jiang, Yicheng Zou, Xiangyang Liu, Zhangyue Yin, Shihan Dou, Rongxiang Weng, Wensen Cheng, Qi Zhang, Wenjuan Qin, Yongyan Zheng, Xipeng Qiu, Xuanjing Huang, Tao Gui (2023) The Rise and Potential of Large Language Model Based Agents: A Survey

Luukas Lives, Manuel Kilian, Tiago C. Peixoto, Ott Velsberg (2025) The Agentic State

Das Bild im Mosaikstil zeigt ein Holzhaus an dem eine Handvoll humanoider Roboter gemeinsam eifrig arbeiten. Ein Roboter übernimmt die Funktion des Architekten, andere hantieren mit verschienden Farben, einige messen die Dimensionen aus.
Erzeugt mit Gemini Nano Banana

Veröffentlicht: 

Lesezeit: 11 Minuten
2190 Wörter

Teilen

 https://www.oeffentliche-it.de/trends/trendschau/trendthemen/ki-agenten/

 Drucken