Ein Softwaresystem repariert eigenständig fehlerhaften Code. Es identifiziert das Problem, modifiziert drei Quelldateien, generiert Testfälle und überträgt die Änderungen ins Versionskontrollsystem. Der Entwickler, für den es arbeitet, hat währenddessen nichts weiter getan als den Auftrag zu formulieren.
Was hier beschrieben wird, ist kein Zukunftsszenario. Es ist Arbeitsalltag für Tausende von Softwareentwicklern im Jahr 2025. Was vor wenigen Jahren noch als ambitionierte Forschungsvision galt, hat sich in konkreten Produkten und messbaren Geschäftsergebnissen materialisiert. Und es markiert einen tiefgreifenden Wandel in der Art, wie wir mit künstlicher Intelligenz interagieren. Die Systeme, die solche Aufgaben bewältigen, werden als AI-Agenten bezeichnet. Der Begriff ist in den vergangenen Monaten zu einem der meistdiskutierten Konzepte der Technologiebranche geworden, häufig begleitet von überzogenen Versprechungen und unscharfen Definitionen. Dieser Beitrag liefert die notwendige Klarheit.
Was einen Agenten vom Chatbot unterscheidet
Die Differenz zwischen einem konventionellen Chatbot und einem AI-Agenten lässt sich auf eine einfache Formel bringen: Ein Chatbot antwortet. Ein Agent handelt.
Ein Chatbot, selbst einer, der auf modernen Sprachmodellen basiert, operiert reaktiv. Er nimmt eine Eingabe entgegen, verarbeitet sie und produziert eine textuelle Ausgabe. Nach jeder Interaktion kehrt er in seinen Ausgangszustand zurück. Die Konversation mag intelligent wirken, doch das System selbst bleibt passiv. Es wartet auf die nächste Eingabe, ohne eigene Initiative zu entwickeln.
Ein Agent hingegen verfolgt Ziele. Er analysiert eine Aufgabenstellung, entwickelt eine Strategie zu ihrer Bewältigung, führt eigenständig Aktionen durch und evaluiert deren Ergebnisse. Scheitert ein Ansatz, wählt er einen alternativen Weg. Er interagiert mit externen Systemen, greift auf Datenbanken zu, durchsucht das Internet, manipuliert Dateien. Er arbeitet, bis das Ziel erreicht ist oder bis er erkennt, dass es unerreichbar bleibt.
A chatbot talks. An agent acts. (Ein Chatbot redet. Ein Agent handelt.)"
— Salesforce
Diese Differenz ist nicht gradueller Natur. Sie markiert einen kategorialen Unterschied in der Beziehung zwischen Mensch und Maschine. Wer einen Chatbot nutzt, stellt Fragen. Wer einen Agenten einsetzt, delegiert Aufgaben. Der Chatbot ist ein Gesprächspartner, der Agent ein Mitarbeiter mit eigenem Handlungsspielraum.
Die grundlegenden Fähigkeiten
Was befähigt ein System dazu, als Agent zu operieren? Nach Auswertung der einschlägigen Forschungsliteratur und der Produktankündigungen führender Technologieunternehmen kristallisieren sich vier zentrale Eigenschaften heraus:
Autonomie
Der Agent trifft Entscheidungen eigenständig, ohne für jeden Teilschritt menschliche Bestätigung einzuholen. Der Nutzer definiert das Ziel; der Weg dorthin liegt im Ermessen des Systems. Diese Autonomie unterscheidet sich fundamental von der Arbeitsweise traditioneller Software, die jeden Schritt explizit programmiert bekommt. Ein Reisebuchungsagent etwa wählt selbstständig zwischen verschiedenen Airlines, optimiert nach den Präferenzen des Nutzers und passt die Route an, wenn Flüge ausfallen.
Planungsfähigkeit
Umfangreiche Aufgaben werden in Teilprobleme zerlegt und sequenziell oder parallel abgearbeitet. Der Agent antizipiert notwendige Schritte und strukturiert sein Vorgehen entsprechend. Er kann mehrstufige Strategien entwickeln und diese während der Ausführung anpassen, wenn sich die Situation ändert. Bei der Erstellung eines Forschungsberichts beispielsweise identifiziert der Agent zunächst relevante Quellen, extrahiert Kernaussagen, synthetisiert die Erkenntnisse und formatiert das Ergebnis, wobei er die Reihenfolge dynamisch anpasst, wenn bestimmte Quellen unzugänglich sind.
Werkzeugnutzung
Die Interaktion beschränkt sich nicht auf Textgenerierung. Agenten rufen Programmierschnittstellen auf, führen Datenbankabfragen durch, steuern Webbrowser, schreiben und lesen Dateien. Sie greifen aktiv in ihre digitale Umgebung ein. Das Spektrum der verfügbaren Werkzeuge bestimmt maßgeblich, welche Aufgaben ein Agent bewältigen kann.
Adaptivität
Erweist sich ein gewählter Ansatz als ineffektiv, modifiziert der Agent seine Strategie. Er lernt innerhalb einer Sitzung aus Fehlschlägen und justiert sein Verhalten entsprechend nach. Diese Fähigkeit zur Selbstkorrektur unterscheidet moderne Agenten von starren Automatisierungslösungen.
Microsoft fasst diese Eigenschaften unter dem Begriff 'Agentic AI' zusammen und definiert sie als Systeme, die 'planen, schlussfolgern und handeln, um Aufgaben mit minimaler menschlicher Aufsicht zu erledigen.' Diese Definition hat sich in der Branche weitgehend durchgesetzt. OpenAI, Anthropic und Google verwenden ähnliche Formulierungen in ihrer Produktkommunikation. Die Konvergenz der Definitionen deutet auf ein geteiltes Verständnis dessen hin, was diese Systeme grundlegend ausmacht.
Der globale Einsatz von Agenten
Die theoretische Differenzierung gewinnt an Kontur, wenn man den Blick auf konkrete Anwendungen richtet. AI-Agenten sind längst keine Laborexperimente mehr; sie operieren produktiv in verschiedenen Branchen und auf drei Kontinenten.
Kundenservice: Das Klarna-Beispiel
Der schwedische Zahlungsdienstleister Klarna liefert die wohl am besten dokumentierte Implementierung eines Kundenservice-Agenten. Im Februar 2024 veröffentlichte das Unternehmen detaillierte Zahlen: In seinem ersten Einsatzmonat führte der auf OpenAI basierende Agent 2,3 Millionen Konversationen und übernahm damit zwei Drittel aller Kundenservice-Chats. Die Kapazitätsäquivalenz entspricht laut Klarna 700 Vollzeitstellen.
Die Leistungsdaten sind bemerkenswert: Die durchschnittliche Bearbeitungszeit sank von elf Minuten auf unter zwei Minuten. Wiederholte Anfragen zum selben Problem reduzierten sich um 25 Prozent, was auf präzisere Problemlösung hindeutet. Bei der Kundenzufriedenheit erreichte der Agent Werte, die mit menschlichen Mitarbeitern vergleichbar sind. Klarna bezifferte die projizierte Gewinnverbesserung für 2024 auf 40 Millionen Dollar.
Allerdings zeigt die weitere Entwicklung auch die Grenzen des Ansatzes. Im Jahr 2025 räumte Klarna-CEO Sebastian Siemiatkowski ein, dass das Unternehmen zu stark auf Kostensenkung fokussiert gewesen sei und wieder verstärkt in menschliche Mitarbeiter investiere, da die Qualität gelitten habe.
Softwareentwicklung: Produktivitätsgewinne und ihre Grenzen
Werkzeuge wie GitHub Copilot, Claude Code oder Cursor haben sich von Code-Vervollständigungssystemen zu vollwertigen Entwicklungsassistenten gewandelt. Aktuelle Versionen navigieren durch Projektstrukturen, führen Tests aus, identifizieren und beheben Fehler, dokumentieren Änderungen.
Die Produktivitätszahlen variieren je nach Studie erheblich. Eine kontrollierte Untersuchung ergab, dass Entwickler mit GitHub Copilot Aufgaben 55 Prozent schneller abschlossen als ohne: durchschnittlich eine Stunde und elf Minuten gegenüber zwei Stunden und 41 Minuten. Entwickler berichten, dass Copilot ihnen hilft, im Arbeitsfluss zu bleiben (73 Prozent) und mentale Energie bei repetitiven Aufgaben zu sparen (87 Prozent).
Die Adoptionszahlen sind beeindruckend: Über 20 Millionen Entwickler weltweit nutzen GitHub Copilot, davon etwa 1,3 Millionen als zahlende Abonnenten. 90 Prozent der Fortune-100-Unternehmen haben das Werkzeug eingeführt. Branchenweit schreiben AI-Werkzeuge mittlerweile 46 Prozent des gesamten Codes.
Die nächste Generation dieser Werkzeuge geht noch weiter. Systeme wie Devin von Cognition Labs oder Claude Code von Anthropic arbeiten nicht mehr nur als Assistenten, sondern als eigenständige Entwicklungsagenten. Sie können komplette Features implementieren, Pull Requests erstellen und Code-Reviews durchführen, während der menschliche Entwickler andere Aufgaben erledigt. Die Arbeitsweise verändert sich grundlegend: Statt Code Zeile für Zeile zu schreiben, formulieren Entwickler Anforderungen in natürlicher Sprache und überprüfen die generierten Lösungen. Die Rolle verschiebt sich vom Programmierer zum Architekten und Qualitätsprüfer. Ob diese Verschiebung langfristig die Qualifikationsanforderungen erhöht oder senkt, ist Gegenstand intensiver Debatten in der Branche.
Allerdings existieren auch kritische Befunde. Eine GitClear-Analyse von 2024 stellte fest, dass KI-generierter Code eine 41 Prozent höhere Überarbeitungsrate aufweist als menschlich geschriebener Code. Eine Uplevel-Studie fand, dass Entwickler mit Copilot-Zugang eine signifikant höhere Fehlerrate produzierten. Die Technologie beschleunigt die Codeproduktion, aber nicht notwendigerweise die Produktion von qualitativ hochwertigem Code.
Finanzprozesse und Logistik
Das Fintech-Unternehmen Ramp stellte Mitte 2025 einen Agenten vor, der Spesenabrechnungen autonom bearbeitet. Er analysiert Unternehmensrichtlinien, vergleicht eingereichte Belege mit den Vorgaben, markiert Regelverstöße und autorisiert Erstattungen, ohne menschliche Intervention. Die Automatisierung erfasst den gesamten Prozess von der Belegeinreichung bis zur Freigabe.
Walmart setzt nach eigenen Angaben einen 'AI Super Agent' ein, der Verkaufsdaten, Lieferketteninformationen, Wetterprognosen und lokale Konsumtrends synthetisiert, um Lagerbestände zu optimieren. Das System fungiert nicht als Empfehlungsgeber, sondern als autonomer Entscheider, der Bestellvorgänge initiiert. Die Integration verschiedener Datenquellen in Echtzeit ermöglicht Reaktionszeiten, die menschliche Planer nicht erreichen können. Wenn ein Hurrikane auf Florida zusteuert, erhöht der Agent automatisch die Bestände von Taschenlampen, Batterien und Wasser in den betroffenen Filialen, bevor menschliche Disponenten die Wetterdaten überhaupt gesichtet haben.
Im Gesundheitswesen experimentieren Versicherer mit Agenten zur Schadensabwicklung. Die Systeme analysieren eingereichte Rechnungen, gleichen sie mit Versicherungsverträgen ab und autorisieren Erstattungen innerhalb von Minuten statt Tagen. Die Geschwindigkeit ist beeindruckend, doch sie wirft Fragen auf: Wer prüft, ob die Entscheidung korrekt war? Die ethischen und regulatorischen Implikationen dieser Automatisierung sind erheblich und werden in Teil 4 dieser Serie behandelt.
Diese Implementierungen haben das Pilotstadium längst hinter sich gelassen. Sie sind operativer Bestandteil der jeweiligen Geschäftsprozesse.
Europa: Mistral AI und Aleph Alpha
Europa positioniert sich mit eigenen Agentenplattformen. Das französische Unternehmen Mistral AI, gegründet 2023 in Paris, hat sich zum führenden europäischen Anbieter von Sprachmodellen entwickelt. In seiner jüngsten Finanzierungsrunde im September 2025 sammelte Mistral 1,7 Milliarden Euro ein; die Bewertung liegt bei etwa 11,7 Milliarden Euro. Die Plattform umfasst Tools wie AI Studio, Le Chat und Mistral Code, die Suche, Erstellung, Programmierung und Automatisierung unterstützen.
Das deutsche Unternehmen Aleph Alpha aus Heidelberg verfolgt einen anderen Ansatz. Nach einer Finanzierungsankündigung von über 500 Millionen Dollar im Jahr 2023, die neben Eigenkapital auch Forschungsförderungen und Kundenaufträge umfasste, hat Aleph Alpha seinen Fokus von eigenen Sprachmodellen auf ein 'generative AI operating system' namens Pharia verlagert. Die Luminous-Modelle des Unternehmens konzentrieren sich auf Erklärbarkeit und Sicherheit, was besonders für den Einsatz in regulierten Branchen wie Finanzdienstleistungen und öffentlicher Verwaltung relevant ist. Anfang 2025 stellte Aleph Alpha eine tokenfreie Architektur vor, die Rechenkosten um bis zu 70 Prozent senken soll.
Europäische Anbieter positionieren sich bewusst als Alternative zu amerikanischen Unternehmen. Der AI Act der Europäischen Union schafft Rechtssicherheit, die für risikoscheue Unternehmenskunden attraktiv ist. Behörden und Finanzinstitute ziehen europäische Anbieter oft vor, wenn Datensouveränität und Compliance mit lokalen Vorschriften im Vordergrund stehen. Diese Differenzierung könnte sich als Wettbewerbsvorteil erweisen, auch wenn europäische Unternehmen bei Skalierung und Kapitalisierung hinter ihren amerikanischen Konkurrenten zurückliegen.
China: Baidu, ByteDance und die Plattformökonomie
Der chinesische Markt entwickelt sich parallel zum westlichen, mit eigenen Plattformen und Anwendungsmustern. ByteDances Chatbot Doubao erreichte im Dezember 2024 mit 9,9 Millionen Downloads das höchste Wachstum aller KI-Chatbots in China. Das System wird auf den Plattformen Toutiao und Douyin eingesetzt, um automatisch Werbetexte, Videoskripte und Produktbeschreibungen zu generieren.
Baidu hat Anfang 2025 'digitale Mitarbeiter' vorgestellt, die auf KI-Agenten basieren. Diese Systeme kombinieren technische Fähigkeiten mit Branchenwissen und werden als virtuelle Mitarbeiter für Rollen wie Marketing-Manager, Kreditsachbearbeiter und Autoverkäufer vermarktet. Der Ansatz zielt auf die Automatisierung spezialisierter Tätigkeiten, nicht auf allgemeine Assistenz.
Alibabas Cloud-Sparte führt den breiteren Cloud-Sektor mit einem Marktanteil von 33 Prozent an und plant, seine KI-Dienste im Rahmen eines 380-Milliarden-Yuan-Investitionsplans auf internationale Rechenzentren auszuweiten. Die chinesischen Tech-Giganten befinden sich in einem intensiven Preiswettbewerb, der die Adoptionsbarrieren für Unternehmenskunden senkt.
Die Dynamik des chinesischen Marktes unterscheidet sich von der westlichen: Hier ist die Integration von KI-Funktionen in bestehende Super-Apps der dominante Verbreitungsweg. WeChat, Alipay und Douyin erreichen jeweils hunderte Millionen täglicher Nutzer. Ein Agent, der in diese Plattformen eingebettet wird, hat sofortigen Zugang zu einer massiven Nutzerbasis. Die Skalierung verläuft daher oft schneller als im fragmentierten westlichen Markt, wo jede Anwendung ihre eigene Nutzerbasis aufbauen muss.
Die Faktoren der Beschleunigung
Das Konzept des softwarebasierten Agenten ist nicht neu; die KI-Forschung diskutiert es seit Jahrzehnten. Weshalb jedoch gewinnt es gerade jetzt an praktischer Relevanz?
Mehrere Entwicklungen treffen zusammen:
Die Reasoning-Fähigkeiten großer Sprachmodelle haben einen kritischen Schwellenwert überschritten. Systeme wie GPT-4, Claude oder Gemini erfassen komplexe Zusammenhänge, entwickeln mehrstufige Lösungsstrategien und können ihre Schlussfolgerungen kohärent artikulieren. Diese kognitive Grundlage war vor fünf Jahren technisch nicht realisierbar. Die Modelle haben eine Qualitätsschwelle erreicht, ab der autonomes Handeln in vielen Kontexten zuverlässig genug funktioniert.
Die infrastrukturellen Voraussetzungen existieren. Nahezu jeder digitale Dienst bietet heute Programmierschnittstellen an. Cloud-Computing stellt skalierbare Rechenkapazität bereit. Protokolle wie Anthropics Model Context Protocol schaffen standardisierte Verbindungen zwischen Agenten und externen Systemen. Die technischen Bausteine sind verfügbar und zunehmend interoperabel.
Der ökonomische Druck intensiviert sich. Laut einer IBM-Erhebung arbeiten 99 Prozent der Entwickler, die Enterprise-KI implementieren, bereits an Agentensystemen oder evaluieren deren Einsatz. Deloitte prognostiziert, dass ein Viertel aller KI-nutzenden Unternehmen noch 2025 Agenten-Pilotprojekte starten wird; bis 2027 soll sich dieser Anteil verdoppeln.
Die Gartner-Prognosen sind aufschlussreich: 2024 wurden null Prozent der betrieblichen Entscheidungen autonom von Agenten getroffen. Für 2028 projiziert Gartner einen Anteil von 15 Prozent. Bis 2028 sollen 33 Prozent aller Unternehmenssoftware agentische Komponenten enthalten, verglichen mit weniger als einem Prozent 2024. Im B2B-Bereich erwartet Gartner, dass Agenten bis 2028 mehr als 15 Billionen Dollar Transaktionsvolumen vermitteln werden.
Die Grenzen des Konzepts
Es wäre unverantwortlich, diese Technologie ohne Hinweis auf ihre ernsthaften Einschränkungen darzustellen.
Das gravierendste Problem betrifft die Zuverlässigkeit. Große Sprachmodelle operieren nicht-deterministisch: Identische Eingaben können divergierende Ausgaben produzieren. Bei einem Chatbot zeigt sich dies als gelegentliche Inkonsistenz. Bei einem Agenten, der eigenständig Entscheidungen trifft und in Systeme eingreift, vervielfachen sich die Konsequenzen. Ein falsch verstandener Befehl kann zu einer Kaskade von Fehlhandlungen führen, bevor ein Mensch eingreifen kann.
Hinzu kommt das Phänomen der Halluzination. Sprachmodelle generieren gelegentlich plausibel klingende, aber sachlich falsche Informationen. Ein Chatbot präsentiert diese Fehlinformation dem Nutzer, der sie verifizieren kann. Ein Agent hingegen handelt möglicherweise auf Basis falscher Prämissen und trifft Entscheidungen, bevor ein Mensch eingreifen kann. Die Klarna-Erfahrung zeigt, dass selbst erfolgreiche Implementierungen Qualitätsprobleme entwickeln können.
Die Projektrealität ist ernüchternd. Gartner prognostiziert, dass über 40 Prozent aller agentischen KI-Projekte bis Ende 2027 eingestellt werden, aufgrund eskalierender Kosten, unklarem Geschäftsnutzen oder inadäquater Risikokontrollen. Viele Anbieter betreiben 'Agent Washing', die Umbenennung existierender Produkte ohne substanzielle agentische Fähigkeiten. Gartner schätzt, dass nur etwa 130 der tausenden Anbieter, die agentische KI bewerben, tatsächlich relevante Produkte haben.
Schließlich stellt sich die Frage der Kontrolle und Verantwortlichkeit. Das vertretbare Maß an Autonomie und die rechtliche Verantwortung für folgenschwere Fehlentscheidungen sind bislang nicht abschließend geklärt; die Dringlichkeit dieser Fragen wächst mit jeder neuen Implementierung. Das kanadische Urteil gegen Air Canada, in dem ein Gericht das Unternehmen für falsche Auskünfte seines Chatbots haftbar machte, deutet die Richtung an: Unternehmen können sich nicht hinter der angeblichen Autonomie ihrer Systeme verstecken. Die rechtlichen Rahmenbedingungen sind jedoch noch im Entstehen begriffen. Der EU AI Act wird ab 2026 vollständig anwendbar sein und könnte Standards setzen, die weltweit Nachahmung finden. Bis dahin bewegen sich viele Implementierungen in einer regulatorischen Grauzone.
Nicht zu unterschätzen sind auch die Kosten. Jede Iteration des Agent-Loops konsumiert Rechenressourcen, jeder API-Aufruf generiert Gebühren. Diese Kosten können sich schnell akkumulieren. Ein Agent, der zwanzig Schritte benötigt, um eine Aufgabe zu lösen, kostet ein Vielfaches einer einzelnen Chatbot-Anfrage. Für manche Anwendungsfälle rechnet sich das; für andere nicht.
Die Auseinandersetzung mit diesen Risiken wird Gegenstand von Teil 4 dieser Serie sein.
Ausblick
Soweit die Grundlagen. Wer AI-Agenten verstehen will, muss aber auch wissen, was unter der Haube passiert. Der nächste Teil dieser Serie erklärt, wie ein Agent seine Schritte plant und wie er sich Informationen über eine Sitzung hinaus merkt. Er beleuchtet die Zusammenarbeit mehrerer Agenten und untersucht, welche architektonischen Muster sich bewährt haben.
Die Technologie entwickelt sich in einem Tempo, das selbst für Branchenkenner schwer zu verfolgen ist. Zwischen der Veröffentlichung von ChatGPT im November 2022 und dem Erscheinen ausgereifter Agentensysteme vergingen weniger als drei Jahre. Die Grenze zwischen dem, was möglich ist und dem, was noch Science-Fiction bleibt, verschiebt sich monatlich. Was heute als Demonstration gilt, kann morgen Produktionsstandard sein.
Ich arbeite selbst täglich mit diesen Systemen und bin regelmäßig überrascht, was funktioniert und was nicht. Die Produktivitätsgewinne sind real, aber sie erfordern ein Verständnis der Mechanismen und Grenzen. Der nächste Teil dieser Serie erklärt die technischen Grundlagen dahinter.
Weiter mit Teil 2: Technik: Wie AI-Agenten funktionieren.
Quellenverzeichnis
[1] Klarna (2024): 'Klarna AI assistant handles two-thirds of customer service chats in its first month.' Pressemitteilung, 27. Februar 2024.
[2] GitHub Blog (2022): 'Research: quantifying GitHub Copilot's impact on developer productivity and happiness.'
[3] GitClear (2024): Analyse zur Code-Qualität bei KI-generiertem Code. Visual Studio Magazine, September 2024.
[4] Vestbee (2025): 'Generative AI in 2025: $69B+ in funding, global leaders, and Europe's role in the race.'
[5] Fortune Europe (2024): 'Germany's Aleph Alpha is Europe's best hope for developing AI advancement outside Silicon Valley.'
[6] TrendForce (2024): 'Latest Development on AI Models of China's Top Techs: Alibaba, Baidu, ByteDance, Huawei and Tencent.'
[7] IBM / Deloitte (2024): Enterprise AI Adoption Reports.
[8] Gartner (2024/2025): Multiple press releases on AI agents and enterprise software predictions.
[9] Gartner (2025): 'Gartner Predicts Over 40% of Agentic AI Projects Will Be Canceled by End of 2027.' Pressemitteilung, 25. Juni 2025.