Ein Backend-Entwickler bei einem Hamburger Fintech stellt seine IDE-Erweiterung von GitHub Copilot auf Claude Code um. Drei Wochen später hat sich sein Arbeitsalltag spürbar verändert. Statt einzelne Codezeilen zu akzeptieren oder abzulehnen, beschreibt er Aufgaben in zwei bis drei Sätzen und beobachtet, wie das Tool eigenständig Dateien öffnet, Abhängigkeiten analysiert, Tests schreibt und Pull Requests erstellt.

Genau das meint die Branche, wenn sie von „agentic coding“ spricht. Kein Vorschlag mehr. Aktion.

Anthropic veröffentlichte Claude Code im Mai 2025 als CLI-Tool, das direkt im Terminal läuft. Im Stack Overflow Developer Survey 2025 führt Anthropics Claude mit 67 Prozent das „Most Admired“-Ranking der Sprachmodelle an. Gleichzeitig wächst der Markt für AI-gestützte Softwareentwicklung von 7,37 Milliarden US-Dollar (2025) auf prognostizierte 23,97 Milliarden bis 2030, laut Markets and Markets. Hinter diesen Zahlen steht eine Frage, die für jeden Entwickler relevant ist: Was genau unterscheidet Claude Code von den Alternativen, und für wen lohnt sich der Umstieg?

Vom Autocomplete zum Softwareagenten

Vier Phasen prägen die Geschichte der AI-Coding-Tools. Mit diesem Hintergrund lässt sich schneller erkennen, warum Claude Code anders funktioniert als seine Vorgänger.

Phase eins begann um 2019 mit einfachen Autocomplete-Systemen wie TabNine und Kite, die das nächste Wort oder die nächste Zeile vorhersagten, ähnlich wie die Textvervollständigung auf dem Smartphone. Nützlich für Boilerplate-Code, aber intellektuell begrenzt. Kite stellte den Betrieb 2022 ein. Grund: ein Geschäftsmodell, das sich mit reiner Autovervollständigung nicht tragen ließ.

Phase zwei startete im Juni 2022, als GitHub Copilot allgemein verfügbar wurde und auf einen Schlag ganze Funktionen vorschlagen, Code aus Kommentaren generieren und Muster aus dem Kontext erkennen konnte. GitHub berichtete von 55 Prozent schnellerer Aufgabenerledigung in kontrollierten Studien. Real war diese Produktivitätssteigerung durchaus. Aber das Interaktionsmodell blieb passiv: Entwickler schrieben Code, und das Tool schlug Ergänzungen vor. Ein Assistent, kein Akteur.

Phase drei brachte den Chat. Anfang 2023 integrierten Copilot, Cursor und andere Tools ChatGPT-ähnliche Interfaces direkt in die IDE. Entwickler konnten Fragen stellen, Code erklären lassen und Refactoring-Vorschläge diskutieren. Erheblicher Fortschritt, keine Frage. Aber am Grundprinzip änderte sich nichts: Ausführung blieb beim Menschen, Beratung bei der Maschine.

Parallel dazu entstand eine neue Kategorie: spezialisierte AI-IDEs. Cursor startete Mitte 2023 als Fork von VS Code mit tief integrierten AI-Funktionen. Windsurf (damals noch unter dem Namen Codeium bekannt) folgte kurz darauf. Beide setzten auf die gleiche Idee: Wenn die IDE von Grund auf für AI-Unterstützung gebaut ist, lassen sich Funktionen realisieren, die als Plugin unmöglich wären. Eine Fragmentierung des Marktes war die Folge, und sie hält bis heute an.

Phase vier, die aktuelle, dreht dieses Verhältnis um. Tools wie Claude Code und Cursor im Agent-Modus führen Aufgaben selbstständig aus: Quellcode lesen, durch Verzeichnisse navigieren, mehrere Dateien gleichzeitig editieren, Tests ausführen und Fehler in einer Schleife korrigieren, ohne dass der Entwickler jeden einzelnen Schritt anstoßen muss. Statt selbst zu tippen, wird er zum Auftraggeber und Qualitätsprüfer. Klingt nach einer Kleinigkeit. In der Praxis verändert es die gesamte Arbeitsweise grundlegend, weil nicht mehr einzelne Zeilen, sondern ganze Arbeitsaufträge die Interaktionseinheit bilden.

Wie schnell sich das Feld entwickelt hat, überrascht selbst Branchenkenner. Zwischen Phase eins und Phase vier lagen keine zehn Jahre. GitHub Copilot zählt mittlerweile über 15 Millionen Nutzer, und Cursor sammelte im August 2024 eine Finanzierungsrunde von 60 Millionen Dollar ein, bevor das Unternehmen im November 2025 eine Bewertung von 29,3 Milliarden Dollar erreichte. Anthropic schloss im Februar 2026 eine Series-G-Runde über 30 Milliarden Dollar ab, bei einer Bewertung von 380 Milliarden Dollar. Kein Experiment mehr. AI-Coding ist ein Markt, in dem Unternehmen um Entwickler-Workflows kämpfen.

Wie funktioniert Claude Code unter der Haube?

Claude Code ist kein IDE-Plugin, sondern ein Terminal-Programm, das nach der Installation über den nativen Installer mit einem einfachen Befehl startet: „claude“. Ab diesem Moment hat das Tool Zugriff auf das Dateisystem, die Shell und Git. Es liest Verzeichnisstrukturen, öffnet Dateien, führt Befehle aus und beobachtet die Ergebnisse, ohne dass der Entwickler zwischen verschiedenen Fenstern wechseln muss. Dass Claude Code im Terminal läuft statt in einer IDE-Integration, war bewusst gewählt: Es soll überall funktionieren, unabhängig davon ob jemand VS Code, Neovim oder IntelliJ bevorzugt.

Unter der Haube arbeitet Claude Code mit Anthropics Sprachmodellen Sonnet 4.6 und Opus 4.6. Sonnet ist das schnellere Modell für alltägliche Aufgaben wie Dateien durchsuchen, kleinere Refactorings und Testgenerierung, während Opus bei komplexen Architekturentscheidungen und anspruchsvollen Analysen zum Einsatz kommt. 200.000 Token umfasst das Kontextfenster, was etwa 150.000 Wörtern entspricht. Klingt viel. Für die meisten Projekte reicht es, aber bei großen Monorepos mit Tausenden Dateien stößt auch dieses Fenster an seine Grenzen.

Jeder Arbeitszyklus folgt einem Observe-Plan-Act-Muster. Zuerst beobachtet Claude Code: Es liest die relevanten Dateien, analysiert die Projektstruktur und identifiziert Abhängigkeiten. Dann plant es. Bei komplexeren Aufgaben erstellt das Tool einen expliziten Plan, den der Entwickler prüfen und anpassen kann, bevor auch nur eine Zeile geschrieben wird. Schließlich handelt es: Dateien werden editiert, Tests ausgeführt, Fehler korrigiert. Beobachten, planen, handeln. Dieser Dreiklang wiederholt sich, bis die Aufgabe erledigt ist oder das Tool auf ein Problem stößt, das menschliche Entscheidung erfordert.

Ein entscheidender Unterschied zu Chat-basierten Tools: Claude Code merkt sich den Kontext innerhalb einer Session und vergisst nicht, welche Dateien es bereits gelesen hat und welche Entscheidungen getroffen wurden. Kein ständiges Wiederholen. Über Sessions hinweg speichert die Datei CLAUDE.md im Projektverzeichnis Regeln, Konventionen und projektspezifisches Wissen, das bei jedem Start automatisch geladen wird. Damit löst Claude Code ein Problem, an dem viele AI-Tools scheitern: den Kontext zwischen Arbeitseinheiten zu bewahren.

Granular steuerbar ist auch die Tool-Nutzung. Entwickler können festlegen, welche Aktionen Claude Code automatisch ausführen darf und welche eine explizite Bestätigung erfordern. Datei lesen? Meistens automatisch erlaubt. Datei schreiben? Erst nach Bestätigung. Shell-Befehle ausführen? Je nach Konfiguration. Diese Abstufung ist kein Randfeature, sondern der Mechanismus, der agentic Coding überhaupt erst praxistauglich macht, weil Entwickler genau kontrollieren, wie viel Autonomie sie abgeben.

Ein technisches Detail verdient besondere Beachtung: Prompt Caching. Bei wiederholten Anfragen innerhalb eines Projekts muss Claude Code nicht jedes Mal den gesamten Kontext neu verarbeiten, weil häufig gelesene Dateien, die CLAUDE.md und die Projektstruktur zwischengespeichert werden. Bis zu 90 Prozent geringere API-Kosten sind das Ergebnis, und für Vielnutzer, die täglich mehrstündige Coding-Sessions absolvieren, macht genau das den Unterschied zwischen einer brauchbaren und einer unbezahlbaren Monatsbilanz.

Fünf Werkzeuge, fünf Philosophien

So fragmentiert wie 2026 war der Markt für AI-Coding-Tools nie zuvor. Fünf Werkzeuge dominieren die Diskussion unter Entwicklern, aber jedes verfolgt einen grundlegend anderen Ansatz. Ein Überblick.

Hinter den Zahlen stehen grundlegend verschiedene Produktphilosophien. GitHub Copilot setzt auf Reichweite. Es läuft in fast jeder IDE, hat die größte Nutzerbasis und bietet für Teams, die bereits im GitHub-System arbeiten, den Weg des geringsten Widerstands. Im Februar 2026 erreichte der Agent-Modus die allgemeine Verfügbarkeit und unterstützt mittlerweile mehrere Sprachmodelle, darunter auch Claude-Modelle. Ob er in der Praxis an die Autonomie von Claude Code heranreicht, wird die Nutzung in den kommenden Monaten zeigen.

Cursor hat sich als IDE für AI-natives positioniert. Der Ansatz ist konsequent: Statt ein Plugin in eine bestehende IDE zu bauen, hat das Team eine eigene Entwicklungsumgebung auf Basis von VS Code geschaffen, in der AI-Features tief integriert sind. Multi-File-Editing funktioniert hier besonders flüssig. IntelliJ- oder Neovim-Nutzer müssen allerdings wechseln oder auf Cursor verzichten.

Windsurf (ehemals Codeium, seit Dezember 2025 Teil von Cognition AI) bietet mit dem Flows-Konzept einen interessanten Mittelweg, bei dem sich Flows den Gesprächsverlauf über mehrere Interaktionen merken und schrittweise Kontext aufbauen. Preislich liegt Windsurf unter der Konkurrenz. Amazon Q Developer richtet sich vor allem an Teams im AWS-Universum und bietet dort die stärkste Cloud-Integration am Markt, verliert aber für Projekte außerhalb von AWS schnell an Relevanz.

Claude Code besetzt eine eigene Nische: das Terminal. Das klingt zunächst nach einem Rückschritt. Stattdessen: ein Textinterface im Terminal, in dem der Entwickler Aufgaben beschreibt und das Tool autonom arbeitet. Seit Ende 2025 gibt es zusätzlich eine offizielle VS Code Extension, die Echtzeit-Diffs, Plan-Review und Checkpoints in die IDE bringt. An der Kernphilosophie ändert das nichts: terminal-first. Claude Code soll dort arbeiten, wo der Entwickler arbeitet, nicht umgekehrt. Meine Einschätzung nach mehreren Monaten intensiver Nutzung: Das Terminal ist Claude Codes größte Stärke und gleichzeitig seine höchste Einstiegshürde.

Was in der Tabelle nicht sichtbar wird: Alle fünf Tools konvergieren. GitHub Copilot hat seinen Agent-Modus auf GA gebracht, Cursor erweitert die Terminalfunktionen und Windsurf arbeitet an autonomen Flows, die perspektivisch ähnliche Autonomie bieten sollen wie Claude Code sie heute bereits ermöglicht. Funktional werden die Unterschiede in zwölf Monaten kleiner sein. Bleiben wird die Grundphilosophie. IDE-first gegen Terminal-first, Vorschlag gegen Ausführung: Genau diese Philosophie bestimmt, wie sich die tägliche Arbeit anfühlt, und nicht die Feature-Liste auf der Website.

Was bedeutet „agentic-first“ für den Alltag?

Seit 2024 taucht der Begriff „agentic“ in jeder zweiten Pressemitteilung auf. Buzzword oder Substanz? Im Kontext von Coding-Tools lässt sich der Unterschied an einem konkreten Beispiel festmachen.

Aufgabe: Eine REST-API soll von Express.js auf Fastify migriert werden. 15 Routen, drei Middleware-Funktionen, dazu Validierung und Fehlerbehandlung. Mit einem klassischen AI-Coding-Tool wie Copilot arbeitet der Entwickler Datei für Datei: Route öffnen, sich den Fastify-Äquivalent vorschlagen lassen, Ergebnis prüfen, anpassen, nächste Datei öffnen. Monoton, aber nötig. Je nach Komplexität kostet das einen halben bis ganzen Arbeitstag.

Mit Claude Code beschreibt der Entwickler die Aufgabe einmal: „Migriere die Express-API in src/routes/ auf Fastify. Behalte die bestehende Validierungslogik bei. Stelle sicher, dass alle existierenden Tests weiterhin bestehen.“ Claude Code liest daraufhin alle relevanten Dateien, erstellt einen Migrationsplan, führt die Änderungen durch, startet die Tests und korrigiert auftretende Fehler selbstständig. Aufgabe des Entwicklers: Fortschritt beobachten und eingreifen, wenn das Tool unsicher ist oder einen falschen Weg einschlägt.

Nicht die Codequalität macht den entscheidenden Unterschied. Es ist das Interaktionsmodell. Klassische Tools arbeiten auf Zeilenebene: Vorschlag, Bestätigung, nächster Vorschlag. Claude Code arbeitet auf Aufgabenebene: Auftrag, Ausführung, Ergebnis. Zeitsparend, aber mit einer Voraussetzung: Entwickler müssen akzeptieren, dass das Tool Entscheidungen trifft, die sie nicht einzeln vorab geprüft haben. Kontrolle abgeben fällt vielen schwer.

Anthropic hat dafür ein abgestuftes Berechtigungssystem entwickelt. Jede Aktion kann einzeln erlaubt oder gesperrt werden. Datei lesen, Datei schreiben, Shell-Befehl ausführen, Git-Operation durchführen: alles getrennt konfigurierbar. In der Praxis beginnen die meisten Entwickler mit restriktiven Einstellungen und lockern sie nach und nach, ähnlich wie bei der Einführung von CI/CD: Anfangs wollte niemand, dass ein automatisierter Prozess auf Produktion deployt. Heute ist es Standard. Vertrauen wächst mit Erfahrung.

Ein Detail, das in der Diskussion oft untergeht: Claude Code kann Subagenten starten. Das bedeutet, es delegiert Teilaufgaben an parallele Prozesse. Während ein Subagent die Testabdeckung analysiert, recherchiert ein anderer in der Dokumentation, und der Hauptprozess plant die nächsten Schritte. Gerade bei komplexen Refactorings mit vielen Abhängigkeiten, bei denen ein einzelner sequenzieller Durchlauf Stunden dauern würde, verkürzt diese Parallelisierung die Bearbeitungszeit erheblich.

Wo stößt Claude Code an seine Grenzen?

200.000 Token Kontextfenster klingen nach viel, und für eine einzelne Aufgabe an einer mittelgroßen Codebase reichen sie meistens auch. Großes Aber: Bei Monorepos oder bei Aufgaben, die viele Dateien gleichzeitig betreffen, stößt das Tool an seine Kapazitätsgrenze. Claude Code komprimiert dann ältere Nachrichten automatisch. Dabei gehen Details verloren. Eine Datei, die am Anfang der Session besprochen wurde, findet sich später möglicherweise nicht mehr im Gedächtnis des Tools, was bei mehrstündigen Coding-Sessions mit vielen Dateiwechseln zum echten Problem wird.

Ein größeres Problem ist die Halluzinationsgefahr. Claude Code kann mit großer Überzeugung eine API-Funktion vorschlagen, die nicht existiert. Es kann Bibliotheken importieren, die es nie gab, oder Konfigurationsoptionen verwenden, die in der aktuellen Version des Frameworks veraltet sind. Erfahrene Entwickler erkennen solche Fehler schnell. Weniger erfahrene übernehmen sie möglicherweise unkritisch. Alle großen Sprachmodelle halluzinieren. Aber bei einem Tool, das eigenständig Code schreibt und ausführt, wiegen die Konsequenzen schwerer als bei einem Chatbot, dessen Antworten man ohnehin manuell überträgt. Meine Überzeugung: Nicht der fehlerhafte Code selbst ist das größte Risiko bei agentic Coding, sondern das blinde Vertrauen, das die Plausibilität der Ausgaben erzeugt.

Dazu kommt ein Risiko, das weniger technischer Natur ist: die schleichende Kompetenzverschiebung. Wenn ein Entwickler sich daran gewöhnt, dass Claude Code Testfälle schreibt, sinkt mit der Zeit die Fähigkeit, selbst gute Tests zu entwerfen. Das ist kein Argument gegen den Einsatz, aber eines für bewusstes Arbeiten. Die METR-Studie liefert dazu aufschlussreiche Daten: Erfahrene Open-Source-Entwickler arbeiteten mit AI-Unterstützung unter bestimmten Bedingungen sogar langsamer.

Kalkulierbar sind die Kosten kaum. Claude Pro kostet etwa 18 Euro im Monat und bietet ein festes Nutzungslimit. Für Einzelentwickler lohnt sich das fast immer. Bei intensiverer Nutzung ist Claude Max nötig (ab 92 Euro monatlich) oder die API mit tokenbasierter Abrechnung. Anthropic beziffert den durchschnittlichen API-Verbrauch auf etwa fünf bis sechs US-Dollar pro Tag, doch bei einem komplexen Refactoring kann ein einziger Tag deutlich teurer werden. Für Teams ist die API-basierte Abrechnung oft das bessere Modell, allerdings nur mit aktivem Kostenmonitoring, weil ohne definierte Budgetgrenzen fünf Entwickler schnell 700 bis 1.000 Euro im Monat verbrauchen.

Hinzu kommt die vollständige Abhängigkeit von einer Internetverbindung und von Anthropic als Anbieter. Kein Offline-Modus. Jeder Quellcode wird an Anthropics Server gesendet, dort verarbeitet und das Ergebnis zurückgeschickt, was für Unternehmen mit strengen Compliance-Anforderungen ein Hindernis darstellt, das sich nicht allein durch Verträge lösen lässt. DSGVO-Implikationen und Datenschutzfragen verdienen dabei eine eigene, ausführliche Betrachtung.

Abhängigkeit vom Anbieter betrifft nicht nur die Daten. Wer seinen gesamten Entwicklungs-Workflow auf Claude Code aufbaut, hängt an einem einzelnen Unternehmen. Erhöht Anthropic die Preise, drosselt die API oder stellt den Dienst vorübergehend ein, gibt es keinen reibungslosen Wechsel zu einem Konkurrenzprodukt. Keine theoretische Gefahr: Preisänderungen gehören in der AI-Branche zum Alltag. Ob das ein Grund ist, auf Claude Code zu verzichten? Nicht unbedingt. Aber es ist ein Grund, sich nicht vollständig von einem einzigen Tool abhängig zu machen und immer einen Plan B zu haben.

Ausblick

Claude Code markiert einen Wendepunkt im Umgang mit AI-Coding-Tools. Vom Vorschlag zur autonomen Aktion: Dieser Schritt verändert, wie Entwickler ihren Tag strukturieren und welche Aufgaben sie delegieren können. Weder durchweg positiv noch negativ. Es ist eine Verschiebung, die verstanden werden muss, bevor sie produktiv genutzt werden kann.

Für DACH-Unternehmen kommt ein weiterer Aspekt hinzu: Alle fünf verglichenen Tools senden Quellcode an Server in den USA, und wie sich das mit der DSGVO und internen Compliance-Richtlinien verträgt, ist für viele Unternehmen ungeklärt. Anthropic bietet seit Ende 2025 einen Auftragsverarbeitungsvertrag nach europäischem Recht an. Ob das reicht? Hängt vom Einzelfall ab.

Am wichtigsten ist eine Erkenntnis: Kein Tool ist objektiv das beste. Für Einzelentwickler, die primär in einer IDE arbeiten, bleibt Copilot der unkomplizierte Einstieg. Cursor überzeugt bei tiefer IDE-Integration und Multi-File-Editing. Für Teams mit komplexen Codebasen und dem Wunsch nach autonomer Aufgabenausführung ist Claude Code die konsequenteste Option am Markt. Entscheidend ist weniger die Feature-Liste als die eigene Arbeitsweise. Passt das Interaktionsmodell zum Denkstil, passt das Tool.

Bleibt eine entscheidende Frage: Wie sieht produktive Arbeit mit Claude Code wirklich aus? Überraschend genug: Die METR-Studie zeigt, dass erfahrene Entwickler mit AI-Tools unter bestimmten Bedingungen 19 Prozent langsamer arbeiten als ohne, was nahelegt, dass die bloße Verfügbarkeit eines mächtigen Tools noch keine Produktivitätssteigerung garantiert. Welche Workflow-Patterns tatsächlich Zeit sparen und warum blindes Vertrauen in die Autonomie kontraproduktiv ist, verdient eine eigene Analyse.

Quellen

  1. Stack Overflow: Developer Survey 2025, AI Coding Tools Ranking (stackoverflow.com)
  2. Markets and Markets: AI Code Tools Market Report 2025–2030 (marketsandmarkets.com)
  3. GitHub Blog: Research Quantifying GitHub Copilot’s Impact on Developer Productivity, 2023 (github.blog)
  4. Anthropic: Claude Code Documentation, 2025–2026 (docs.anthropic.com)
  5. Anthropic: Series G Funding Announcement, Februar 2026 (anthropic.com/news)
  6. METR: Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity, 2025 (metr.org)
  7. Cursor: Pricing and Features, März 2026 (cursor.com)
  8. CNBC: Cursor Valuation and Funding, November 2025 (cnbc.com)
  9. GitHub Blog: Copilot Agent Mode GA, Februar 2026 (github.blog/changelog)
  10. GitHub: Copilot Plans and Pricing, März 2026 (github.com/features/copilot/plans)
  11. Bloomberg: Cognition AI Acquires Windsurf, Dezember 2025 (bloomberg.com)
  12. Amazon: Amazon Q Developer Pricing, März 2026 (aws.amazon.com)