Docker Compose auf dem Laptop funktioniert. Vier Container starten in 20 Sekunden, die Anwendung läuft, die Entwicklerin tippt den nächsten Feature-Branch. Aber was passiert danach? Auf echten Servern gelten andere Regeln. Orchestrierung, Hosting, Kostenstruktur: alles offen. Und kostet ein Cluster bei Hetzner 40 Euro oder bei AWS 400 Euro im Monat?

Zwischen dem funktionierenden Compose-Stack und einem produktionsreifen Deployment stehen Fragen, die diese Serie beantwortet. Von zustandslosem Container-Design über Orchestrierung bis zum Kostenvergleich zwischen deutschen VPS-Anbietern und den großen Hyperscalern. Hier die Kernerkenntnisse aus fünf Teilen, verdichtet auf die Entscheidungen, die am meisten zählen.

Warum reichen Container allein nicht aus?

Vor dem ersten Deployment fällt die wichtigste Architekturentscheidung. Container müssen zustandslos sein: keine Sessions im Dateisystem, keine Uploads auf der lokalen Festplatte, keine Konfiguration in lokalen Dateien. Sessions gehören in Redis, Dateien auf S3-kompatiblen Object Storage, Konfigurationen in Umgebungsvariablen. Klingt trivial. Ist es nicht.

Jeder Dienst bekommt einen eigenen Container (Webserver, API, Datenbank, Cache, Dateispeicher), und genau diese Trennung ermöglicht später die unabhängige Skalierung einzelner Komponenten, ohne dass gleich der gesamte Stack wachsen muss. Ein Monolith in Containern funktioniert für die meisten Teams bis 20 Personen hervorragend. Viele Teams springen zu früh auf Microservices und schaffen Komplexität, wo keine nötig wäre.

Beim Container-Bau selbst lohnt sich früh eine Investition in mehrstufige Dockerfiles (Multi-Stage Builds), weil damit Build-Abhängigkeiten sauber vom Produktions-Image getrennt bleiben und die finale Image-Größe deutlich sinkt. Ein Node.js-Image schrumpft mit Alpine-Basis und Multi-Stage Build von über einem Gigabyte auf unter 150 Megabyte. Kleinere Images starten schneller, verbrauchen weniger Bandbreite beim Pull und reduzieren die Angriffsfläche, weil weniger Pakete installiert sind.

Eine Warnung bei der Wahl des Dateispeichers: MinIO, die bisher populärste selbst gehostete S3-Alternative, wurde im Februar 2026 archiviert. Hetzner Object Storage (4,99 Euro pro Terabyte im Monat) oder Ceph mit Rados Gateway sind die empfohlenen Alternativen. Am MinIO-Fall zeigt sich, wie schnell eine Infrastrukturentscheidung zur technischen Schuld werden kann.

Wie kommen Container in die Produktion?

Nicht jedes Projekt braucht sofort ein Cluster. Ein einzelner Hetzner-VPS mit Docker Compose, Traefik als Reverse Proxy und automatischem Let’s-Encrypt-HTTPS reicht für viele Anwendungsfälle aus. Ein CX33 mit vier vCPUs und 8 GB RAM für 5,49 Euro im Monat bedient hunderte gleichzeitige Nutzer ohne Probleme.

Als Standard-Reverse-Proxy in Container-Umgebungen hat Traefik mittlerweile Nginx abgelöst. Hauptgrund: automatische Service-Erkennung. Neue Container werden ohne manuelle Konfiguration erkannt und geroutet, während Let’s-Encrypt-Zertifikate automatisch ausgestellt und erneuert werden. Nginx bleibt stark bei statischen Dateien und etablierten Setups, aber für Container-Orchestrierung ist Traefik die bessere Wahl.

CI/CD-Pipelines automatisieren den Weg vom Git-Commit zum laufenden Container. GitHub Actions oder GitLab CI bauen das Image, führen Tests aus, pushen in eine Registry und lösen das Deployment aus. Ohne diese Automatisierung ist jedes Deployment ein manuelles Risiko. Besonders bei mehreren Entwicklern wird eine Deployment-Pipeline schnell zur Grundvoraussetzung, weil sich manuelle SSH-Deployments weder reproduzieren noch auditieren lassen.

Sobald Einzelserver-Ausfälle nicht mehr akzeptabel sind oder die vertikale Skalierung ausgereizt ist, wird der Wechsel auf mehrere Server nötig. Dann braucht es ein Orchestrierungswerkzeug.

Welches Orchestrierungswerkzeug passt?

Drei Werkzeuge stehen zur Wahl: Docker Swarm, K3s und vollständiges Kubernetes. Jedes adressiert andere Teamgrößen und Anforderungen.

Docker Swarm ist am einfachsten einzurichten, wird von Mirantis bis 2030 gepflegt und reicht für einfache Setups mit unter zehn Nodes. Viele Entwickler schreiben Swarm vorschnell ab. Für kleine Teams, die keine YAML-Wand pflegen wollen, bleibt es eine solide Option. Wer allerdings Helm Charts, Custom Operators oder ein öffentliches Kubernetes-API-Interface benötigt, stößt mit Swarm an Grenzen, weil das Werkzeugangebot deutlich kleiner ausfällt.

Vollständiges Kubernetes ist am mächtigsten, erfordert aber erhebliche Einarbeitungszeit und ein dediziertes Ops-Team. Für Teams unter zehn Entwicklern ist der Aufwand in den meisten Fällen nicht gerechtfertigt. Erst ab etwa 15 bis 20 Entwicklern, die mehrere Dutzend Services betreiben und feingranulare RBAC-Kontrolle brauchen, rechnet sich die Investition in ein voll administriertes Kubernetes-Cluster.

K3s trifft den pragmatischen Mittelweg. Eine einzige Binärdatei unter 70 MB, Installation in unter einer Minute, vollständige Kubernetes-API-Kompatibilität. Auf drei bis fünf Hetzner-Servern lässt sich ein K3s-Cluster an einem Nachmittag einrichten, wobei es sofort Hochverfügbarkeit, Rolling Updates und Zugang zum gesamten Kubernetes-Werkzeugangebot (Helm, ArgoCD, Prometheus, cert-manager) bietet. Für KMUs im DACH-Raum ist K3s die pragmatischste Wahl.

Was kosten Container-Cluster tatsächlich?

Zwischen Self-Hosted und Hyperscaler liegt der Kostenunterschied nicht im marginalen Bereich, sondern ist strukturell bedingt. Drei Hetzner-CX33-Server kosten zusammen 16,47 Euro im Monat. Mit Load Balancer, Object Storage und Backups liegt ein kleiner K3s-Cluster bei rund 33 Euro. Bei AWS mit EKS landet das gleiche Setup bei 230 bis 280 Euro. Faktor fünf bis sieben. Die Lücke ist real.

Auf AWS-Seite treiben mehrere Posten die Rechnung in die Höhe: die Control-Plane-Gebühr für EKS (73 Dollar im Monat), der NAT Gateway (32 Dollar im Monat pro Availability Zone) und Cross-AZ-Datenverkehr, der pro Gigabyte berechnet wird, obwohl er bei Hetzner komplett inklusive ist. Hinzu kommt CloudWatch, das bei größeren Log-Volumen schnell 50 bis 80 Dollar im Monat kostet. Ohne genaue Kontrolle zahlt ein Team allein für Nebenkosten mehr als für die eigentlichen Server. Azure AKS mit kostenlosem Control Plane im Free Tier ist die günstigste Hyperscaler-Option, aber auch dort summieren sich Compute und Datenverkehr schnell.

Neben Hetzner verdienen auch IONOS und Netcup Beachtung als deutsche Hosting-Alternativen: IONOS bietet Managed Kubernetes mit kostenloser Control Plane (Compute ab rund 60 Euro im Monat), Netcup punktet mit sehr günstigen Root-Servern für Self-Managed-Setups. Beide Anbieter betreiben Rechenzentren in Deutschland, was für DSGVO-sensible Projekte relevant sein kann.

Hetzner hat für April 2026 eine Preiserhöhung von 30 bis 37 Prozent angekündigt. Ursache laut Hetzner: RAM- und SSD-Preise sind seit September 2025 durch die globale KI-Nachfrage um mehrere hundert Prozent gestiegen. Selbst nach der Erhöhung bleibt Hetzner deutlich günstiger als AWS oder Azure. Nach der Anpassung steigt der CX33 von 5,49 Euro auf rund 6,50 Euro, was für drei Server weiterhin unter 20 Euro im Monat bedeutet.

Trotzdem lohnt sich der Hyperscaler-Aufpreis in drei Fällen: Managed Databases für Teams ohne Datenbank-Expertise, Multi-Region-Deployments für globale Verfügbarkeit und Compliance-Zertifizierungen (SOC 2, ISO 27001, BSI C5) für regulierte Branchen.

Was passiert, wenn das Monitoring fehlt?

Ein Cluster ohne Monitoring ist ein Cluster, das auf seinen ersten unentdeckten Ausfall wartet. Grafana Labs stellt mit dem LGTM-Stack eine vollständige Observability-Lösung bereit: Loki für Logs, Grafana für Visualisierung, Tempo für Traces und Mimir für Metriken. Zusammen mit Prometheus für die Datensammlung deckt dieser Stack alle Observability-Aspekte ab, komplett Open Source.

Beim Alerting liefern die Four Golden Signals aus dem Google-SRE-Buch den richtigen Ausgangspunkt: Latenz, Traffic, Fehlerrate und Auslastung. Entscheidend ist, auf Symptome zu alertieren statt auf Ursachen. Steigt die Antwortzeit über 500 Millisekunden, muss ein Alert feuern, egal ob CPU, Speicher oder ein Deadlock die Ursache ist. Als Alternative zum LGTM-Stack bietet sich SigNoz an, das Metriken, Logs und Traces in einer einzigen Oberfläche vereint und auf OpenTelemetry aufbaut, sodass der Einstieg für kleinere Teams einfacher ausfällt als beim modular aufgebauten Grafana-Stack.

Monitoring fängt beim Deployment an. Nicht erst beim Ausfall. Schon in der CI/CD-Pipeline sollten Healthchecks laufen, die nach einem Rolling Update prüfen, ob der neue Container tatsächlich Anfragen beantwortet. Reagiert er nicht innerhalb der konfigurierten Frist, rollt Kubernetes automatisch zurück. Ohne diesen Mechanismus bleibt ein defektes Deployment unter Umständen stundenlang unbemerkt in Produktion.

Datenbanken und Backups

Datenbank-HA mit PostgreSQL gehört zur Pflichtausstattung für produktive Cluster. Patroni übernimmt dabei das automatische Failover: es überwacht die Primary-Instanz und befördert bei einem Ausfall innerhalb von Sekunden eine Replica zum neuen Primary, während die Anwendung über einen Connection-Pooler wie PgBouncer umgeleitet wird. Alternativ bietet der CloudNativePG-Operator eine Kubernetes-native Lösung, die Failover, Backups und Replica-Management direkt über Custom Resources steuert.

Backups müssen regelmäßig getestet werden, denn ein Backup ohne Restore-Test beweist gar nichts. WAL-Archivierung (Write-Ahead Logging) sichert dabei jede einzelne Transaktion in einem kontinuierlichen Strom auf externen Speicher, sodass sich eine Datenbank auf einen beliebigen Zeitpunkt wiederherstellen lässt (Point-in-Time Recovery). Konkret empfiehlt sich die Kombination aus pg_basebackup, WAL-Archivierung auf S3-kompatiblen Storage und quartalsweisen Restore-Tests. Laut dem Veeam Data Protection Trends Report 2024 waren nur 58 Prozent der Server innerhalb der erwarteten Wiederherstellungszeit verfügbar. 42 Prozent brauchten länger oder waren gar nicht wiederherstellbar. Backups ohne Restore-Tests sind kein Sicherheitsnetz, sondern ein Hoffnungskonzept.

Empfehlungen nach Teamgröße

Nicht jedes Team braucht dasselbe Setup, und die richtige Lösung hängt weniger von der Anwendung ab als von der Teamgröße und dem verfügbaren Ops-Know-how. Folgende Abstufungen haben sich in der Praxis bewährt.

Für Startups und kleine Teams (zwei bis fünf Entwickler)

Start mit einem einzelnen Hetzner-VPS und Docker Compose. Traefik als Reverse Proxy, Let’s Encrypt für HTTPS, GitHub Actions für CI/CD. Kosten: unter 20 Euro im Monat. Sobald Hochverfügbarkeit nötig wird: K3s auf drei Hetzner-Servern. Kosten steigen auf rund 33 bis 45 Euro im Monat. Kein Team sollte mit Kubernetes anfangen, wenn Docker Compose das Problem löst. Für Datenbanken genügt in dieser Phase ein einzelner PostgreSQL-Container mit täglichen pg_dump-Backups auf Hetzner Object Storage.

Für mittelgroße Teams (fünf bis 15 Entwickler)

K3s auf drei bis fünf Hetzner-Servern bildet das Rückgrat, ergänzt durch den LGTM-Stack (Loki, Grafana, Tempo, Mimir) für Monitoring und ArgoCD für GitOps-Deployments. PostgreSQL läuft am besten mit dem CloudNativePG-Operator oder einem Drittanbieter-Service wie Ubicloud (ab 12 Dollar im Monat auf Hetzner-Infrastruktur). Kosten: 55 bis 120 Euro im Monat für Infrastruktur. Trivy für Container-Image-Scans und Falco für Runtime-Security lassen sich in dieser Phase mit überschaubarem Aufwand integrieren, bevor die Codebasis zu groß wird.

Welcher Weg führt für größere Teams oder regulierte Branchen?

Managed Kubernetes bei Azure (AKS, kostenlose Control Plane im Free Tier) oder Google (GKE) nimmt dem Team die Cluster-Administration ab. Managed Databases (RDS, Cloud SQL) und Multi-Region-Deployments ergänzen das Setup, wo globale Verfügbarkeit gefragt ist. Mit 200 bis 600 Euro im Monat für Infrastruktur liegt der Preis deutlich höher, wird aber durch reduzierten Ops-Aufwand und Compliance-Zertifizierungen gerechtfertigt. Für Teams, die SOC 2 oder BSI C5 brauchen, ist ein Hyperscaler oft der schnellste Weg zur Zertifizierung.

Fazit

Container-Deployment ist kein binäres Problem (lokal oder Cloud), sondern ein Spektrum. Am besten starten Teams einfach und wachsen bei Bedarf. Einzelserver, dann K3s, dann vielleicht Managed Kubernetes. Jeder Schritt bringt Komplexität, die nur gerechtfertigt ist, wenn sie ein reales Problem löst. Zu viel Infrastruktur zu früh bremst Produktentwicklung stärker als zu wenig Infrastruktur zu spät. Weniger ist anfangs mehr.

Für die Mehrheit der DACH-Startups, die containerisierte Webanwendungen betreiben, fährt die Kombination aus Hetzner und K3s günstiger als AWS und EKS. Gute Gründe für den Hyperscaler gibt es trotzdem: globale Präsenz, Compliance-Anforderungen oder fehlende Ops-Kapazität. Ohne einen dieser Gründe zahlt ein Team mit dem Hyperscaler vor allem für Komfort, den es wahrscheinlich nicht braucht.

Alle fünf Teile dieser Serie vertiefen die genannten Aspekte: Container-Grundlagen und Stateless Design (Teil 1), den Weg in die Produktion (Teil 2), die Orchestrierungsfrage (Teil 3), den Kostenvergleich (Teil 4) und Monitoring, Datenbank-HA, Backups und Security-Grundlagen (Teil 5).

Quellenverzeichnis

  1. CNCF Annual Survey 2025: „Kubernetes Established as the De Facto Operating System for AI“, Cloud Native Computing Foundation, Januar 2026
  2. Hetzner Online GmbH: Cloud Server Preisliste, hetzner.com/cloud (Stand: Februar 2026)
  3. Hetzner Online GmbH: „Statement on Price Adjustment as of April 1st 2026“, hetzner.com/pressroom, Februar 2026
  4. K3s: Lightweight Kubernetes, k3s.io (Stand: Februar 2026)
  5. Mirantis: „Long-Term Support for Swarm Through 2030“, mirantis.com/blog, 2023
  6. Traefik Labs: Traefik Proxy Documentation, doc.traefik.io/traefik (Stand: Februar 2026)
  7. MinIO GitHub Repository: Archiviert am 13. Februar 2026
  8. Veeam: „Data Protection Trends Report 2024“, veeam.com, 2024
  9. Sedai: „Kubernetes Pricing 2026: EKS vs AKS vs GKE“, sedai.io/blog, 2026
  10. Grafana Labs: LGTM Stack (Loki, Grafana, Tempo, Mimir), grafana.com (Stand: Februar 2026)
  11. SigNoz: Open Source Observability Platform, signoz.io (Stand: Februar 2026)
  12. Patroni: PostgreSQL HA Template, github.com/patroni/patroni (Stand: Februar 2026)
  13. IONOS Cloud: Managed Kubernetes Preisliste, cloud.ionos.de (Stand: Februar 2026)