Wohin Ihr Cloud-Budget wirklich fliesst — und warum die IT es nicht allein richten kann
Die meisten Organisationen verschwenden ein Viertel ihrer Cloud-Ausgaben. Das Problem ist nicht technisch — es ist eine Governance-Lücke zwischen denen, die Kosten verursachen, und denen, die dafür verantwortlich sind.
Teil Eins ist ein Fünf-Minuten-Artikel. Teil Zwei liefert die Belege für alle, die tiefer einsteigen möchten.
Teil Eins: Das Governance-Problem in Ihrer Cloud-Rechnung
Hier ein Szenario, das die meisten CIOs kennen. Ihr FP&A-Team braucht leistungsstarke Maschinen — aufwändige Excel-Arbeitsmappen, komplexe Makros, Finanzmodelle, die einen Standard-Laptop in die Knie zwingen würden. Früher bedeutete das dedizierte Hochleistungs-Desktops unter dem Schreibtisch. Teuer in der Anschaffung, teuer im Unterhalt, aber immerhin waren die Kosten sichtbar und endlich: Man kaufte die Hardware einmal, schrieb sie über drei bis fünf Jahre ab und ging weiter.
Irgendwann entschied jemand, diese Workloads auf cloud-gehostete virtuelle Maschinen zu verlagern. Die Logik klang vernünftig — kein Hardware-Unterhalt, einfach skalierbar, gleiche Spezifikationen. Aber die Wirtschaftlichkeit verschob sich auf eine Weise, die niemand nachverfolgte. Eine dedizierte Workstation kostet einige tausend Euro im Voraus und läuft jahrelang. Eine Cloud-VM mit vergleichbaren Spezifikationen kostet 500 bis 800 Euro pro Monat, jeden Monat, unbefristet. Über drei Jahre kann die Cloud-Option zwei- bis dreimal so viel kosten wie die Hardware, die sie ersetzt hat. Und das ist noch bevor man berücksichtigt, was als Nächstes passierte.
Diese VMs laufen 24 Stunden am Tag, 365 Tage im Jahr. Das FP&A-Team arbeitet ungefähr von neun bis fünf. Das sind acht Stunden produktive Nutzung von vierundzwanzig — was bedeutet, dass zwei Drittel dessen, was Sie für diese Maschinen bezahlen, reine Verschwendung sind. Nicht weil die Technologie falsch ist, sondern weil niemand sie über Nacht abgeschaltet hat. Und als die IT genau das vorschlug, kam die Antwort: nein. Das Team will, dass die Maschinen sofort bereit sind, wenn sie sich hinsetzen. Keine Boot-Wartezeit. Keine sechzig Sekunden Verzögerung. Immer an, immer verfügbar, immer Geld kostend.
Stellen Sie sich nun vor, die IT macht einen Kompromiss. Gut, wir setzen die VMs auf einen Zeitplan — Start um acht, Abschaltung um sechs. Das hilft. Aber es löst das Problem auch nicht. Was passiert, wenn ein Teammitglied krank ist? Zwei Wochen im Urlaub? Drei Tage auf einem Offsite? Die Maschine startet planmässig, läuft den ganzen Tag, und niemand meldet sich an. Multiplizieren Sie das über ein Team von vier Personen, berücksichtigen Sie Ferien, Konferenzen, Krankheitstage, und die Realität ist, dass selbst zeitgesteuerte VMs einen erheblichen Teil ihrer «aktiven» Stunden leer laufen. Der Zeitplan behebt die nächtliche Verschwendung, verfehlt aber die menschliche Variabilität vollständig — weil der Zeitplan nicht weiss, wer tatsächlich am Schreibtisch sitzt.
Die IT kann all dies in den Auslastungsdaten sehen. Aber sie hat nicht die Befugnis zu handeln, weil die Fachabteilung keine Änderungen akzeptiert, wie ihre Ressourcen verwaltet werden. Und so laufen die Maschinen weiter, die Rechnungen kommen weiter, und niemand im Raum, wo das Budget genehmigt wird, hat eine Ahnung, dass ein grosser Teil des Postens für Compute bezahlt wird, das nichts tut.
Das ist kein FP&A-Problem. Es ist ein Governance-Problem. Und es passiert über Ihren gesamten Cloud-Footprint hinweg.
Die Verschwendung ist strukturell, nicht zufällig
Branchenweit verschwenden Organisationen zwischen einem Viertel und einem Drittel jedes Euro, den sie für Cloud ausgeben. Nicht für ambitionierte Projekte, die gescheitert sind — für Ressourcen, die niemand nutzt. Virtuelle Maschinen, die rund um die Uhr laufen, für Teams, die zu Geschäftszeiten arbeiten. Speichervolumen, die an Instanzen angehängt sind, die vor Monaten stillgelegt wurden. Entwicklungsumgebungen, die nach dem Sprint niemand abgeschaltet hat. Für Software- und IT-lastige Unternehmen ist Cloud stillschweigend zum zweitgrössten Posten nach den Personalkosten geworden, mit durchschnittlich etwa einem Zehntel des Umsatzes. Und die Verschwendung ist so in die Rechnung eingebacken, dass sie bemerkenswert schwer zu erkennen ist — weil es sich nicht um einen grossen, offensichtlichen Fehler handelt. Es sind Tausende kleiner, vernünftig klingender Entscheidungen, die niemand befugt ist, infrage zu stellen.
Die Ursache ist nicht technische Inkompetenz. Es ist eine strukturelle Lücke zwischen denen, die Cloud-Kosten verursachen, und denen, die dafür verantwortlich sind. Fachabteilungen fordern Ressourcen an. Die IT stellt sie bereit. Finance bezahlt die Rechnung. Aber keine einzelne Funktion hat sowohl die Sichtbarkeit, die Verschwendung zu erkennen, als auch die Befugnis, sie zu stoppen. Die IT kann sehen, dass eine VM seit sechs Monaten sechzehn Stunden am Tag im Leerlauf ist — aber sie kann sie nicht ohne Widerstand abschalten. Finance kann sehen, dass die Gesamtrechnung wächst — aber nicht erkennen, welche Posten wertvoll und welche Trägheit sind. Und die Fachabteilung, die die Ressource angefordert hat, hat keinen Grund, sich um die Kosten zu kümmern, weil die Kosten nie in ihrem Budget auftauchen.
Es ist dieselbe Governance-Lücke, mit der Organisationen in den frühen Tagen der Enterprise-Software-Lizenzierung kämpften, und davor bei den Telekommunikationskosten. Das Muster ist vorhersehbar: Eine neue Kategorie von Infrastrukturausgaben wächst schnell, wird über Teams verteilt, übersteigt die Kontrollen, die für einfachere Kostenstrukturen konzipiert waren, und wird zur Quelle schleichender Margenerosion, bis jemand die Disziplin aufbaut, sie zu steuern. Cloud ist nur die neueste Iteration — mit der zusätzlichen Komplikation, dass KI die Ausgabenkurve beschleunigt, bevor die meisten Organisationen auch nur die Grundlagen im Griff haben.
KI verschärft die Governance-Lücke, statt sie zu schliessen
GenAI-Workloads wachsen mit Raten, die traditionelle Cloud-Ausgaben stabil erscheinen lassen. Der GPU-as-a-Service-Markt expandiert rasant, und die Hyperscaler haben einen neuen Preishebel gefunden — KI-Funktionen in bestehende Produkte zu bündeln, ob man danach gefragt hat oder nicht. Google hat die Workspace-Preise um bis zu 22 % erhöht, indem Gemini in die Kernpläne integriert wurde. Azure und AWS haben die Preise für Speicher und Datentransfer ebenfalls angehoben. Der gemeinsame Nenner: KI-Infrastruktur ist teuer in der Erstellung, und die Hyperscaler reichen diese Kosten an jeden Kunden weiter, auch an jene, die keinen einzigen KI-Workload eingesetzt haben.
Aber das heimtückischere Problem ist, was passiert, wenn Fachabteilungen KI-Tools ohne Kostenrahmen einführen. Dieselbe Dynamik, die die VMs von FP&A um zwei Uhr morgens am Laufen hält, spielt sich bei KI-Workloads ab — nur schneller und in grösserem Massstab. Ein Team integriert ein LLM in einen Workflow. Die Nutzung wächst, weil es nützlich ist. Token-Kosten skalieren mit jeder Abfrage. Und niemand hat vor dem Go-Live ein Kostenmodell erstellt, weil das Team, das das Tool eingeführt hat, nicht das Team ist, das die Rechnung bezahlt.
Etwa vier von fünf Unternehmen, die KI einsetzen, überschreiten ihre Kostenprognosen um 25 % oder mehr. Das ist kein Prognosefehler — es ist ein Governance-Versagen. Die Technologie hat genau das getan, was von ihr verlangt wurde. Die Organisation hat nur nie entschieden, wer dafür verantwortlich ist, die Kosten im Blick zu behalten.
Wie sich das in Ihrem Budget tatsächlich auswirkt
Setzen wir Zahlen auf das FP&A-Beispiel. Nehmen wir an, Sie betreiben ein mittelgrosses Unternehmen in der DACH-Region — ein paar hundert Mitarbeitende. Ihr FP&A-Team hat vier Cloud-VMs, jeweils mit Hochleistungs-Compute für Finanzmodellierung ausgestattet. Eine gut ausgestattete VM auf Azure oder AWS kostet bei Vollauslastung etwa 500 bis 800 Euro pro Monat. Vier Maschinen, immer an: grob 24.000 bis 38.000 Euro im Jahr.
Nun wenden Sie die Neun-bis-fünf-Realität an. Zwei Drittel davon — irgendwo zwischen 16.000 und 25.000 Euro jährlich — bezahlen Sie für Maschinen, die nichts tun. Für ein Team. In einer Abteilung.
Skalieren Sie dieses Muster über die Organisation. Entwicklungsumgebungen, die nachts und am Wochenende laufen. Test-Server, die seit dem letzten Release nicht mehr angefasst wurden. Analyse-Workloads, die zwei Stunden während eines täglichen Batch-Jobs Spitzen haben und die anderen zweiundzwanzig im Leerlauf stehen. Umfragen zeigen durchgehend, dass über die Hälfte der Engineering-Führungskräfte zugibt, dass ihre Kapazitätszusagen im Wesentlichen Schätzungen sind — Ressourcen auf Spitzenauslastung dimensioniert und permanent auf diesem Niveau belassen.
Für ein DACH-Mittelstandsunternehmen mit jährlichen Cloud-Ausgaben von 400.000 bis 600.000 Euro deuten die Branchen-Benchmarks auf 100.000 bis 180.000 Euro Verschwendung hin. Das ist kein Rundungsfehler. Das ist eine Senior-Einstellung. Das ist eine Produktinitiative. Das ist der Margen-Unterschied zwischen einem komfortablen und einem knappen Jahr. Und der Grund, warum es fortbesteht, ist nicht, dass niemand die Werkzeuge hat, es zu finden — sondern dass niemand das Mandat hat, es zu beheben.
Warum technische Lösungen ein Governance-Problem nicht lösen können
Der Instinkt ist, nach technischen Hebeln zu greifen. Instanzen richtig dimensionieren. Auto-Scaling einrichten. Auf Reserved Pricing umsteigen. Alles taggen. VMs auf einen Zeitplan setzen. Das hilft — Reserved Instances können Compute-Kosten um 30–40 % senken für vorhersehbare Workloads, und Zeitpläne adressieren die offensichtlichste nächtliche Verschwendung.
Aber sie lösen das zugrunde liegende Problem nicht, weil das zugrunde liegende Problem nicht technisch ist. Es geht darum, wer Entscheidungen über Ressourcen treffen darf, und auf welcher Grundlage.
Eine VM richtig zu dimensionieren, die gar nicht laufen sollte, macht die Verschwendung nur billiger pro Stunde. Reserved Pricing für einen Workload, der acht Stunden am Tag läuft, aber für vierundzwanzig berechnet wird, zementiert die Verschwendung zu einem Rabatt. Ein Abschaltungsplan, der Ferien, Abwesenheiten und tatsächliche Nachfrage nicht berücksichtigt, tauscht nur Rund-um-die-Uhr-Verschwendung gegen Tagesverschwendung. Und das Taggen von Ressourcen zeigt, wo die Kosten liegen — aber wenn das Team, dem das Tag gehört, keinen Anreiz hat, sie zu senken, und die IT keine Befugnis hat, Änderungen durchzusetzen, produzieren die Tags nur Berichte, auf die niemand reagiert.
Das ist das FP&A-Muster im Kleinen, wiederholt über das gesamte Unternehmen. Die IT kann die Verschwendung sehen. Sie kann die Lösung empfehlen. Aber die Lösung erfordert, dass eine Fachabteilung eine Änderung akzeptiert, und ohne ein Governance-Modell, das diese Teams in die Entscheidung einbezieht — und sie für das Ergebnis verantwortlich macht — ist die Standardantwort immer «lass es, wie es ist».
Die Antwort ist nicht, den Fachabteilungen die Kontrolle zu entziehen und sie der IT zu übergeben. Das schafft ein anderes Problem: Teams, die sich kontrolliert statt unterstützt fühlen, und eine IT-Abteilung, die zum Flaschenhals für jede Ressourcenanfrage wird. Was funktioniert, ist ein Governance-Modell, bei dem Teams wirklich an Entscheidungen über ihre eigene Ressourcennutzung beteiligt sind — sie sehen die Kosten, sie verstehen die Abwägungen, sie haben die Autonomie zu entscheiden, wie sie innerhalb definierter Grenzen arbeiten. Das FP&A-Team sollte absolut ein Mitspracherecht haben, wie sein Compute verwaltet wird. Aber es sollte diese Entscheidung treffen mit dem Wissen, was es kostet, mit einem Budget, das dies widerspiegelt, und innerhalb von Leitplanken, die verhindern, dass die Bequemlichkeit eines Teams zur versteckten Ausgabe der Organisation wird.
Die Branche hat einen Namen für diese Disziplin. Sie heisst FinOps. Aber FinOps ist kein Dashboard oder ein Satz von Kostenwarnungen. Im Kern ist es ein Governance-Framework — eines, das jedem Team Sichtbarkeit gibt, was seine Workloads kosten, Autonomie, Entscheidungen innerhalb von Grenzen zu treffen, und Verantwortlichkeit für die Konsequenzen dieser Entscheidungen.
Zwei Wege nach vorn
Es gibt zwei realistische Pfade, abhängig davon, wie viel organisatorische Veränderung Sie bereit sind anzugehen.
Beginnen Sie mit dem, was die IT kontrolliert. Wenn Sie das Governance-Modell jetzt nicht ändern können, beginnen Sie dort, wo Sie Befugnis haben. Führen Sie ein Verschwendungsaudit für Ressourcen durch, die die IT direkt verantwortet — Entwicklungsumgebungen, Test-Infrastruktur, interne Tools. Implementieren Sie Abschaltungspläne, wo Sie können. Dimensionieren Sie Instanzen richtig, die offensichtlich überdimensioniert sind. Bereinigen Sie verwaiste Speicher und vergessene Snapshots. Die meisten Organisationen finden 15–20 % Einsparungen im ersten Durchgang, oft innerhalb von Wochen. Das ist nicht transformativ, aber es zeigt das Ausmass des Problems in harten Zahlen — und diese Zahlen werden zum Business Case für das schwierigere Gespräch.
Machen Sie Kosten zu einer gemeinsamen Verantwortung. Wenn Sie die vollen 30–40 % Einsparungen erreichen wollen, die reife Organisationen erzielen, müssen Sie ändern, wer Cloud-Kostenentscheidungen trifft — und das bedeutet, Fachabteilungen einzubeziehen, nicht zu überstimmen. Teams sehen die Kosten der Ressourcen, die sie nutzen, annähernd in Echtzeit, zugeordnet zu ihren eigenen Budgets. Sie erhalten echte Autonomie zu entscheiden, wie sie diese Ressourcen nutzen. Aber sie entscheiden mit voller Sichtbarkeit, was es kostet, und innerhalb von Grenzen, die verhindern, dass die Präferenzen eines einzelnen Teams zu unkontrollierten Ausgaben für die Organisation werden. Das FP&A-Team könnte sich 25.000 Euro im Jahr an ungenutztem Compute ansehen und entscheiden, dass Always-on-Verfügbarkeit es ihnen wert ist — und das ist eine legitime Entscheidung, solange es ihr Budget ist, das es absorbiert, und sie sie mit offenen Augen getroffen haben. Häufiger stellen Teams, wenn sie die Zahl tatsächlich sehen, fest, dass die sechzig Sekunden Boot-Zeit ein völlig akzeptabler Kompromiss ist. Dasselbe gilt für KI-Workloads: Kostenverantwortliche vom ersten Tag an, Nutzungsleitplanken vom ersten Tag an, nicht erst nach der ersten Überraschungsrechnung.
Der erste Pfad ist richtig, wenn Sie Glaubwürdigkeit aufbauen und den Wert demonstrieren müssen, bevor Sie um organisatorische Veränderung bitten. Der zweite ist richtig, wenn die Führung das Problem bereits ahnt und bereit ist, es strukturell anzugehen. So oder so berichten die Organisationen, die dies gut gemacht haben, von etwas jenseits der Kosteneinsparungen: Sie treffen bessere Architekturentscheidungen, weil Teams, die sehen können, was ihre Workloads kosten, beginnen, andere Fragen darüber zu stellen, wie Dinge gebaut werden sollten.
Die Uhr tickt bei mehr als nur Kosten
Für DACH-Unternehmen gibt es eine zusätzliche Dimension. Die regulatorische Landschaft — EU AI Act, EU Data Act, DORA, NIS2 — verschärft die Anforderungen daran, wie und wo Daten verarbeitet werden. Organisationen, die keine Sichtbarkeit über ihren Cloud-Footprint haben, werden Schwierigkeiten haben, die Compliance nachzuweisen, wenn es soweit ist. Und die Souveränitätsfrage — das wachsende Unbehagen mit der Abhängigkeit von US-Hyperscalern, verstärkt durch sich verschiebende geopolitische Dynamiken — treibt Unternehmen dazu, darüber nachzudenken, ob bestimmte Workloads auf europäische Infrastruktur gehören.
Sie können diese Entscheidung nicht intelligent treffen, wenn Sie nicht wissen, was Sie betreiben, wo es läuft und was es kostet. Cloud-Governance geht nicht nur um Geldsparen — sie ist das Fundament für jede strategische Infrastrukturentscheidung, die danach kommt. Souveränität, hybride Architekturen, Edge Computing, KI-Kostenmanagement — alle hängen von derselben grundlegenden Fähigkeit ab: zu wissen, was man hat, und die Befugnis zu haben, es zu steuern.
Das Fazit
Das Gespräch, das die meisten Führungsteams führen müssen, dreht sich nicht darum, ob Cloud zu teuer ist. Cloud ist Infrastruktur, und Infrastruktur kostet Geld. Das Gespräch dreht sich darum, wer in der Organisation dafür verantwortlich ist, dass dieses Geld bewusst ausgegeben wird — und ob diese Person die Befugnis hat, auf das zu reagieren, was sie findet.
Derzeit kann in den meisten Organisationen die IT die Verschwendung sehen, aber nicht beheben. Finance kann die Rechnung sehen, aber nicht erklären. Und Fachabteilungen nutzen Ressourcen, ohne je das Preisschild zu sehen. In dieser Lücke verschwindet ein Viertel Ihres Cloud-Budgets. Diese Lücke zu schliessen ist kein Technologieprojekt. Es ist eine Führungsentscheidung darüber, wie Ihre Organisation eine Kostenkategorie steuert, die schneller wächst als fast jeder andere Posten in der GuV — und die KI gerade erheblich grösser machen wird.
Die Always-on-VMs des FP&A-Teams sind ein kleines Beispiel. Aber es ist ein perfektes. Weil die Lösung offensichtlich ist, die Einsparungen real sind und das Einzige, was im Weg steht, ein Gespräch ist, das niemand bereit war zu führen.
Diskussion
Werden Ihre Cloud-Ausgaben gesteuert — oder nur überwacht? Ich würde gerne hören, wie Ihre Organisation die Lücke zwischen IT-Transparenz und Business-Verantwortung handhabt — beteiligen Sie sich an der Diskussion auf LinkedIn.
Alles in Teil Eins ist in spezifischer Forschung verankert. Dieser Abschnitt legt die Daten offen für alle, die die Behauptungen überprüfen, die Zahlen hinterfragen oder dies ihrem Vorstand mit Quellen vorlegen möchten.
Teil Zwei: Die Belege
Wie gross ist das Verschwendungsproblem wirklich?
Die Kernzahl stammt aus dem Flexera 2025 State of the Cloud Report, der mehr als 750 technische Fachleute und Führungskräfte weltweit befragte. Ihr Ergebnis: Organisationen verschwenden durchschnittlich 27 % ihrer Cloud-Ausgaben [1]. Cloud-Budgets werden im Durchschnitt um 17 % überschritten — gegenüber 15 % im Vorjahr — und 84 % der Befragten stufen das Management von Cloud-Ausgaben als ihre grösste Herausforderung ein [1].
Broadcoms Private Cloud Outlook 2025, eine Umfrage unter 1.800 IT-Entscheidungsträgern, zeichnet ein noch drastischeres Bild aus der Perspektive der Praktiker. Fast die Hälfte der Befragten — 49 % — schätzt, dass mehr als 25 % ihrer Public-Cloud-Ausgaben verschwendet werden, und 31 % glauben, dass die Verschwendung die Hälfte ihres Gesamtbudgets übersteigt [2]. Das sind keine abstrakten Schätzungen; es ist das, was die Verantwortlichen für die Infrastruktur glauben, was unter ihrer Aufsicht passiert.
Der Harness-Bericht «FinOps in Focus 2025» ergänzt die Engineering-Dimension. Aus einer Befragung von 700 Entwicklern und Engineering-Führungskräften in den USA und Grossbritannien geht hervor, dass 44,5 Milliarden Dollar an Cloud-Infrastrukturausgaben in Unternehmen für 2025 als verschwendet prognostiziert werden — durch unterausgelastete Ressourcen. Die Erkenntnis, die dem Governance-Argument am nächsten kommt: 55 % der Entwickler sagen, dass Kapazitätszusagen auf Schätzungen statt auf gemessenen Daten basieren [3]. Ressourcen werden auf Basis von Schätzungen dimensioniert und festgelegt, dann unabhängig von der tatsächlichen Nachfrage auf diesem Niveau belassen.
Zum Kontext der Grössenordnung: In Software- und IT-zentrierten Mittelstandsunternehmen ist Cloud zum zweitgrössten Posten nach den Personalkosten geworden, mit durchschnittlich etwa 10 % des Umsatzes [4a]. Wenn ein Viertel dieses Postens Verschwendung ist, ist die finanzielle Auswirkung materiell — keine Optimierungschance, sondern ein Margenproblem.
Der KI-Kostenbeschleuniger — was die Daten zeigen
KI verschärft das Cloud-Kostenproblem schneller, als die meisten Organisationen erwartet haben, und die Datenlage ist mittlerweile belastbar genug, um die Auswirkungen zu quantifizieren.
Eine Studie von 2025 mit 372 Unternehmensorganisationen ergab, dass 80 % ihre KI-Infrastruktur-Kostenprognosen um mehr als 25 % verfehlen, wobei 24 % um 50 % oder mehr daneben liegen [5]. Dieselbe Studie stellte fest, dass 84 % der Unternehmen eine Bruttomargenerosion von mindestens 6 % durch unerwartete KI-Kosten erleben, und für Unternehmen mit hohem KI-Workload-Anteil erreicht die Margenauswirkung 16 % — was über 12 Millionen Dollar verlorenem EBITDA bei einem 200-Millionen-Dollar-Portfoliounternehmen entspricht [5].
Die Hyperscaler erhöhen gleichzeitig breitflächig die Preise. Google hat die Workspace-Preise Anfang 2025 um bis zu 22 % erhöht, indem Gemini-KI in die Kernpläne gebündelt wurde — eine Preiserhöhung, die für alle Kunden gilt, unabhängig davon, ob sie die KI-Funktionen nutzen [6]. Dieses Muster, KI in bestehende Produkte zu höheren Preisen zu bündeln, wird zur Standard-Preisstrategie der Hyperscaler, wodurch effektiv jeder Cloud-Kunde zum KI-Kunden wird, ob er es gewählt hat oder nicht.
Die Umfrage der FinOps Foundation 2026 — ihre sechste jährliche, mit 1.192 Befragten, die über 83 Milliarden Dollar jährliche Cloud-Ausgaben zusammen verwalten — bestätigt, dass Organisationen hektisch aufholen. Bemerkenswerte 98 % der FinOps-Fachleute verwalten jetzt KI-Ausgaben, gegenüber 63 % in 2025 und nur 31 % in 2024 [7]. Die Geschwindigkeit dieser Verschiebung spiegelt wider, wie schnell KI-Kosten vom experimentellen Posten zum dringenden Governance-Problem wurden.
FinOps-Reife — die Governance-Lücke in Zahlen
Der Begriff FinOps beschreibt eine funktionsübergreifende Disziplin für das Management von Cloud-Kosten — die Zusammenführung von Finance, Engineering und Geschäftsbereichen in ein gemeinsames Verantwortungsmodell. Das Reifegradmodell der FinOps Foundation verwendet drei Stufen: Crawl (Grundbewusstsein), Walk (aktive Optimierung) und Run (reif, kontinuierliches Management).
Die Verbreitung wächst: 59 % der Organisationen haben jetzt dedizierte FinOps-Teams, gegenüber 51 % in 2024 [1]. Aber der Reifegrad bleibt auffallend niedrig. Nur 14,2 % der Organisationen haben den «Run»-Status erreicht — die reife Stufe, in der Kosten-Governance in die operativen Entscheidungen eingebettet ist [7]. Die verbleibenden 85,8 % bauen noch die Grundlagen auf.
Die Lücke zwischen Verbreitung und Reife ist der Ort, an dem das Governance-Argument lebt. Ein FinOps-Team zu haben ist nicht dasselbe wie FinOps-Disziplin zu haben. Die Forschung ist konsistent: Organisationen mit reifen FinOps-Praktiken — diejenigen, die Run erreicht haben — erzielen 30–40 % Kosteneinsparungen im Vergleich zu nicht verwalteten Cloud-Ausgaben [7] [8]. Deloitte schätzt die branchenweite Einsparmöglichkeit auf 21 Milliarden Dollar allein für 2025, wobei einige Unternehmen die Cloud-Kosten um bis zu 40 % senken können [8].
Reserved Instances veranschaulichen die Lücke zwischen technischer Fähigkeit und Governance-Umsetzung. Die AWS-Dokumentation zeigt, dass Standard Reserved Instances Einsparungen von bis zu 72 % auf den On-Demand-Preis für langfristige Verpflichtungen bieten, mit typischen Einjahres-Einsparungen im Bereich von 30–40 % [9]. Das Werkzeug existiert. Die Einsparungen sind verfügbar. Aber sie zu realisieren erfordert zu wissen, welche Workloads vorhersehbar sind, welche Teams sie besitzen, und die organisatorische Befugnis zu haben, Verpflichtungen einzugehen und durchzusetzen — alles Governance-Funktionen, nicht technische.
Wie IDC Research Vice President Dave McCarthy beobachtete: Die Leichtigkeit, Ressourcen hochzufahren, reduzierte die Reibung auf der Vorderseite, führte aber ein neues Problem ein — die unerwartete Rechnung [4b]. Die Reibung verschwand nicht; sie verlagerte sich vom Einkauf zu Finance, wo niemand hinsah.
Die DACH-Regulierungsdimension
Der Governance-Imperativ verstärkt sich speziell für DACH-Unternehmen, getrieben von einem regulatorischen Zeitplan, der genau die Sichtbarkeit erfordert, die FinOps bietet.
Der Bitkom Cloud Report 2025 — eine Befragung von 604 deutschen Unternehmen mit mindestens 20 Mitarbeitenden — zeigt eine Cloud-Adoption von 90 %, neun Prozentpunkte mehr als 81 % in 2024 [10]. Cloud ist keine optionale Infrastruktur mehr; es ist die Betriebsumgebung. Aber die Souveränitätsdimension fügt eine Komplexitätsebene hinzu, die US- und UK-Unternehmen nicht haben. Dieselbe Bitkom-Umfrage ergab, dass 100 % der Befragten einen deutschen Cloud-Anbieter bevorzugen würden und 67 % ein vertrauenswürdiges Herkunftsland als obligatorisches Auswahlkriterium verlangen — gegenüber 58 % im Vorjahr [10].
Diese Präferenzen kollidieren mit einem regulatorischen Zeitplan, der bereits in Bewegung ist. NIS2 wurde im Oktober 2024 anwendbar, mit erweiterten Cybersicherheitspflichten einschliesslich Supply-Chain-Risikomanagement [11]. DORA — der Digital Operational Resilience Act — trat am 17. Januar 2025 in Kraft, mit strengen IKT-Risikomanagement-Anforderungen für Finanzunternehmen und ihre Technologieanbieter [12]. Der EU Data Act wurde am 12. September 2025 anwendbar, mit neuen Regeln für Datenzugang, Anbieterwechsel und Interoperabilität [13]. Und die Hochrisiko-Bestimmungen des EU AI Act — einschliesslich der Anforderungen von Artikel 10 an Datenqualität und Daten-Governance für KI-Systeme — erreichen am 2. August 2026 ihre volle Anwendbarkeit [14].
Jede dieser Verordnungen verlangt von Organisationen zu wissen, welche Daten sie besitzen, wo sie verarbeitet werden, wer Zugang hat und unter welchen Bedingungen. Eine Organisation, die nicht sagen kann, welche Cloud-Ressourcen laufen, wo sie laufen und was sie kosten, ist nicht in der Lage, die Compliance mit Verordnungen nachzuweisen, die genau dieses Mass an operativer Sichtbarkeit verlangen. Cloud-Governance und regulatorische Compliance sind keine getrennten Initiativen — sie stützen sich auf identische Fähigkeiten.
Referenzen
| Ref | Quelle | Veröffentlicht | Validiert | Verwendet für |
|---|---|---|---|---|
| 1 | Flexera — 2025 State of the Cloud Report | März 2025 | 10. März 2026 | 27 % Cloud-Verschwendung, 17 % Budgetüberschreitung, 84 % bewerten Kosten als grösste Herausforderung, 59 % haben FinOps-Teams (gegenüber 51 %) |
| 2 | Broadcom — Private Cloud Outlook 2025 | 2025 | 10. März 2026 | 49 % schätzen 25 %+ Verschwendung, 31 % glauben, Verschwendung übersteigt die Hälfte der Ausgaben |
| 3 | Harness — FinOps in Focus 2025 Report | Februar 2025 | 10. März 2026 | 44,5 Mrd. $ prognostizierte Cloud-Verschwendung, 55 % der Entwickler sagen, Zusagen basieren auf Schätzungen |
| 4a | CIO.com — Cloud costs now No. 2 expense at midsize IT companies behind labor | 2024 | 10. März 2026 | Cloud als zweitgrösster Posten nach Personalkosten, ~10 % des Umsatzes |
| 4b | CIO.com — CIOs contend with rising cloud costs | 2024 | 10. März 2026 | Dave McCarthy (IDC) Zitat zu unerwarteten Rechnungen durch einfache Cloud-Bereitstellung |
| 5 | Mavvrik — 2025 State of AI Cost Management Research | 2025 | 10. März 2026 | 80 % überschreiten KI-Kostenprognosen um 25 %+, 84 % erleben 6 %+ Margenerosion durch KI-Kosten |
| 6 | 9to5Google — Google Workspace Price Increase 2025 | Januar 2025 | 10. März 2026 | Google Workspace Preiserhöhung von bis zu 22 % mit Gemini-Bündelung |
| 7 | FinOps Foundation — State of FinOps 2026 Report | Februar 2026 | 10. März 2026 | 14,2 % auf Run-Reifegrad, 98 % verwalten KI-Ausgaben (gegenüber 31 % in 2024), 30–40 % Einsparungen bei Reife |
| 8 | Deloitte — TMT Predictions: FinOps Tools Help Lower Cloud Spending | November 2024 | 10. März 2026 | 21 Mrd. $ branchenweite Einsparmöglichkeit, bis zu 40 % Kostenreduktion erreichbar |
| 9 | AWS — Reserved Instances Pricing | Laufend | 10. März 2026 | Standard Reserved Instances bieten bis zu 72 % Einsparungen; typische Einjahres-Einsparungen 30–40 % |
| 10 | Bitkom — Cloud Report 2025: Wirtschaft ruft nach deutscher Cloud | Juni 2025 | 10. März 2026 | 90 % deutsche Cloud-Adoption, 100 % bevorzugen deutschen Anbieter, 67 % verlangen vertrauenswürdiges Herkunftsland |
| 11 | Europäische Kommission — NIS2-Richtlinie | Laufend | 10. März 2026 | NIS2 anwendbar seit Oktober 2024, erweiterte Cybersicherheitspflichten |
| 12 | EIOPA — Digital Operational Resilience Act (DORA) | Laufend | 10. März 2026 | DORA anwendbar seit 17. Januar 2025, IKT-Risikomanagement für Finanzunternehmen |
| 13 | Europäische Kommission — EU Data Act | Laufend | 10. März 2026 | EU Data Act anwendbar seit 12. September 2025, Datenzugang und Cloud-Wechselregeln |
| 14 | EU AI Act — Artikel 10: Daten und Daten-Governance | Laufend | 10. März 2026 | Artikel 10 Datenqualitätsanforderungen, volle Anwendbarkeit ab 2. August 2026 |
Dieser Artikel ist Teil der Strategic Insights-Reihe von alexandrebally.ch, in der wir die operativen Realitäten hinter Unternehmenstransformation und KI-Adoption für KMU in der DACH-Region beleuchten.
Kommentare sind noch nicht konfiguriert.