Alexander - stock.adobe.com

Steigende Hyperscale-Cloud-Kosten bremsen KI-Innovation

Hohe Cloud-Ausgaben gefährden KI-Projekte. Flexible, Edge-orientierte Modelle helfen Unternehmen, Kosten zu senken und die Kontrolle über ihre KI-Investitionen zurückzugewinnen.

Künstliche Intelligenz (KI) soll die Wirtschaft in allen Bereichen verändern, doch die dafür nötigen Kosten könnten dieses Ziel zunichtemachen. In ganz Europa sind die Ausgaben für Cloud-Dienste so rasant und mit so geringer Flexibilität gestiegen, dass viele Unternehmen den Wert ihrer KI-Investitionen nicht mehr realisieren können.

Cloud-Dienste sind für die Entwicklung und den Einsatz von KI-Modellen weiterhin unerlässlich. Doch die heutige Cloud-Ökonomie stellt Unternehmen vor schwierige Entscheidungen. Egress-Gebühren, starre Verträge und technische Abhängigkeit von proprietären Infrastrukturen haben dafür gesorgt, dass KI nicht mehr eine strategische Priorität, sondern oft eine Budgetbelastung wird.

KI-Budgets werden zur Deckung steigender Cloud-Kosten umgeleitet

Finanzielle Mittel, die ursprünglich für Innovation vorgesehen waren, fließen inzwischen in die reine Aufrechterhaltung des Betriebs. Viele Organisationen verschieben ihre Pläne, den Einsatz von KI auszuweiten, oder streichen sie sogar vollständig.

Diese Erfahrungen sind kein Einzelfall: Die britische Wettbewerbs- und Marktaufsichtsbehörde (CMA) hat kürzlich Bedenken geäußert, dass der begrenzte Wettbewerb auf dem 9 Milliarden Pfund (etwa 10.358.100.000 Euro) schweren heimischen Cloud-Markt zu weniger Innovation, höheren Preisen und geringerer Servicequalität führen könnte.

Die Tendenz lässt sich auch auf andere Märkte übertragen. Gartner prognostiziert inzwischen, dass in den nächsten drei Jahren jedes vierte Unternehmen Schwierigkeiten bei der Einführung von Cloud-Lösungen erleben wird. Cloud-Kosten belasten die Budgets in allen Abteilungen, verzögern Neueinstellungen und begrenzen den Umfang von Innovationsvorhaben.

Warum Cloud-Kosten so schnell steigen

Für viele Unternehmen lässt sich die Rendite von KI-Investitionen angesichts der aktuellen Preisstruktur der meisten Hyperscale-Cloud-Anbieter nur schwer beziffern – und noch schwerer rechtfertigen.

John Bradshaw, Akamai

„Cloud-Kosten belasten die Budgets in allen Abteilungen, verzögern Neueinstellungen und begrenzen den Umfang von Innovationsvorhaben.“

John Bradshaw, Akamai

Ein wesentlicher Faktor sind Egress-Gebühren: Kosten, die anfallen, wenn Daten aus der Cloud eines Anbieters heraus übertragen werden. Diese Gebühren werden bei Vertragsabschluss häufig übersehen, können sich jedoch später als dauerhafte Belastung für die Leistungsfähigkeit und Kostenplanung erweisen.

Unternehmen, die IT-Ausgaben bislang vor allem unter dem Aspekt der Produktivität oder Effizienz bewertet haben, sehen sich jetzt mit Kosten konfrontiert, die sich nur schwer vorhersagen oder auffangen lassen. Die naheliegende Lösung scheint ein Anbieterwechsel zu sein. In der Praxis machen jedoch Anbieterbindung, Vertragslaufzeiten und architektonische Komplexität diesen Schritt teuer und langwierig.

Anbieterbindung begrenzt Flexibilität und erhöht das Risiko bei Cloud-Migrationen

Viele Cloud-Verträge laufen über drei Jahre und sind technisch so gestaltet, dass zentrale Systeme eng an die proprietären Technologien des jeweiligen Anbieters gebunden werden. Migrationen bergen operative Risiken und die Kosten für die Neugestaltung der Infrastruktur übersteigen oft die erwarteten Vorteile.

In der Praxis ist Vendor Lock-in jedoch nicht nur ein vertragliches Problem: Er umfasst auch Data Lock-in, bei dem der Umfang und die Komplexität der Datenübertragung einen Wechsel nahezu unmöglich machen, sowie Architectural Lock-in, bei dem die Systeme eines Unternehmens tief im Ökosystem eines bestimmten Anbieters verankert sind. Sind diese Hürden gegeben, ist strategische Beweglichkeit kaum noch möglich.

Wie man die Kontrolle über KI-Investitionen zurückgewinnt

Trotz dieser Herausforderungen gibt es praktikable Alternativen. Unternehmen können Anbieterbindung vermeiden, indem sie frühzeitig die Portabilität ihrer Workloads planen, Anbieter mit offenen Architekturen wählen und die Exponierung gegenüber hohen Egress-Gebühren reduzieren. Die Wahl eines Anbieters, der flexiblen Datenverkehr ermöglicht und verteilte Rechenmodelle unterstützt, kann helfen, die Kontrolle über Performance und Kosten wiederzuerlangen.

Vor allem Edge Computing bietet hier einen vielversprechenden Ansatz: Anstatt KI vertikal durch größere, zentralisierte Ressourcen zu skalieren, wird mit Edge-Architekturen horizontal skaliert. So werden KI-Workloads näher an den Ort der Datenerzeugung und Entscheidungsfindung verlagert. Dieser Ansatz reduziert Latenz, senkt den Bandbreitenverbrauch und ermöglicht Echtzeitreaktion im großen Maßstab.

Dynamische Cloud-Modelle ermöglichen eine flexible und kosteneffiziente Bereitstellung von Workloads. Vor allem aber erlauben sie es Unternehmen, von starren Infrastrukturverpflichtungen auf ein dynamischeres und anpassungsfähigeres Modell umzusteigen.

Entscheidend ist, Workloads in genau der Umgebung zu betreiben, die ihren betrieblichen und finanziellen Anforderungen am besten entspricht. Das bedeutet, über die klassischen Hyperscaler hinauszudenken und Anbieter zu wählen, die Edge-native Bereitstellung und Kostentransparenz nicht als teures Extra, sondern als Standard bieten.

Eine nachhaltige Zukunft für KI gestalten

Das Potenzial von künstlicher Intelligenz ist nach wie vor enorm – es lässt sich jedoch nicht allein mit veralteter Infrastruktur ausschöpfen. Unternehmen brauchen ein grundlegend neues Verhältnis zu ihren Cloud-Anbietern: Es sollte auf offenen Standards, messbaren Ergebnissen und architektonischer Flexibilität basieren.

Durch die Ausrichtung der Investitionsstrategie auf ein stärker verteiltes, Edge-orientiertes Cloud-Modell können Unternehmen ihre Abhängigkeit von Anbietern verringern, Budgets wieder besser kontrollieren und KI-Initiativen kompromisslos vorantreiben.

Die nächste Phase des Cloud Computings wird nicht allein durch Größe definiert werden, sondern durch Anpassungsfähigkeit, Effizienz und strategische Ausrichtung – und diejenigen, die diesen Wandel frühzeitig vollziehen, werden die besten Voraussetzungen haben, eine führende Rolle einzunehmen.

Über den Autor:
John Bradshaw ist EMEA Director of Cloud Computing Technology and Strategy bei Akamai. Mit mehr als zehn Jahren Erfahrung in der Cloud-Technologie versteht er Chancen und Herausforderungen von Unternehmen rund um vernetzte Cloud-Lösungen und unterstützt Kunden dabei, mit einer leistungsfähigen IT-Infrastruktur ihre Wachstumspotenziale zu realisieren. Als Branchenexperte für Cloud Computing, Unternehmensarchitektur und Solutions Engineering hatte John bereits Schlüsselpositionen bei AWS, Skytap und Dropbox inne und leitete als Head of Cloud die digitale Cloud-Transformation von WPP.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Cloud Computing