DrHitch - Fotolia

Cloud im Wandel: Warum hybride Strategien entscheidend sind

KI-Anwendungen treiben Datenvolumen und Kosten hoch. Public Clouds stoßen aber an Grenzen bei Compliance und Kontrolle. Hybride Cloud-Strategien bieten eine Lösung.

KI-Anwendungen treiben Datenvolumen und Kosten in die Höhe, während Compliance und Kontrolle immer wichtiger werden. Public Clouds können diesen Ansprüchen nur noch bedingt gerecht werden. Immer mehr Unternehmen setzen deshalb auf hybride Cloud-Strategien.

Kann die Public Cloud ihre Versprechungen noch halten?

Lange galt die Public Cloud als flexible und kosteneffiziente Lösung für Unternehmen, die ihre Daten standortübergreifend und in Echtzeit verfügbar machen wollen. Die Einstiegskosten sind niedrig, da keine eigene Infrastruktur nötig ist, und auch der Wartungsaufwand bleibt gering. Hinzu kommt ein nutzungsbasiertes Preismodell: Unternehmen zahlen nur für die Ressourcen, die sie tatsächlich verwenden – und können diese je nach Bedarf nahezu unbegrenzt skalieren. Gerade bei schwankender Auslastung ist das ein klarer Vorteil.

Und der Trend hält weiter an: Prognosen zufolge nähert sich die Public-Cloud-Branche einem historischen Meilenstein – bis 2026 soll die Marke von einer Billion Dollar überschritten werden. Die jährliche Wachstumsrate liegt aktuell bei rund 20 Prozent. Damit gehört die Public Cloud zu einer der am schnellsten wachsenden Branchen überhaupt. Was dabei allerdings oft vergessen wird: Die einstigen Versprechen erfüllen sich nur noch teilweise, denn die Bedürfnisse haben sich geändert. Höchste Zeit also, die Cloud-Strategien neu zu justieren.

Die Anforderungen an Cloud-Dienste haben sich geändert

Das Datenvolumen, das Unternehmen heute bewältigen müssen, ist in den vergangenen Jahren rasant gewachsen – nicht zuletzt durch den Einsatz von KI. Besonders große Sprachmodelle (Large Language Models, LLM) verschlingen enorme Mengen an Trainingsdaten. Sie kommen häufig bei Chatbots und virtuellen Assistenten zum Einsatz: Sie werden auf FAQ-Datenbanken, Support-Tickets oder Produktdokumentationen trainiert, um Kunden schnellere und konsistentere Antworten liefern zu können. Auch branchenspezifische Anwendungen sind weit verbreitet. Im Gesundheitswesen unterstützen LLMs beispielsweise bei der Auswertung von ärztlichen Berichten, im Rechtswesen werden sie dagegen genutzt, um Verträge zu analysieren.

Unternehmen, die KI einsetzen, speichern und verarbeiten deshalb nicht mehr nur klassische Geschäftsdaten, sondern auch riesige Mengen an Text, Audio, Video, Sensor- und Metadaten – und hier ist das Volumen deutlich höher als bei klassischen Excel-Tabellen oder Word-Dokumenten. Gartner geht sogar davon aus, dass rund 80 Prozent aller Unternehmensdaten in unstrukturierter Form vorliegen und sich zum Beispiel in E-Mails, Gesprächsprotokollen oder Support-Tickets verstecken. Das Problem: Während das Training und die Nutzung von KI-Anwendungen immer mehr Rechenleistung verschlingt, schießen parallel dazu auch die API- und Egress-Gebühren in die Höhe.

Viele Unternehmen überschreiten regelmäßig ihre Budgets

Während das Hochladen von Daten in die Public Cloud in der Regel kostenlos ist, entstehen beim Abruf oft hohe Egress-Gebühren. Diese fallen auch dann an, wenn Daten aus einem Cloud-Speicherdienst an andere Standorte, Netzwerke oder ins Internet übertragen werden. Hyperscaler wie AWS, Microsoft Azure oder Google Cloud setzen dabei auf komplexe Preismodelle.

Besonders bei Cold Storage, der nur selten abgerufen wird, kommt es häufig zu kostspieligen Überraschungen: Sobald Daten für Audits, KI-Training oder Backup-Recovery zurückgeholt werden müssen, schnellen die Kosten in die Höhe. Laut einer Studie von Broadcom berichten 94 Prozent der Unternehmen von vermeidbaren Ausgaben in der Public Cloud – fast die Hälfte schätzt, dass mehr als ein Viertel ihres Budgets durch Ineffizienzen verloren geht.

Auch Daten von Wasabi zeigen, welche Herausforderungen rund um Datensicherheit und Backups bestehen: 35 Prozent der deutschen Unternehmen haben im vergangenen Jahr ihre Budgets leicht, 31 Prozent sogar deutlich überschritten. Hauptursachen sind Abweichungen zwischen geplanter und tatsächlicher Nutzung sowie Zusatzgebühren für Vorgänge wie Datenreplikation oder Objekt-Tagging. Für 35 Prozent der Befragten zählen Egress-Kosten weiterhin zu den größten Kostentreibern im Cloud-Speicher. Mehr als drei Viertel der Unternehmen gaben zudem an, dass diese Gebühren nicht nur die Budgets belastet, sondern auch IT- und Geschäftsinitiativen direkt behindert haben.

Private-Cloud-Strukturen werden wieder attraktiver

Neben der Rechenleistung spielen auch Compliance-Anforderungen eine zentrale Rolle: KI-Tools benötigen nämlich oft auch Zugriff auf sensible Daten, die je nach Land bestimmten Regulierungen unterstehen. So sieht zum Beispiel der AI Act der Europäische Union vor, dass personenbezogene Daten vertraulich behandelt werden und die Verarbeitung nachvollziehbar gestaltet sein muss – eine zusätzliche Herausforderung, wenn die Daten in externen Systemen gespeichert und verarbeitet werden. In den Public Clouds der großen Hyperscaler fließen Daten nämlich standardmäßig zwischen Diensten und Regionen hin und her, was erhebliche Risiken für Compliance und Transparenz birgt.

Marco Pfuhl, Wasabi

„Es geht nicht darum, die Public Cloud für unbrauchbar oder die Private Cloud für fehlerfrei zu erklären. Der Schlüssel liegt stattdessen in einem hybriden und damit flexiblen Ansatz – denn auch in Zukunft können sich die Bedürfnisse jederzeit wieder ändern.“

Marco Pfuhl, Wasabi

Laut dem Broadcom-Report überdenken deshalb viele IT-Verantwortliche ihre Abhängigkeit von Public-Cloud-Infrastrukturen: 69 Prozent erwägen, Workloads zurück in private Umgebungen zu verlagern – 53 Prozent sehen die Private Cloud in den kommenden drei Jahren sogar als höchste Priorität. Ziel ist es, wieder mehr Kontrolle über rechenintensive Workloads zu erlangen und gleichzeitig die Kosten zu reduzieren oder zumindest planbarer zu gestalten. Ein kompletter Umstieg ist jedoch aufwendig und kostspielig – zudem können sich Anforderungen jederzeit ändern. Umso wichtiger ist es, flexibel zu bleiben.

Unternehmen brauchen mehr Kontrolle – und Flexibilität

Die Cloud-Revolution lässt nicht nach. Ganz im Gegenteil: Mit dem Aufstieg moderner KI-Technologien wächst der Bedarf an Speicher- und Rechenkapazitäten rasant. Gleichzeitig haben sich die Anforderungen der Unternehmen verändert. Anstatt sich auf eine einzige Lösung zu verlassen, sollten sie die Vorteile beider Welten kombinieren – die Kontrolle und Compliance einer Private Cloud mit der Agilität und Skalierbarkeit der Public Cloud.

Hybrid-Cloud-Architekturen ermöglichen es, Rechenleistung und Speicher gezielt zu trennen und so effizienter und flexibler zu arbeiten. Die Rückführung von Workloads, Daten oder Anwendungen aus der Public Cloud in lokale IT-Umgebungen, auch Repatriierung genannt, bedeutet daher keinen Rückschritt, sondern stellt eine Optimierung der bisherigen Strategie dar. Es geht nicht darum, die Public Cloud für unbrauchbar oder die Private Cloud für fehlerfrei zu erklären. Der Schlüssel liegt stattdessen in einem hybriden und damit flexiblen Ansatz – denn auch in Zukunft können sich die Bedürfnisse jederzeit wieder ändern.

Über den Autor:
Marco Pfuhl ist Country Manager DACH bei Wasabi.

 

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Cloud Computing