Getty Images
KI: Diese Herausforderungen müssen Storage-Admins meistern
Speicheradmins sehen sich durch den Einsatz von KI neuen Herausforderungen in Bezug auf Vertrauen, Technologie und rechtliche Haftung gegenüber. Wir erklären, wie sie diese meistern.
Speicher- und Datenmanagement-Teams sehen sich mit einer Flut neuer Herausforderungen konfrontiert, da künstliche Intelligenz (KI) in Unternehmen zunehmend Einzug hält.
Laut Branchenexperten und Anbietern sind Unternehmen daran interessiert, KI-Anwendungen zu nutzen, die auf komplexe Weise auf unstrukturierte Datenspeicher zurückgreifen, wie beispielsweise agentische KI (Agentic AI) für mehrstufige Entscheidungsprozesse. Die Umsetzung dieser hochgesteckten Automatisierungsziele, die auf jahrelang gesammelten Unternehmensdaten basieren, ist jedoch mit drei großen Herausforderungen verbunden: Datenvertrauen, Speichertechnologien und organisatorische Haftung.
„Das übergeordnete Ziel, KI auf gespeicherte Daten anzuwenden, besteht darin, maschinenlesbare Ordnung in einen von Natur aus chaotischen menschlichen Entscheidungsprozess zu bringen“, sagt Sanjeev Mohan, Gründer und Chefanalyst bei SanjMo.
Der Weg zu diesem Ziel werde je nach den Bedürfnissen, Wünschen und finanziellen Mitteln einer Organisation sehr unterschiedlich ausfallen, so Mohan. Letztendlich sei es das Ziel, unstrukturierte Daten zu nehmen und daraus eine Struktur zu schaffen.
Vertrauen
Die meisten Unternehmen sollten sich auf eine Flutwelle von zu verarbeitenden Daten einstellen, so Christophe Bertrand und Scott Hebner, Analysten bei TheCube Research, in einem kürzlich abgehaltenen Webinar mit dem Titel Governance und Compliance im Zeitalter von Daten und KI (Governance and Compliance in the Age of Data and AI).
Agentische KI-Implementierungen, die eine Sammlung von KI-Diensten nutzen, um Entscheidungen auf der Grundlage von Trainingsdaten und früheren Entscheidungen zu treffen, werden in Verbindung mit generativer KI eine riesige Menge neuer Daten erzeugen, so Bertrand.
Unternehmen müssen nicht nur Wege finden, diese Daten zu sichern und zu speichern, sondern auch Methoden entwickeln, schlechte Informationen oder Entscheidungen in einem Tempo auszusortieren, mit dem die menschliche Intelligenz wahrscheinlich nicht Schritt halten kann.
„Angesichts dieser Datenflut ist es kein Wunder, dass niemand diesen Daten vertrauen wird”, meint Bertrand im Webinar. „Wir haben ein Compliance-Problem aufgrund des Datenproblems, und jetzt haben wir ein Agentenproblem, das alles noch verschlimmern wird.”
Daten, die aus agentischen Entscheidungsbäumen stammen, könnten auch internationale Haftungsrisiken hinsichtlich der in diese Systeme eingegebenen Daten mit sich bringen, insbesondere in Ländern mit strengeren Datenschutzgesetzen als den USA, wie beispielsweise der EU-DSGVO.
„Man kann innerhalb seines eigenen Bundesstaates oder Landes so viel deregulieren, wie man will, aber man ist an die Vorschriften anderer Länder gebunden, und diese werden sich durchsetzen“, betont Bertrand.
Organisationen, die ihre eigenen internen Daten vollständig überprüft haben und ihnen vertrauen, könnten dennoch später Probleme mit der Nutzung beliebter Large Language Model (LLM)-Dienste, SaaS-KI-Diensten oder sogar ihren Speicherpartnern bekommen, fügt er hinzu.
Viele IT-Teams sind bei der Durchsetzung und Sicherung von SaaS-Daten nachlässig, die ohne ihr Wissen durch Angriffe auf den Anbieter oder durch die Verwendung von Tools, die gegen die eigenen Standards und Erwartungen der Organisation verstoßen könnten, kompromittiert werden können.
„Wenn Sie nicht 100 Prozent Ihrer Daten kennen, gehören sie Ihnen nicht“, warnt Bertrand.
Letztendlich erfordert die Menge an Junk- oder unnötigen Daten, dass die Führungsebene eines Unternehmens strenge Richtlinien für die Datenverwaltung und -kontrolle festlegt, sagt Matt McVaney, Chief Revenue Officer bei BombBomb, einer Videonachrichtenplattform.
KI benötigt Daten, die mit der Gesamtmission eines Unternehmens für seine Kunden übereinstimmen, sagt McVaney in einer Folge des Podcasts That DOS Won't Hunt von InformationWeek.
Unabhängig davon, ob der Schwerpunkt der KI ausschließlich auf der Umsatzgenerierung oder anderen Zwecken liegt, sollte die Verfügbarkeit von Daten, die den Mustern und Bedürfnissen der Kunden entsprechen, oberste Priorität in jeder KI-Datenstrategie haben.
„Daten sind nur dann nützlich, wenn sie Erkenntnisse, Entscheidungen und Maßnahmen vorantreiben“, betont McVaney. „Man muss die Kunden verstehen, man muss ihr Verhalten auf einer wirklich mikroskopischen Ebene verstehen. Wenn man weiß, was sie wollen oder brauchen, bestimmt das alles andere danach.“
KI-Datenkunden sollten auch sicherstellen, dass die Technologie, die sie kaufen, mit ihrer eigenen Mission und ihren spezifischen Anforderungen in Bezug auf Leistung, Preis und Fähigkeiten übereinstimmt, erklärt Greg Statton, Vice President of AI Solutions bei Cohesity, einem SaaS-Backup-Anbieter, der auch KI-Dienstleistungen verkauft.
Er führt an, dass die Standards, an die sich Anbieter halten, möglicherweise nicht mit denen der Kunden oder Wettbewerber übereinstimmen, sodass Käufer ihre eigenen Erwartungen oder Prüfstandards von Dritten, wie zum Beispiel NIST, im Auge behalten sollten.
„Mit zunehmender Begeisterung für das neue Modell, den agentischen Rahmen oder Standard werden die Menschen erkennen, dass all dies keine Rolle spielt, wenn die Daten nicht vorhanden sind und die Daten nicht gut sind“, sagt Statton. „Es gibt zu viele Standards für die Bewertung von Daten und zu viele Möglichkeiten für Unternehmen, bei ihren Bewertungsergebnissen Spielraum zu haben. KI-Tools und -Anwendungen werden niemals perfekt sein.“
Die richtige Technologie finden
Die nächste große Herausforderung für Speicher- und Datenmanagement-Teams besteht darin, die ideale Technologie zu finden, um sicherzustellen, dass Daten aus dem Speicher gefunden, aufbereitet und an eine Vielzahl von KI-Diensten geliefert werden können.
Laut Mohan haben sich die meisten Speicher- und Datenmanagement-Plattformen darauf geeinigt, Metadaten als Bindeglied für Daten über verschiedene Dienste und Prozesse hinweg zu verwenden, wie beispielsweise Vektorisierung, Data Lakes und agentische KI.
Obwohl Metadaten in fast allen Daten vorhanden sind, die entweder zum Zeitpunkt der Datenerstellung erzeugt oder nachträglich durch Software hinzugefügt werden, mangelt es an Standardisierung zwischen Anbietern und Technologien, sagt er.
Speichersysteme könnten ihre eigene Form von Metadaten verwenden, die dann entweder in unstrukturierte oder semistrukturierte Data Lakes und Dienste wie Kafka eingespeist und anschließend in KI-Prozessen weiter katalogisiert werden, so Mohan. Die Vorab-Einrichtung eines formalisierten Tagging-Standards und eines Technologie-Stacks kann dazu beitragen, einige dieser Herausforderungen zu mindern.
„Dutzende dieser Produkte erfassen bestimmte Metadaten, um ihre Aufgabe zu erfüllen, aber es gibt Überschneidungen“, erklärt er.
Die nächste große Herausforderung für Speicheradministratoren wird darin bestehen, die Black-Box-Natur proprietärer und beliebter LLM-Dienste zu umgehen, meint Hebner.
Obwohl es Open-Source-LLMs gibt, entscheiden sich viele Unternehmen für proprietäre Modelle wie Microsoft Copilot, das die LLM-Technologie Prometheus von Microsoft nutzt. Entweder zum Schutz von Geschäftsgeheimnissen oder aus anderen möglichen rechtlichen Gründen sind proprietäre Modelle nicht wie Open-Source-Varianten einsehbar, bieten jedoch eine schnellere Einarbeitung und Implementierung in Unternehmensabläufe.
Dieser Ansatz schafft eine Haftung für Organisationen, die solche Technologien einsetzen, da die Implementierung von KI-Tools ohne vollständiges Verständnis jedes einzelnen Aspekts des Entscheidungsprozesses eines Agenten neue Risiken bergen kann, so Hebner.
„Da sie wie Black Boxes funktionieren, sind sie nicht wirklich in der Lage, die Gründe für ihre Aussagen zu erklären“, fügt er hinzu.
Speicherdienste haben sich bereits in Richtung einer abstrakteren Funktionsweise entwickelt, vor allem durch das Pay-as-you-go-Modell für verwaltete Cloud-Dienste, sagt Mike Matchett, Gründer und Chefanalyst bei Small World Big Data.
Dieses Modell werde in ähnlicher Weise auch für KI-Dienste gelten, die Speicher nutzen, um neue, zunächst unbekannte Engpässe hinsichtlich der bestmöglichen Optimierung von Hardware und Infrastruktur zu schaffen, so Matchett. Speicheradministratoren würden sich in Zukunft möglicherweise nicht mehr so sehr mit der zugrunde liegenden Technologie als vielmehr mit den Ergebnissen beschäftigen, aber Unkenntnis über die Komponenten und Fähigkeiten könnte zu Ineffizienzen durch zu hohe Ausgaben oder Unterversorgung führen.
„Im Idealfall wird die Verwaltung des Speichers auf einer niedrigeren Ebene integriert“, erklärt er. „Aber jedes Mal, wenn dieser Fortschritt stattfindet, gewinnt man auf der höheren Ebene viel an Effizienz und verliert auf der niedrigeren Ebene viel. Man bezahlt für das, was man nutzt, hat aber keine Kontrolle darüber, wie man es nutzt.“
Matchett schloss sich Hebners Bedenken hinsichtlich des Black-Box-Ansatzes bei KI an und merkte an, dass Unternehmen sich mit dem Verlust der Transparenz bei KI-Entscheidungsprozessen abfinden müssen.
„Es gibt eine agentische KI-Ebene, die diese Entscheidungen trifft und für den Benutzer unsichtbar ist“, sagt er. „Wir haben all das an den Agenten abgegeben. Wir haben keine Transparenz mehr.“
Mögliche Haftung?
Ein Blankoscheck und die schnellsten GPUs, die die Cloud zu bieten hat, entbinden einen IT-Mitarbeiter nicht von seinen rechtlichen Verpflichtungen und Haftungen im Zusammenhang mit KI. Selbst führende Unternehmen der KI-Branche wie Google wappnen sich mit Entschädigungsangeboten für rechtliche Rückschläge.
Nebenprodukte der KI-Einführung wie Vibe Coding haben bereits mehrere zuvor unterschiedliche Aufgaben und Verantwortlichkeiten zusammengeführt, sodass ein Mitarbeiter nun Codierer, Designer, User Experience Specialist und vieles mehr sein kann, so Mohan. Da sich diese Tools weiterentwickeln und einen immer größeren Teil des Unternehmens ausmachen, müssen Organisationen überlegen, wem KI-Agenten oder von Mitarbeitern erstellte Anwendungen unterstehen, wie sie verwaltet werden und wie ihre Datenrichtlinien aussehen.
„Die Schritte ändern sich nicht, aber die Geschwindigkeit, mit der wir sie ausführen, hat sich geändert“, sagt Mohan. „Die Frage ist nun, wem ein KI-Agent gehört und wer diesen Agenten nutzt, da man ein bisschen von allem gemacht hat.“
Agentische KI zur Beschleunigung der Automatisierung wird in den kommenden Jahren zu einer entscheidenden Anwendung von KI in Unternehmen werden, so Hebner. Die Marktstimmung spiegelt seine Einschätzung wider, denn eine Umfrage der Enterprise Strategy Group, die jetzt zu Omdia gehört, vom Januar 2025 ergab, dass 49 Prozent der 653 Befragten Kosteneinsparungen durch Prozessautomatisierung als entscheidenden Faktor für die Wirksamkeit von KI betrachten.
Unternehmen, die Agenten einsetzen, und die Nutzer, die diese entwickeln, müssen verstehen, wie jeder Agent zu einer Entscheidung gelangt, und sicherstellen, dass diese Wege dokumentiert werden, betont er.
„Wir befinden uns in einem sich wandelnden Umfeld, in dem GenAI (generative KI) bisher vor allem zur Automatisierung sich wiederholender Aufgaben eingesetzt wurde, um die Produktivität zu steigern“, sagt Hebner. „Immer mehr Unternehmen erreichen einen Punkt, an dem sie KI für einen Aktionspfad einsetzen möchten.“
Der Großteil dieser KI-Verantwortung werde eher bei der Führungsetage als bei den IT-Mitarbeitern liegen, sagt Bertrand. Die KI-Vision, -Missionen und -Bedeutung müssten von der obersten Führungsebene eines Unternehmens vorgegeben und erläutert werden, nicht von einzelnen Mitarbeitern.
„Der Speicheradministrator steht nicht an der Spitze der Pyramide – der Speicheradministrator befindet sich tatsächlich auf der Ausführungsebene“, sagt er. „Obwohl sie viel Verantwortung tragen, muss die Governance von oben kommen. Führungskräfte müssen sich genauer mit Anwendungsfällen, Fähigkeiten und der tatsächlichen Bedeutung des Erfolgs der KI eines Unternehmens befassen.“
Diese Führungskräfte müssen auch sicherstellen, dass sie bereit sind, eine schwierige Entscheidung zu treffen, sollte es zu einer Krise aufgrund von schlechten Daten kommen, die in der KI verwendet werden, so McVaney.
„Letztendlich muss jemand entscheiden, wohin die Daten gehen und was mit ihnen geschieht“, sagt er. „Es darf nicht zu einer Auseinandersetzung im Konferenzraum kommen.“