trahko - stock.adobe.com

Deep Learning in Storage-Systemen: ein Etikettenschwindel?

Viele Speicherhersteller geben an, ihre Systeme mit Deep-Learning-Funktionen auszustatten. Dabei sollten Anwender genauer hinschauen, da dies nicht immer der Realität entspricht.

Hypes und Trends entwickeln schnell eine Eigendynamik. Das gilt insbesondere in einer schnelllebigen Branche wie der IT. Unternehmen in der IT-Branche spüren die Notwendigkeit, möglichst schnell in relevante Trends einzusteigen, um den Eindruck zu vermeiden, sie hätten den Anschluss verpasst. Das gilt ganz sicher für den Einsatz von Künstlicher Intelligenz in IT-Produkten. „Künstliche Intelligenz“ und damit verwandte Begriffe wie „Machine Learning“ und „Deep Learning“ werden entsprechend inflationär von IT-Unternehmen beziehungsweise Lösungsanbietern benutzt, ohne dass die entsprechend angepriesenen Produkte immer oder auch nur häufig die Versprechungen erfüllen können. Da keine offizielle Definition der erwähnten Begriffe besteht, kann man diesen Unternehmen nicht einmal Etikettenschwindel vorwerfen.

Begriffsdefinition

Werfen wir also einen Blick auf einige Definitionen historischer Autoritäten zu diesem Thema, um uns Klarheit darüber zu verschaffen, worüber wir reden. Den Begriff „Intelligenz“ auf Computer oder allgemeiner Maschinen anzuwenden, geht auf einen Aufsatz des britischen Logikers Alan Turing zurück. Sein Text aus dem Jahr 1950 beginnt mit der Frage „Können Maschinen denken?“ und enthält unter anderem die berühmte Beschreibung des Turing-Tests, der entscheiden soll, ob eine Maschine denken kann: „Wenn ein Mensch nicht zwischen den Antworten einer Maschine und denen eines Menschen unterscheiden könnte, könnte die Maschine als intelligent angesehen werden.“

Der Begriff „Künstlichen Intelligenz“ wurde erstmals 1956 von Professor John McCarthy geprägt, der ihn wie folgt definierte: „Einen Computer dazu bringen, Dinge zu tun, von denen man sagt, dass sie, wenn sie von Menschen ausgeführt werden, Intelligenz enthalten.“ Der Begriff „Machine Learning“ wiederum wurde 1959 von Arthur Samuel bei IBM eingeführt, wo er das erste intelligente Computerspiel (Dame) entwickelte. Machine Learning ist eine direkte Untermenge von KI. Demnach ist alles ML auch KI, aber nicht alle KI ist ML. Samuels Definition lautet: „Maschinelles Lernen ist eine Anwendung der künstlichen Intelligenz, die Systemen die Fähigkeit verleiht, automatisch aus Erfahrung zu lernen und sich zu verbessern, ohne [hierfür] explizit programmiert zu werden.“

Der grundlegende Unterschied zwischen KI und ML besteht also darin, dass eine KI-Funktion zwar Intelligenz zeigen kann, diese Intelligenz aber explizit von Menschen durch die Programmierung gesteuert wurde. Bei ML ist der Computer selbst in der Lage, neue und unabhängige Entscheidungen auf der Grundlage neuer Eingaben und seiner Programmierung zu treffen, ohne zusätzliche menschliche Anweisungen.

Deep Learning schließlich ist eine direkte Teilmenge von ML. Alles DL ist also auch ML, aber nicht alles ML ist DL. Professor Rena Dechter führte den Begriff 1986 ein und definierte ihn wie folgt: „Deep Learning ist eine Klasse von Algorithmen des Machine Learning, die mehrere Schichten verwenden, um schrittweise Merkmale auf höherer Ebene aus dem rohen Input zu extrahieren.“

Der grundlegende Unterschied zwischen DL und ML besteht darin, dass DL mehrere Optionen zu mehreren Zeitpunkten analysiert, wenn es Entscheidungen trifft. DL analysiert, testet und lernt dann aus der Effektivität seiner früheren Entscheidungen, um die Qualität seiner zukünftigen Entscheidungen kontinuierlich und stetig zu verbessern. DL ist eindeutig der intensivste und komplexeste Ansatz der drei Formen von KI, aber auch derjenige, der das größte Potenzial hat, die besten und effektivsten Ergebnisse zu liefern. Kein Wunder, dass immer mehr Unternehmen ihn für ihre Produkte reklamieren.

Deep Learning in Storage-Produkten

Da ich in der Storage-Branche arbeite, nutze ich das Beispiel einer Speicherlösung, um zu zeigen, wann erst echtes DL vorliegt und welchen Nutzen es dann für ein Unternehmen bieten kann. Grundlegend verhält es sich bei Netzwerk- oder Server-Lösungen allerdings ähnlich. Den größten Nutzen kann DL innerhalb einer Speicherlösung im Cache liefern, weil es hier die Systemleistung am besten steigern kann. Wird die Leistung im Cache gesteigert, kann zudem die Verwendung teurer Speichermedien, sprich Flash-Speicher, entfallen. Das bedeutet für Unternehmen dann höchste Leistungsfähigkeit zum günstigsten Preis.

Nevzat Bucioglu, Infinidat

„Echtes DL liegt nun vor, wenn das System sich selbst für die seltenen Fälle optimiert, in denen sich Daten, die von einem Anwendungsserver angefordert wurden, nicht bereits im Cache befinden.“

Nevzat Bucioglu, Infinidat

DL-Algorithmen können im Cache eine zusammenhängende Historie jedes Datenabschnitts aufbewahren, den das System seit seiner Einführung erhalten hat. Weil sie somit Zugriff auf den gesamten Netzwerkverkehr zum Speichersystem (also die komplette die I/O-Historie) haben, können die Algorithmen Korrelationen in Datenzugriffsmustern erkennen und auf dieser Basis Vorhersagen künftiger I/O-Anforderungen treffen, die sie dann präventiv im Cache bereitstellen. Da die meisten I/O-Anfragen direkt aus dem RAM bedient werden, das um ein Hundertfaches geringere Latenzzeiten als Flash aufweist, ist so die bestmögliche Performance gewährleistet.

Bis hierhin haben wir es lediglich mit ML zu tun. Echtes DL liegt nun vor, wenn das System sich selbst für die seltenen Fälle optimiert (im Durchschnitt 5-7 Prozent), in denen sich Daten, die von einem Anwendungsserver angefordert wurden, nicht bereits im Cache befinden. Dann müssen sie aus dem persistenten Backend-Speicher abgerufen werden. Wenn das DL-System nun nicht nur die angeforderten Daten in den Cache bringt, um sie an den Anwendungsserver zu liefern, sondern auch mehrere andere zusätzliche Daten in den Cache lädt, kann es diese zusätzlichen Daten auf der Grundlage einer vorherigen intelligenten Analyse ihrer möglichen Assoziationen mit den tatsächlich von der Anwendung angeforderten Daten im Cache speichern. Die DL-Software beobachtet, analysiert und lernt dann, welche dieser zusätzlichen Daten (falls vorhanden) später ebenfalls angefordert wurden und wann. Dieses Lernen beeinflusst dann die künftigen verschiedenen Optionen für zusätzliche Daten, die vor einer tatsächlichen Anforderung durch eine Anwendung in den Cache gebracht werden können. Dieser mehrstufige Vorgang ist dann ein Fall von echtem DL, weil er - wie oben definiert - seine früheren Entscheidungen analysiert, testet und dann aus der Effektivität seiner früheren Entscheidungen lernt, die Qualität seiner künftigen Entscheidungen kontinuierlich und stetig zu verbessern.

Echtes Deep Learning - echte Vorteile

Wie eingangs erwähnt ist es unter IT-Unternehmen populär geworden, seine Produkte mit den Schlagwörtern „Künstliche Intelligenz“, „Machine Learning“ und „Deep Learning“ zu bewerben. IT-Verantwortliche, die nach neuen Lösungen für ihr Rechenzentrum suchen, sollten darum die nötige Vorsicht walten lassen, „unter die Haube“ der jeweils in Erwägung gezogenen Lösung schauen und sich erklären lassen, wie KI, ML oder DL tatsächlich zum Einsatz kommen und welchen praktischen Nutzwert sie bieten. Selten erzählen die Etiketten die ganze Geschichte.

Über den Autor: 
Nevzat Bucioglu verantwortet als Country Manager Deutschland seit April 2021 alle DACH-Aktivitäten des international operierenden Speicher-Spezialisten Infinidats, der 2011 erstmals seine innovative softwarebasierte InfiniBox-Architektur auf den Markt gebracht hat. Als ausgewiesener Kenner der IT-Branche verfügt Bucioglu auch über ein feinmaschiges Netzwerk im Channel. Nach unterschiedlichsten Karrierestationen, in denen er sich unter anderem auch intensiv mit dem Schutz kritischer IT-Infrastrukturen beschäftigt hat, war er vor seinem Wechsel zu Infinidat zuletzt als Head of Channel Sales Germany & Austria für Pure Storage tätig. 

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Storage Management

ComputerWeekly.de
Close