Teradata Analytics Universe: Hadoop ist bald am Ende

Analytics und künstliche Intelligenz gelten als Zukunft moderner Business-Anwendungen. Doch laut Teradata ist die IT-Welt von wirklichen Lösungen noch entfernt.

„Hört endlich auf, euer Geld für Analytics auszugeben – investiert endlich in Antworten“, sagte Teradata COO Oliver Ratzesberger in seiner Eröffnungsrede zur diesjährigen Hausmesse Analytics Universe in Las Vegas. Vor allem bei Großunternehmen gibt es laut Ratzesberger einen überzogenen Glauben in die Möglichkeiten von Analytics. „Denen steht aber eine für die Fachbereiche zu große Komplexität gegenüber.“

In einer Untersuchung kommt Teradata zu dem Ergebnis, dass drei Viertel aller Top-Manager die bestehenden Analytics-Tools für zu komplex halten. Die Folge sei, dass inzwischen Milliarden bei der Entwicklung unnützer Analytics vergeudet werden, da CIOs mit immer mehr Methoden und Technologien versuchen, die Kluft zwischen Erwartung und Machbarem zu schließen.

„Viele CIOs sagen mir, dass sie weit über 1.000 Cluster im Einsatz haben, und dass sie Vertica, HANA, Greenplum und Hadoop nutzen. Doch damit würden keine Ergebnisse produziert“, sagt Ratzesberger. Ein Grund sei die sich rasant ändernde Angebotslandschaft: „IBM hat Netezza de-released, Vertica wurde zum zweiten Mal verkauft, Greenplum ist jetzt Open Source und Hadoop wird über kurz oder lang wieder verschwinden.“ Hierzu verweist er auf die Fusion von Hortonworks und Hadoop. „Für mich ist das ein klares Zeichen, dass Hadoop bald am Ende ist.“

Mangelnde Datenkompetenz

Doch nicht nur bei den Technologien gibt es aus Sicht von Ratzesberger ein Defizit, was Analytics angeht, sondern auch bei den Fragestellungen. Ein Beispiel war die Analyse eines Restaurants, das bis 23 Uhr geöffnet hatte. Die Daten zeigten, dass sich der Betrieb nach 22 Uhr nicht mehr lohnt, und dass man problemlos um diese Zeit schließen kann, was zu Einsparungen führen sollte.

IBM hat soeben Netezza de-released, Vertica wurde zum zweiten Mal hintereinander verkauft, Greenplum ist jetzt Open Source und Hadoop wird über kurz oder lang wieder verschwinden.
Oliver RatzesbergerTeradata

Gesagt, getan. Doch danach zeigten die Daten, dass sich jetzt auch nicht mehr der Betrieb von 21 bis 22 Uhr lohnt. Erst das Hinzuziehen eines Experten brachte Klarheit: In der letzten Stunde ist niemals ein gutes Geschäft möglich – egal, wann man schließt.

Gerade an solchen Dateninterpretationen mangelt es häufig. „Bei vielen Benutzern stoßen die neuen datenbasierten Entscheidungshilfen nicht immer auf Verständnis“, sagt Forrester-Analystin Martha Bennet. Sie spricht von „Datenanalphabetentum“, das weit verbreitet sei. Beispielsweise lassen sich alleine durch die Art der gewählten Grafiken oder mit den jeweiligen Skalierungen unterschiedliche Eindrücke erwecken, die zu falschen Schlussfolgerungen führen. Bennet spricht von einem Mangel an Datenkompetenz, auf den die Unternehmen zunehmend achten sollten.

Datenbestände aufräumen

Neben den überzogenen Erwartungshaltungen oder fehlerhaften Interpretationen bei den Fachbereichen, sieht man bei Teradata aber auch IT-interne Ursachen für die schwachen Analytics-Ergebnisse.

Oliver Ratzesberger, COO von Teradata.
Abbildung 1: Oliver Ratzesberger, COO von Teradata.

Laut Ratzesberger ist die Wurzel des Übels eine extrem heterogene Datenlandschaft mit vielen Silos, die kaum oder gar nicht zielgerichtet ausgewertet werden können. Auch hierzu gibt es in der Teradata-Untersuchung Hinweise. Zum Beispiel sagten 80 Prozent der befragten Manager, dass sie nicht den Zugriff auf alle Daten haben, die sie für ihre Entscheidungen benötigen.

„Um relevante Antworten auf die akuten Business-Probleme zu erhalten, muss man zuerst bei den Datenbeständen Ordnung schaffen – wir haben hierzu das passende Knowhow und die erforderlichen Werkzeuge“, sagt er.

Konsolidierung mit Vantage

Kernstück von Teradatas neuer Angebotspalette ist die Datenplattform Vantage, dem Nachfolger von Everywhere, das vor zwei Jahren gelauncht wurde. Vantage fasst Werkzeuge, Technologien und Anwendungen zusammen, die das Auswerten von heterogenen Datenbeständen erleichtern.

Kernstück sind die relationale Datenbank von Teradata sowie ein Objekt-Speichersystem, die beide über einen Highspeed-Bus verbunden sind. Hinzu kommen die Graphdatenbank Aster und eine Machine Learning Engine. Die Systeme unterstützen SQL, R, Python und JavaScript.

Auch eigene und fremde Analytics-Tools werden unterstützt: unter anderen Jupyter, R Studio und SAS. Das Objekt-Storage-System Vantage erlaubt semi-strukturierte sowie unstrukturierte Daten und lässt sich mit Amazon S3 und Microsoft Azure Blob verbinden. Zwar bestätigt Ratzelsberger, dass „die Zentralisierung aller Analyse-Funktionen unter dem Teradata-Schirm den Freiheitsgrad verringert, andererseits aber vor allem eine wesentlich geringere Komplexität schafft“.

KI wird überstrapaziert

Anwendungsseitig ist Analytics die Vorstufe zu künstlicher Intelligenz (KI). Auch hier gibt es laut Teradata eine völlig unrealistische Erwartungshaltung. „KI ist der am meisten überstrapazierte Begriff in der IT-Geschichte“, sagt Teradata CTO Stephen Brobst. „Das meiste, was als KI-Lösung deklariert wird, ist nichts anderes als Mathematik, zum Beispiel lineare Regression.“

KI ist der am meisten überstrapazierte Begriff in der IT-Geschichte. Das meiste, was als großartige KI-Lösung deklariert wird, ist nichts anderes als Mathematik, zum Beispiel lineare Regression.
Stephen BrobstTeradata

Als Grund für den Hype sieht er zwei Entwicklungen: Erstens, die immens angestiegene Rechenleitung, vor allem durch den Einsatz von massiv parallelen GPUs, dadurch seien Datenverarbeitungen und -aufbereitungen im großen Stil möglich. Zweitens, die Entwicklung bei den User Interfaces, insbesondere mit Self-Service-Möglichkeiten, die zu nicht immer zielgerichteten Tests verführen.

Nach KI folgt laut Brobst Deep Learning (DL) auf die Hype-Welle. „Deep Learning ist nichts anderes als eine erweiterte Toolbox, die mit mathematischen Methoden bessere Lösungen produzieren kann. Und das stimmt auch dann, wenn hierbei die zum Einsatz kommenden Algorithmen fortlaufend automatisch angepasst werden“, ist Brobst überzeugt.

In diesem Zusammenhang teile er die Einschätzung vieler Analysten, wonach Deep Learning künftig die beste Methode für Bedarfsprognosen, Betrugserkennung und Predictive Maintenance sein wird. „Das ist aber keine Magic-Box, sondern weiterhin nur die konsequente Anwendung von altbekannten mathematischen Methoden“, warnt er vor zu hohen Erwartungen.

Folgen Sie SearchEnterpriseSoftware.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Die Analytics-Tools der Teradata Aster Analytics Suite.

Künstliche Intelligenz erfordert viel Vorarbeit.

Wie integriere ich künstliche Intelligenz im Rechenzentrum?

Erfahren Sie mehr über Datenanalyse

ComputerWeekly.de
Close