kantver - Fotolia

Big Data Analytics Tools: Braucht man die Vielzahl an Werkzeugen wirklich?

Big-Data-Plattformen und Big Data Analytics Tools unterstützen Unternehmen bei der Analyse Ihrer Daten. Doch braucht man diese Werkzeuge wirklich?

Die zunehmende Verfügbarkeit von Big-Data-Plattformen und Big Data Analytics Tools helfen Organisationen bei der Speicherung und Analyse umfangreicher Unternehmensdaten. Sie erhalten damit Einsicht in wertvolle Geschäftsinformationen und gelangen zu Erkenntnissen, die ihnen bei der Verbesserung ihrer Produkte und Dienstleistungen helfen können.

Big Data Analytics Tools werden verwendet, um große Datenmengen zu analysieren und prädiktive und normative Modelle zu entwickeln. Das Einbetten dieser Modelle in moderne Geschäftsanwendungen kann die Produktivität eines Unternehmens und dessen Wert deutlich verbessern. Gleichzeitig werden Big Data Analytics Tools auch entwickelt, um die Ressourcen, die typischerweise auf einer Big-Data-Plattform zur Verfügung stehen, auf einfache Weise zu skalieren.

Im Allgemeinen sind die Techniken, die die Big Data Analytics Tools verwenden, nicht neu. Erst kürzlich wurden Data-Mining-Algorithmen so angepasst, dass auch Mainstream-Business-Anwender prädiktive und normative Analysen von Datensätzen – die umfangreich sind, unterschiedliche Datentypen beinhalten und variable Strukturen haben – problemlos erstellen können.

Aus Sicht eines Anwenders ist Big Data Analytics hingegen immer noch im Stadium der Entwicklung – verbunden mit inhärenten Risiken und hohem Zeitaufwand, wenn man die erwarteten Vorteile erzielen will. Für viele stellt sich die Frage: Wie kann man feststellen, ob Big Data Analytics für die eigene Organisation geeignet ist? In diesem Artikel zeigen wir, wie typische Business-Anwendungsfälle mit den Tools einen messbaren Mehrwert erzielen.

Analyse von unterschiedlichen Datentypen

Es gibt drei Faktoren, die Big Data Analytics von anderen Formen der Analytik unterscheidet: Neben der schieren Masse an Daten kommen als weitere Big-Data-Merkmale noch Vielfalt und Skalierbarkeit hinzu. In der Vergangenheit wurden analytische Modelle oft unter Verwendung von Beispieldatensätzen aus sehr großen Datenbanken konstruiert und dann durch einen Test- und Verfeinerungsprozess sukzessive weiterentwickelt.

Doch heute, auf Computer-Plattformen mit skalierbarer Speicher- und Rechenfähigkeit, gibt es kaum Einschränkungen, was den Umfang der Daten betrifft, die analysiert werden sollen. Damit sind Szenarien möglich, in denen Echtzeit Predictive Analytics und der Zugang zu großen Mengen passender Daten zu einer verbesserten Geschäftsentwicklung führen können. Dazu müssen lediglich die verschiedenen Arten von Big Data gemischt und analysiert werden.

Betrachten wir zunächst einmal die wichtigsten Datenarten:

Transaktionsdaten: Eine Big-Data-Plattform bietet die Möglichkeit, größere Mengen von strukturierten Transaktionsdaten über größere Zeiträume hinweg zu erfassen, als dies klassische Speichersysteme erlauben. Transaktionsdaten entstehen maschinell und liefern zum Beispiel Auskunft über Art und Anzahl der gekauften Produkte, Ort und Zeitpunkt des Kaufes, die Nutzung von Rabatten sowie andere Sachverhalte. Die Analyse solcher Daten gibt wertvolle Hinweise auf das Kaufverhalten von Kunden.

Unstrukturierte, von Menschen generierte Daten: Unstrukturierte Daten werden in der Regel von Menschen generiert und sind typischerweise E-Mails, Dokumente, Bilder, Audiodateien oder Videodateien. Auch Daten von Blogs, Wikis und – vor allem – Social-Media-Kanälen sind unstrukturiert. All diese unstrukturierten Daten lassen sich über eine Textanalyse auswerten und können so die Basis für Unternehmensaktionen bilden.

Mobile Daten: Weil internetfähige Smartphones und Tablets allgegenwärtig geworden sind, können die Apps, die auf diesen Geräten zum Einsatz kommen, zahlreiche Informationen verfolgen und weitergeben. Diese reichen von Transaktionen innerhalb von Apps (zum Beispiel eine Produktsuche) bis zu demografischen Daten oder dem Report des aktuellen Status (wie das Weiterleiten eines neuen Geocodes, wenn der Nutzer seinen Ort wechselt).

Maschinen- und Sensordaten: Dazu gehören Daten, die durch Geräte wie Funksensornetzwerke, intelligente Thermostate, Maschinen in Fabriken und mit dem Internet verbundene Haushaltsgeräte erzeugt werden. Diese Geräte können so konfiguriert werden, dass sie automatisch mit anderen Devices in einem verbundenen Netzwerk kommunizieren sowie mit einem zentralen Server, der die Daten analysiert. Maschinen- und Sensordaten sind hervorragende Beispiele für Daten, die mit dem Internet der Dinge (IoT) entstehen. Mit den gestreamten Daten aus dem Internet der Dinge lassen sich analytische Modelle erstellen, die das Verhalten der Systeme kontinuierlich überwachen. Auf diese Weise ist es möglich, Vorhersagen über potentielle Ausfälle zu generieren (zum Beispiel können bestimmte Sensorwerten auf ein Problem hinweisen) und normative Richtlinien aufzustellen (wie zum Beispiel, was ein Techniker zu tun hat, wenn ihn ein Gerät alarmiert).

Business-Anwendungsfälle

Big Data Analytics Tools können für eine Organisation eine vernünftige Investition sein, wenn bei dieser mehrere der genannten Datenarten anfallen und eine oder mehrere der folgenden Anwendungen im Einsatz sind oder in Zukunft sein werden:

Kundenanalyse: Dazu gehört die Analyse der Demografie der Kunden, der Verhaltensweisen und Eigenschaften, um Modelle für die Segmentierung der Kunden zu entwickeln (zum Beispiel in normale Kunden und Premium-Kunden), Abwanderungen vorherzusagen (und Gegenmaßnahmen zu ergreifen) und Produktempfehlungen zu geben (um die Kundenbindung zu stärken).

Vertriebs- und Marketing-Analysen: Es gibt zwei Arten von Marketing-Anwendungsfälle. Der erste ist die Nutzung analytischer Modelle, um die Empfehlungen zu verbessern, die kundenorientierte Anwendungen ihren Besuchern und Kunden geben. Zum Beispiel kann man bessere Möglichkeiten für Cross-Selling und Up-Selling festlegen und im Allgemeinen die Genauigkeit der integrierten Vorschlagsmaschinen verbessern. Der zweite Typ ist reflexiver und zeigt die Performance der Prozesse und Kampagnen der Marketing-Gruppe und macht Vorschläge, wie die Leistung optimiert werden kann. Beispiele dafür sind die Analyse, ob eine Kampagne die Bedürfnisse der identifizierten Kundengruppen getroffen hat oder die Erfolgsquote einer Call-to-Action-Kampagne.

Social Media Analytics: Die Inhalte, die sich über Social-Media-Kanäle verbreiten, bieten viele Möglichkeiten, die Kundenstimmung zu analysieren und Markenrisiken zu erkennen. Dies ist besonders wichtig, wenn zum Beispiel über Facebook negative Informationen über das Unternehmen oder seine Produkte verbreitet werden.

Internetsicherheit: Die massiven Cyberangriffe auf Unternehmen wie Target, Sony und Anthem zeigen, dass Unternehmen Cyberattacken möglichst schnell erkennen müssen, um Gegenmaßnahmen einleiten zu können. Analytics-basierte Methoden helfen, dieses Ziel umzusetzen. Big Data Security Analytics reduziert die Verweilzeit von Schädlingen auf ein Minimum, indem per Datenanalyse über das gesamte Unternehmen Jagd auf schädliche Daten gemacht wird. Mit diesem Threat Hunting lassen sich Risiken dynamisch bewerten, große Mengen an Sicherheitsdaten analysieren, Kontrollen jederzeit anpassen und Informationen über Bedrohungen und Angriffe teilen.

Anlagen- und Facility Management: Da immer mehr Geräte und Maschinen internetfähig sind, können Unternehmen gestreamte Sensordaten sammeln und analysieren, die kontinuierlich Energieverbrauch, Temperatur, Feuchtigkeit und den Ausstoß von Schmutzpartikel sowie einer Vielzahl weiterer möglicher Variablen messen. Unternehmen können mit diesen Daten Modelle für die Vorhersage von Geräteausfällen entwickeln und mit vorausschauender Wartung (Predictive Maintenance) Ausfallzeiten besser planen beziehungsweise ganz verhindern.

Pipeline Management: Energie-Pipelines werden zunehmend mit Sensoren und Kommunikationsfähigkeiten ausgestattet. Kontinuierliche Ströme von Sensordaten können analysiert werden, um lokale und globale Probleme festzustellen. Die Pipelines können so besser beobachtet und gewartet werden.

Supply-Chain- und Channel-Analytik: Die Analyse des Lagerbestands, Verkaufstransaktionen und Warenlieferungen über eine Vielzahl von Kanälen (zum Beispiel LKW, Bahn, Schifffahrt) können mit prädiktiven analytischen Modellen optimiert werden. Die Modelle helfen, präventiv für Nachschub zu sorgen und unterstützen beim Inventar-Management, dem Logistik-Management und der Routenoptimierung. Treten Verzögerungen ein, die rechtzeitige Lieferungen gefährden, setzen die Systeme automatisch Benachrichtigungen ab.

Preisoptimierung: Händler, welche die Rentabilität ihrer Produktverkäufe maximieren möchten, können analytische Modelle entwickeln, die eine Vielzahl von Datenströmen miteinander kombinieren. Dazu gehören zum Beispiel die Preise der Wettbewerber, die Verkaufstransaktionen in bestimmte geografische Regionen (um die Nachfrage zu bewerten) oder Informationen über die Produktion, den Warenbestand und die Lieferkette (für die Überwachung der Supply Chain). Die resultierenden Modelle können verwendet werden, um Produktpreise dynamisch anzupassen. Sie könnten zum Beispiel steigen, wenn die Vorräte zu gering sind, die Nachfrage steigt oder Konkurrenten nicht liefern können. Entsprechend könnten die Preise sinken, wenn die Warenlager aus saisonalen Gründen geräumt werden müssen.

Betrugserkennung: Zusätzlich zu der wachsenden Gefahr eines Identitätsdiebstahls nehmen auch betrügerische Aktivitäten und Transaktionen stetig zu. Finanzexperten analysieren Milliarden von Transaktionen, um Muster für betrügerisches Verhalten festzustellen. Die analytischen Modelle können auch Warnungen an Kunden verschicken, wenn möglicherweise eine betrügerische Transaktion stattfindet.

Mehr zum Thema Big Data:

Die Technik entscheidet: Mit passenden Big Data Tools erfolgreich sein.

Big Data Tools in Microsoft Azure sollen Unternehmen in die Public Cloud locken.

Wie Apache Hadoop beim Big Data Management helfen kann.

Essential Guide: Alle wichtigen Information zu Big-Data-Anwendungen und –Datenschutz.

Apache Spark 2.0 soll die Big-Data-Integration erleichtern.

Alle diese Big-Data-Anwendungen teilen ähnliche Eigenschaften miteinander: Es werden sowohl strukturierte als auch unstrukturierte Daten analysiert, die Daten werden aus einer Vielzahl von Quellen abgerufen oder gestreamt, und das Datenvolumen ist sehr umfangreich. Die Ergebnisse der Analysen liefern wiederum analytische Modelle, die verwendet werden können, um in Echtzeit bestimmte Muster aus den Quellen und Datenströmen zu erkennen.

Den Vorteil der niedrigen Eintrittsschwelle ausreizen

Obwohl die Features der Big Data Analytics Tools nicht ganz neu sind, haben vor allem drei Schlüsselfaktoren dazu beigetragen, die Barriere für deren Einsatz zu senken und vielen Organisationen einen Anreiz gegeben, zu prüfen, ob diese Art von Technologie für sie in Frage kommt:

  1. Kosten: Die heute verfügbaren Werkzeug-Suiten mit ihren attraktiven Preismodellen lassen einen Einsatz wirtschaftlich sinnvoller erscheinen als die früheren hochpreisigen Big-Data-Werkzeuge mit ihren teuren After-Sales-Kosten für Integration und Bereitstellung.
  2. Einfachheit: Moderne Big-Data-Werkzeuge werden zunehmend gezielt für Nicht-Experten entwickelt. Frühere Produkte zielten eher auf Statistiker und Mathematiker, die damit nicht nur Modelle gebaut haben, sondern auch die Details, wie die Tools genau funktionieren, verstanden. Die heutigen Produkte verlangen vom Benutzer keinen höheren wissenschaftlichen Abschluss, um aus den Modellen einen geschäftlichen Nutzen zu ziehen.
  3. Performance: Skalierbare Plattformen können heute die Datenmengen und den Rechenbedarf für Big Data Analytics ohne weitere Probleme bewältigen. Heute gibt es Open-Source-Plattformen, die eine massiv parallele Verarbeitung über verteilte Speicher-Frameworks auf normaler Standardhardware ermöglichen, deren Preis-/Leistungsverhältnis besser ist als das, was in der Vergangenheit zur Verfügung stand.

Die Integration von Big Data Analytics in das Unternehmen

Da die Barrieren für den Einsatz von Big-Data-Analytics-Software in den letzten Monaten gefallen sind, können zukunftsorientierte Organisationen diese Tools ohne weiteres schnell ausprobieren und diese Werkzeuge problemlos in die Unternehmens-IT integrieren. Diese Organisationen haben folgende Merkmale gemeinsam:

  • Eine Daten- beziehungsweise Analytics-getriebene Kultur, in der das Potential der Informationen erkannt wurde, um Unternehmenswerte zu schaffen;
  • eine Umgebung, in der die wichtigsten Akteure sich darüber klar sind, dass eine große Vielfalt von Datenquellen – einige statische und viele andere dynamisch gestreamte – viel zu Analyseprozessen beitragen können;
  • ein günstiges Umfeld für Proofs-of-Concepts zusammen mit einer agilen Entscheidungsfindung für die Annahme von Technologien.

Mit anderen Worten: Wenn ein Unternehmen einige oder alle diese Eigenschaften aufweist, kann es von der Integration von Big Data Analytics in die Enterprise-Technologie-Landschaft profitieren.

Sobald man festgestellt hat, dass ein Unternehmen von Big Data Analytics Tools profitieren kann, besteht der nächste Schritt darin, die unternehmensspezifischen Bedürfnisse umzusetzen und mit den individuell festgelegten Kriterien ausgewählte Produkte der Tool-Anbieter zu bewerten. Anschließend können diese Bedürfnisse mit den Merkmalen der Big Data Analytics Tools verglichen werden, welche die Anbieter zur Verfügung zur Verfügung stellen. Diese Bewertungsfaktoren lassen sich wiederum für eine Informationsanfrage oder eine Angebotsanfrage an die Anbieter verwenden. Mit deren Antworten ist es möglich, die Auswahl von Anbietern zu verfeinern und die Optionen geeigneter Big Data Analytics Tool einzugrenzen.

Folgen Sie SearchEnterpriseSoftware.de auch auf Twitter, Google+ und Facebook!

Erfahren Sie mehr über Big Data

- GOOGLE-ANZEIGEN

ComputerWeekly.de

Close