Dieser Artikel ist Teil unseres Guides: Big Data: Anwendung, Datenschutz und Technologie

Anwendungen und Analysemethoden für Big Data im Firmenalltag

Neben Cloud Computing ist Big Data sicherlich das häufigste Buzzword der letzten Jahre gewesen. Viele Firmen haben dessen Wert mittlerweile erkannt.

Neben Cloud Computing  ist Big Data sicherlich das häufigste IT-Buzzword der letzten Monate und Jahre gewesen. Doch geht es hier nicht um einen bloßen Hype um große Datenmengen, die Unternehmen zu fluten drohen. Vielmehr ist eine Diskussion entbrannt, die nach den passenden IT-Architekturen und -Strategien fragt, mit denen sich polystrukturierte Daten verwalten und analysieren lassen um einen Mehrwert für Unternehmen hervorzubringen.

Big Data propagiert die Verwaltung und die Analyse von Daten, die mit traditionellen Technologien nicht handhabbar sind. Hierzu zählen sowohl interne Unternehmensdaten aus operativen und dispositiven Systemen, sowie Informationen aus völlig neuen Quellen. Ziel ist es, die heutigen recht anspruchsvollen Informationsbedürfnisse der unterschiedlichen Unternehmensbereiche zu stillen. Dabei dürstet es nicht nur den klassischen Business Intelligence (BI) Konsumenten Marketing und Vertrieb nach neuen Erkenntnissen, auch eher konservativ geprägte Abteilungen wie Einkauf, Produktentwicklung und Qualitätssicherung  erkennen, dass die Analysierbarkeit früher nicht analysierbarer Daten ihnen wichtige Erkenntnisgewinne verschaffen kann.

Verschiedene Anwendungen von Big Data

Big-Data-Analysesysteme können sowohl großen als auch mittelständischen BI-Organisationen Vorteile bringen. Unternehmen, die mit entsprechenden Projekten begonnen haben, erkennen, dass die verfügbaren Daten einen Schatz beinhalten, dessen Hebung komparative Konkurrenzvorteile ermöglicht, beispielsweise durch einen besseren Kundenservice und eine höhere Produktqualität oder durch effizientere Logistik- oder Produktionsprozesse. 

Big-Data-Umgebungen ermöglichen beispielsweise die Speicherung und Analyse von Internet-Informationen wie Social-Media-Daten aus Facebook, Twitter, Blogs und Foren. Hierüber können Sentiment-Analysen generiert werden, die die wichtige Kennzahl liefert. Die eigene Web-Präsenz und der eigene Webshop können die Nutzeraktivitäten loggen, um herauszufinden, ob die Internet-Inhalte tatsächlich so genutzt werden, wie es vorgesehen ist, oder ob das teuer beworbene Produkt überhaupt nicht auf der Internetseite gefunden wird. Unstrukturierte Daten aus dem Call-Center- oder Servicenotizen der Vertriebsabteilung können wichtige Rückschlüsse auf die Produkt-Akzeptanz und -Probleme geben. 

Big Data Szenarien
Abbildung 1: Der Phantasie sind bei Big-Data-Projekten kaum Grenzen gesetzt, wie jüngste Beispiele aus der BARC-Beratungspraxis belegen. Quelle: BARC

Daneben überbieten sich die traditionellen Softwarehersteller und neue Start-Ups dabei, weitere Anwendungsszenarien zu finden. Neue wichtige Erkenntnisse können auch gewonnen werden aus maschinell erzeugten Daten wie Transmitterdaten von RFID-Funkchips, Maschinendaten aus der Produktion, Log-Daten der IT-Systeme, Sensordaten in Gebäuden oder aus der Umwelt, Videos von Überwachungskameras und Bildern aus den unterschiedlichsten Quellen. Einen Überblick über derzeit in der Praxis genutzten Analyseszenarien und dazu verwendeten Datenarten bietet Abbildung 1.

Warum Big Data?

Das – theoretische – Potential von Big Data, das sowohl Analysten als auch Softwareanbieter und Dienstleister predigen, ist demnach groß. Doch wie wichtig schätzen Anwenderunternehmen Big-Data-Lösungen ein? Eine Antwort gibt der internationale „Big Data Survey 2012“ von BARC, der Ende 2012 insgesamt 274 Fachbereichs- und IT-Entscheidungsträger aus mittelständischen und Großunternehmen in der DACH-Region, Frankreich und Großbritannien zu ihren bisherigen Erfahrungen mit Big Data befragt hat.

Danach erklärten lediglich sieben Prozent der Unternehmen, Big Data spiele für sie derzeit keine Rolle. Dieser kleinen Gruppen steht eine Mehrheit gegenüber, die sich von einem Big-Data-Projekt eine bessere oder erweiterte Datenanalyse versprechen (75 Prozent aller Unternehmen) und/oder Möglichkeiten erhoffen, große Datenvolumina besser verwalten zu können (72 Prozent). 66 Prozent der Unternehmen möchten mit polystrukturierten Daten umgehen können. 43 Prozent der Teilnehmer gaben an, dass sie im Zuge von Big Data eine höhere Datenaktualität erreichen wollen.

Ein besseres Kosten-/Nutzenverhältnis bestehender analytischer Infrastrukturen, zum Beispiel durch Auslagerung von Rohdaten aus einem Data Warehouse in ein Hadoop Cluster, streben 30 Prozent der Befragten an. Daneben zeigt die Studie, dass Big Data Projekte aus allen Fachbereichen im Unternehmen lanciert werden: Controlling (24 Prozent), Marketing (19 Prozent), Vertrieb (18 Prozent), IT (18 Prozent) und Produktion (17 Prozent) haben fast gleich viel Interesse daran, mit Big Data ihre Informationsbedarfe zu decken.

Big Data Survey BARC
Abbildung 2: Derzeit wird Big Data in Unternehmen vor allem mit traditionellen Datenbanken, Standard-BI-Werkzeugen und Individualentwicklungen adressiert. n=155, Quelle: „Big Data Survey 2012“. Quelle BARC

Die Unternehmen verbinden mit Big Data Umgebungen also allerhand Verbesserungspotential. Umso spannender ist die Frage, inwiefern Unternehmen tatsächlich bereits Big-Data-Lösungen im Einsatz haben. Hierbei zeichnet sich deutlich ab, dass man sich dem Thema noch meist konservativ über traditionelle Technologien und Ansätze nähert: So setzen laut Big Data Survey Unternehmen vor allem auf vorhandene Datenbanksysteme, BI-Werkzeuge und Individualentwicklungen; während neuere Produktkategorien wie Big-Data-Appliances noch seltener produktiv im Einsatz sind, aber sich bereits in der Planung befinden und für die kommende Zeit die größeren Zuwachsraten versprechen (Abbildung 2).

Infrastruktur für Big Data

Um nun die Fachbereiche ihre neuen Big Data-Daten auswerten lassen zu können, muss nicht gleich die gesamte (Business-Intelligence-) IT-Infrastruktur im Unternehmen umgebaut werden. Vielmehr sollte man sich mit den neu zu analysierenden Daten beschäftigen und Antworten suchen, wie man mit ihnen umgehen kann: Neben strukturierten Daten aus ERP-, CRM- und anderen operativen Transaktionssystemen kommen gegebenenfalls unstrukturierte Daten, sowie Daten hinzu, die sich laufend verändern.

Massendaten speichern

Wie können diese Daten nun in die eigene IT-Infrastruktur eingebunden werden? Das Ablegen von Massendaten – seien sie auch relationaler Natur – in den bestehenden operativen Datenbank-Managementsystemen (DBMS), ist wohl keine gute Idee: Die Datenbank wird immer größer, Abfragen immer langsamer. Viele Unternehmen machen ihre ersten Big Data Erfahrungen anhand von Pilotprojekten, die in Form parallel aufgesetzter spezieller analytischer Systeme eingerichtet werden. Hier kann aus einem großen Technologievorrat geschöpft werden:

  • Analytische Datenbanken, die Daten spalten- statt zeilenorientiert speichern können auch große Mengen strukturierter Daten aufnehmen und performant abfragbar zur Verfügung stellen.
  • Das Hadoop Framework enthält das flexible Filesystems HDFS, das es ermöglicht, unglaubliche Datenmengen unterschiedlichster Strukturformen abzulegen und skalierbar abzufragen.
  • NoSQL-Datenbanken kommen oft im Zuge bestimmter Aufgabenstellungen und Datenarten zum Einsatz. Daten, die innerhalb eines komplexen Netzwerks zueinander verbunden sind, können beispielsweise in Graph-Datenbanken abgelegt werden.

Soweit die Möglichkeiten der Ablage und Verwaltung von Big Data Daten. Für die Analyse polystrukturierter (Massen-) Daten andererseits stehen gleichermaßen eine Reihe von Tools und Methoden zur Verfügung. Diese helfen teilweise schon seit Jahren dabei, Zusammenhänge in Daten zu erschließen.  Aktuell forcieren die Hersteller insbesondere die Entwicklung von Software für Predictive Analytics (Prognosen), Data Mining und Text Mining, sowie die Möglichkeiten der Datenvisualisierung und Statistik bis hin zu Methoden der künstlichen Intelligenz und Natural Language Processing.

Derartige Spezialanwendungen werden schon seit langem angewendet: Banken und Versicherer beispielsweise nutzen Data Mining für die Kundenanalyse und Betrugserkennung und arbeiten hierzu auf großen Datenbeständen. Auch setzen viele Firmen spezielle Software ein, um in Echtzeit Clickstream-Daten auf ihren Websites auszuwerten oder um mit Hilfe von Web Analytics mehr Informationen über Online-Besucher sowie deren Vorlieben und Nutzungsverhalten zu gewinnen. 

Andere Unternehmen wiederum sammeln Sensorendaten in der Produktion und Lieferkette (RFID), Textinformationen in ihren Call Centern, semistrukturierte Daten in B2B-Prozessen oder räumliche Informationen (geospatial data) in ihrer Logistik, um aus den entsprechenden Auswertungen wichtige Rückschlüsse auf die Geschäftsprozesse zu ziehen. Unternehmen sollten allerdings auch vorhandene Software für Business Intelligence und Datenmanagement in ihre Anwendungsfälle mit einbeziehen. Diese stehen für gewöhnlich einem größeren Anwenderkreis zur Verfügung  als die genannten Spezialtechniken, die oftmals ein entsprechendes Expertenwissen zur Bedienung voraussetzen.

Projektplanung und Big Data

Wie für jedes Business-Intelligence- und Datenmanagementprojekt gilt auch für Big-Data-Lösungen eine zweckmäßige Organisation als kritischer Erfolgsfaktor. Big-Data-Projekte berühren meist alle Ebenen der BI- und Datenmanagement-Infrastruktur: die gesamte Datenverarbeitungskette – von der Gewinnung und der Integration der Daten bis hin zur Auswertung und Präsentation – sollte ins Kalkül genommen werden. Ohne klare Verantwortlichkeiten, die Benennung von Ansprechpartnern und Prozessen ist eine Pflege, Anpassung und Weiterentwicklung der Systeme nicht möglich.

Es bietet sich daher an, Big-Data-Projekte mit Experten zu besetzen, die sowohl die fachlichen Ziele, Aufgaben und Gegebenheiten verstehen sowie über die technische Qualifikation zur Bedienung der Technologien verfügen. Im genannten Big Data Survey gab diesbezüglich fast jedes zweite Unternehmen (47 Prozent) an, die Verantwortung beim Data-Warehouse- / BI-Team oder im Business Intelligence Competence Center (BICC) gebündelt zu haben. Nur 23 Prozent der befragten Unternehmen bevorzugten die IT-Abteilung, 16 Prozent einzelne Fachbereiche.

Kosten und Nutzen von Big Data

Big-Data-Umgebungen sind für die meisten Unternehmen Neuland, und es ist nur richtig, die ersten Erfahrungen im Rahmen überschaubarer Pilotprojekte zu gewinnen. Doch kommt man dann doch einmal zu dem Schluss, dass das Potential der neuen Technologien dem Unternehmen erhebliche Vorteile verschaffen kann, ist die Frage des Kosten-Nutzen-Verhältnisses größerer Projekte zu klären.

Hohe Investitionen in Hardware, Software und Mitarbeiter sowie operative Kosten sprechen aus Sicht des Managements gegen allzu ehrgeizige Projekte, zumal sich normalerweise für Big-Data-Vorhaben vorab nur schwer etwas über die Ausbeute sagen lässt, die eine umfassende Erfassung, Aufbereitung, Speicherung und Analyse von Daten ergeben kann. Allerdings sind die anfänglichen Big Data Insellösungen bald nicht mehr ausreichend und die Forderung nach einer Verknüpfung mit bestehenden (BI- und Stamm-) Daten oder höherer Detailtiefe und kürzeren Aktualisierungsintervallen wird lauter.

Wie können also Kosten reduziert werden? Ein Ansatzpunkt liegt insbesondere in der Plattform: War Big Data zu Zeiten des Internet-Booms noch ein Nischenmarkt da die Speicherung großer Datenmengen technisch schwierig und teuer war, erlauben mittlerweile moderne Storage-Systeme und Prozessoren eine schnelle, skalierbare und intelligente Verwaltung bei drastisch gesunkenen Hardwarepreisen. Kostete ein Gigabyte Speicher Anfang 2000 noch durchschnittlich 16 Dollar, sind es heute durchschnittlich weniger als fünf Cent.

Doch nicht nur die Hardware wird günstiger, auch der Anbieterwettbewerb für die neuen Technologien und Produkte steigt. Auch die beständige Verbesserung des internen Datenmanagements, sei es deren Datenqualität, deren Dokumentation und Zugriffsmöglichkeiten unterstützen schnelle und erfolgreiche Big Data Projekte.

Fazit

Die hohe Zahl erfolgreich umgesetzter und produktiver Big-Data-Projekte zeigt: Big Data hat Potential. Jedes Unternehmen – ob klein oder groß und egal welcher Branche angehörend – sollte sich dieses Thema ansehen und für sich selbst entscheiden, ob es für die eigene Organisation nützlich sein kann. Die Einstiegshürden zur  Nutzung von Big Data sind nicht so hoch, wie man oft denkt.

Über diverse Online Services wie Wolfram Alpha kann man beispielsweise Facebook-Analysen direkt nutzen und einige Impressionen gewinnen, bevor man einen Ausschnitt seiner eigenen Daten beispielsweise über Cloud Services anderer Hersteller auf ähnliche Weise analysieren lässt. Ist man dann immer noch von den Vorteilen von Big Data überzeugt – beispielsweise weil der Konzernchef doch ganz gerne täglich aktualisierte Dashboards über den Ruf des eigenen Unternehmens auf Facebook und Twitter sehen möchte – kann man sich professionellen Anbietern zuwenden oder eigene Umgebungen implementieren und Experten ausbilden.

Über die Autoren:

Sascha Alexander ist Head of Content & Marketing bei BARC.

Lars Iffert ist Analyst sowie Berater für die Bereiche Business Intelligence und Data Warehousing bei BARC. Er berät Unternehmen in der Softwareauswahl und Einführungsphase entscheidungsunterstützender Informationssysteme.

Folgen Sie SearchEnterpriseSoftware.de auch auf Facebook, Twitter und Google+!

- GOOGLE-ANZEIGEN

ComputerWeekly.de

Close