sdecoret - stock.adobe.com

Worauf Unternehmen bei der Datenintegration achten müssen

Der Druck auf Datenverantwortliche steigt, da die Business Units immer mehr Daten produzieren. Reibungsverluste bei der Datenintegration sind vorprogrammiert.

Moderne Dateninfrastrukturen sind chaotisch: Hybrid-Lösungen, Multi-Cloud-Umgebungen, On-Premises-Systeme und Edge-Komponenten wetteifern um die Aufmerksamkeit der IT. Die Verantwortlichen sehen sich einem Flickenteppich aus Altsystemen, Einzellösungen und maßgeschneiderten Tools gegenüber.

In der Folge kämpfen Entscheidungsträger damit, eine fragmentierte Datenlieferkette zu verstehen, zu steuern und zu verwalten. Gleichzeitig wissen die Teams in den Geschäftsbereichen immer besser, wie sie Daten als Informationsquelle für ihre Arbeit nutzen können. Entsprechend fordern sie mehr Freiheiten und Eigenverantwortung beim Datenzugriff und der Analyse. Sie wollen unabhängig und ohne langwierige Prozesse mit der IT arbeiten und ihre eigenen Datenpipelines integrieren.

Dies bedeutet jedoch häufig, dass Pipelines außerhalb des Zuständigkeitsbereichs der IT-Abteilung entstehen, was zu neuen Datensilos und größeren Transparenz- und Sicherheitslücken führt.

Governance-Risiken – die unterschätzte Gefahr

Die große Frage lautet: Wer ist für die Datenverwaltung zuständig? Die Verantwortung sollte eigentlich beim zentralen IT-Team liegen. Der Forschungsbericht Creating Order from Chaos: Governance in the Data Wild West (PDF) von StreamSets stellt jedoch fest, dass 44 Prozent der Unternehmen nicht in der Lage sind, Governance zu betreiben und Richtlinienkontrollen für Daten zu automatisieren. Zudem können 42 Prozent keine konsistenten Sicherheitsmaßnahmen durchsetzen – ein riskantes Spiel.

Viele Unternehmen nehmen damit extreme Governance-Risiken in Kauf: Gesetzliche Vorschriften beschränken den Zugriff auf bestimmte Datentypen, unter anderem personenbezogene Daten, auf bestimmte Benutzer und bestimmte Anwendungsfälle. Automatisieren Unternehmen Richtlinienkontrollen nicht, steigt das Risiko, dass Mitarbeiter, die bestimmte Daten nicht einsehen dürfen, versehentlich gegen Vorschriften verstoßen. Ebenso erhöht die fehlende Transparenz darüber, woher und wohin Daten fließen, die Wahrscheinlichkeit eines Verstoßes.

Der Forschungsbericht zeigt, dass 48 Prozent der Unternehmen nicht erkennen können, wann Daten in mehreren Systemen verwendet werden, und 40 Prozent können nicht sicherstellen, dass Daten aus den qualitativ besten Quellen bezogen werden. Darüber hinaus können 54 Prozent keine Pipelines in einen Datenkatalog und 57 Prozent keine Pipelines in eine Datenstruktur integrieren.

Mit zentraler Verwaltungsinstanz die Kontrolle zurückgewinnen

Zweifellos ist es eine Herausforderung, sicherzustellen, dass alle Vorschriften zu Datenzugriff, -nutzung und -speicherung in allen Pipelines beibehalten werden. Zumal in vielen großen Unternehmen tausende von Datenpipelines in Betrieb sein können. Vor diesem Hintergrund wird mehr als deutlich, dass Unternehmen die Kontrolle zurückgewinnen müssen, andernfalls riskieren sie kostspielige und das Geschäft schädigende Verstöße.

Unternehmen müssen daher mit einer zentralen Verwaltungskonsole mehr Transparenz schaffen. Datenteams müssen sicherstellen, dass Cloud-Anwendungen Daten aus einer anderen Umgebung sicher nutzen können. 74 Prozent der Befragten aus dem Forschungsreport gaben an, dass eine einzige Plattform, die die Komplexität von Daten in der Cloud und On-Premises bewältigen kann, von großem Nutzen ist.

Ausgefeilte Topologien bieten einen tiefen Einblick in die Vernetzung der Systeme, so dass Datenverantwortliche sehen können, wie die Daten im Unternehmen fließen. Eine übergeordnete Mission Control regelt Richtlinien und Verfahren, wie Daten erstellt, verarbeitet und verteilt werden – während des gesamten Lebenszyklus der Daten. Das gewährleistet den Zugang zu zuverlässigen Daten und stellt sicher, dass die Verantwortlichen die Gesetze zum Datenschutz und zur Datensicherheit jederzeit einhalten.

Die Vorteile liegen auf der Hand: die Datenqualität steigt – und das alles in einem abgesicherten Rahmen. Wenn es keine einheitlichen Maßnahmen zum Schutz von Daten gibt, erhöht sich für Unternehmen das Risiko von Rufschädigung, Geldstrafen und Sicherheitsverletzungen durch Datenlecks. Darüber hinaus können Unternehmen ohne Governance-Richtlinien, die für einheitliche Daten sorgen, den Wert ihrer Daten nicht vollständig nutzen. Außerdem können sie dann nicht darauf vertrauen, dass sie Entscheidungen auf der Grundlage zuverlässiger Daten treffen.

Standardisierung von Datenpipelines sichert Compliance

Aus Gründen der Compliance und der Datensicherheit brauchen IT-Teams Einblick in die Erstellung von Pipelines und die Art und Weise, wie Tools zur Erstellung, Verarbeitung, Speicherung, Analyse und Freigabe von Daten verwendet werden. Ziel muss eine Standardisierung sein, die es Unternehmen ermöglicht, Governance-Richtlinien einzuhalten, wenn Daten über Datenpipelines transportiert, verarbeitet und verteilt werden. Doch vielen Unternehmen fehlt heute die Fähigkeit, solche Kontrollen zu implementieren.

Dr. Stefan Sigg, Software AG

„Automatisieren Unternehmen Richtlinienkontrollen nicht, steigt das Risiko, dass Mitarbeiter, die bestimmte Daten nicht einsehen dürfen, versehentlich gegen Vorschriften verstoßen.“

Dr. Stefan Sigg, Software AG

Um Daten verantwortungsvoll bereitzustellen, müssen Unternehmen ihre Datenquellen aus den Silos nehmen und sie auf einer einzigen unternehmensweiten Plattform bereitstellen, die es den einzelnen Teams ermöglicht, Daten auf Abruf zu nutzen. Das erfordert eine enge Zusammenarbeit zwischen den Teams, einschließlich Data Scientists, operationalen Teams und Geschäftsanwendern. Dabei ist es wichtig, klare Kommunikationswege und ein gemeinsames Verständnis der Ziele und Anforderungen zu schaffen. Ist das Wer geklärt, geht es noch um das Wie.

Die Punkte unterstützen bei der Beseitigung des Datenwildwuchs:

  • Achten Sie auf hohe Datenqualität und reduzieren Sie redundante Datenquellen.
  • Berücksichtigen Sie Datenverschlüsselung und -sicherheit bei der Entwicklung von Datenintegrationsstrategien, um die Vertraulichkeit, Integrität und Verfügbarkeit der Daten zu gewährleisten.
  • Automatisieren Sie Datenintegrationsprozesse, um effizienter zu agieren und menschliche Fehler zu minimieren.
  • Sorgen Sie für agile Datenintegrationsstrategien, um sich an die sich ständig ändernden Geschäftsanforderungen anzupassen.
  • Etablieren Sie Datenpipelines, die die unterschiedlichsten Formate, Strukturen und Qualitäten verarbeiten können.

Wer die oben genannten Punkte berücksichtigt, kann intelligente Datenpipelines schaffen, die flexibel und agil auf Änderungen reagieren. Über eine einzige Oberfläche für die Verwaltung und Überwachung aller Pipelines bekommen IT-Verantwortliche sowohl Hybrid- als auch Cloud-Architekturen unter Kontrolle und stellen damit kontinuierliche Daten für moderne Analysen in den Business Units bereit.

Über den Autor:

Dr. Stefan Sigg ist seit April 2017 als Chief Product Officer (CPO) Mitglied des Vorstands der Software AG und verantwortlich für das Produktportfolio, den weltweiten Kunden-Support, den Cloud-Betrieb sowie Forschung und Entwicklung. An der Universität Bonn hat Dr. Sigg sowohl seinen Master als auch seinen Doktortitel in Mathematik erworben. Seine berufliche Laufbahn begann er 1995 in der Produktentwicklung bei SAP. Nach verschiedenen Managementpositionen übernahm er die Entwicklungsleitung für SAP Business Warehouse und später für SAP HANA. Zuletzt leitete er das gesamte Produktportfolio für SAP Analytics. Seit 2014 lehrt Dr. Sigg zudem an der Technischen Universität Darmstadt in den Bereichen Analytik, Big-Data-Technologien und -Anwendungen.

 

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Datenanalyse

ComputerWeekly.de
Close