Maren Winter - stock.adobe.com

Firmen können DSGVO-Anfragen nicht fristgerecht bearbeiten

Thomas Steinborn, VP Product Management bei Talend, erläutert im Interview, warum Cloud-Tools heute die erste Wahl beim Datenmanagement sein sollten.

Thomas Steinborn, VP Product Management bei Talend, erläutert im Interview, warum die Cloud heute die erste Wahl bei Datenmanagementprojekten sein sollte und wie sich damit auch zukunftsweisende Machine-Learning-Technologien für intelligente Anwendungen realisieren lassen.

Steinborn verfügt über 15 Jahre Erfahrung in den Bereichen Daten- und Anwendungsintegration. Zu seinen Kernthemen gehören Cloud Computing, Big Data, Integration, Internet of Things und Machine Learning.

Talend hat jüngst ein Update für seine Datenintegrationsplattform Data Fabric veröffentlicht. Was sind die größten Neuerungen des Updates?

Thomas Steinborn: Unter dem Namen Talend Fall’18 haben wir das aktuelle Update unserer Lösung Talend Data Fabric veröffentlicht. Die Datenintegrationsplattform ist Multi-Cloud-fähig und verfügt jetzt über eine Datenkatalogfunktion. Damit schaffen Unternehmen eine zentrale Instanz für vertrauenswürdige Daten.

Weiterhin enthält das aktuelle Release neue Services für Cloud-APIs, die die Erstellung von Data-as-a-Service-Anwendungen beschleunigen. Daneben vereinfacht und beschleunigt die neue Version die Datenaufbereitung in der Cloud über Serverless-IT-Services, beispielsweise für Machine-Learning-Algorithmen. Hier arbeiten wir unter anderem mit Partnern wie Databricks und Qubole zusammen und bieten den Kunden klare Kostenvorteile durch eine Cloud-Infrastruktur. Insgesamt ging es uns darum, das Organisieren, Teilen und Verarbeiten von Daten organisationsweit zu verbessern und zu skalieren. Wer also mit kleinen Projekten startet, kann mit Talend schrittweise eine unternehmensweite Data-Journey-Strategie umsetzen.

Welche Anwendungsszenarien sind mit Talend Data Fabric möglich?

Steinborn: Es gibt hier drei typische Fälle. Da wäre die klassische Datenverarbeitung im ETL- und Big-Data-Umfeld. Bei ETL geht es um Extraktion, Transformation und Laden großer Datenbestände zwischen Datenbanken, Applikationen und aktuell eben auch Cloud-Diensten.

Ein weiterer Anwendungsfall ist das Thema Data Governance. Dies umfasst alle Themen rund um die Standardisierung und Deduplizierung sowie das Zusammenführen von Daten bis hin zu einem organisationsweiten Datenkatalog. Unternehmen erhalten damit eine Übersicht zu ihren Datenbeständen und können diese automatisiert identifizieren und qualifizieren.

Das dritte Anwendungsszenario ermöglicht es, Daten über APIs automatisiert zur Verfügung zu stellen. Und dies sowohl im eigenen Rechenzentrum sowie in der Cloud gleichermaßen.

Damit unterstützt Talend seine Kunden dabei, analytische Anwendungsfälle in einem Data Warehouse umzusetzen und 360-Grad-Kundenanalysen, Betriebsoptimierungen in Lagerhaltung oder Produktion sowie viele weitere Themen zu realisieren. Besonders die automatische Klassifizierung und Erkennung von Daten wird hierdurch weiter automatisiert. So gelingt es Unternehmen leichter, DSGVO-Anforderungen zu unterstützen oder neue Data-Monetarization-Projekte zu starten.

Welche APIs und Datenquellen deckt die Lösung ab?

Steinborn: Bei der Datenintegration ist Talend natürlich sehr breit aufgestellt. Für unsere Lösungen sind über 900 Konnektoren verfügbar, darüber hinaus entwickelt die Community ebenfalls Schnittstellen. Weiterhin arbeiten wir mit den großen Public-Cloud-Providern ebenso zusammen wie mit Big-Data-Technologieanbietern.

Anfang November gab Talend die Übernahme von Stitch bekannt. Wie fügt sich das Unternehmen in das Portfolio von Talend ein?

Steinborn: Mit der Übernahme von Stitch erweitern wir unser Angebot für Data Ingestion. Hier geht es um das Importieren und Synchronisieren großer Datenmengen aus Cloud und On-Premises-Applikationen in eine neue Cloud-Plattform, wie einen Data Hub, einem Data Lake oder einem Data Warehouse. Unternehmen übertragen damit Rohdaten, ohne dass eine Datentransformation vorgenommen wird. Vereinfacht gesagt wird der Stitch Data Loader genutzt für ETL, aber ohne das T für Transformation und ausschließlich in der Cloud. Die Besonderheit liegt darin, dass sich die Cloud-Lösung von Stitch besonders schnell und einfach verwenden lässt. Kunden können damit zum Beispiel von einer Cloud-Anwendung wie Salesforce, Marketo oder NetSuite ihre Daten in ein Cloud-Data-Warehouse laden und anschließend mit entsprechenden Applikationen weitergehende Kundenanalysen durchführen.

Was verspricht sich Talend von der Übernahme?

Steinborn: Uns ging es hierbei um eine Komplementierung unsere Portfolios im Cloud-Bereich, um damit unsere Cloud-first-Strategie weiter voranzutreiben. Außerdem erreichen wir damit eine neue Kundenbasis. Die Lösung fügt sich gut in unser Portfolio ein, denn ein Trend im Markt ist es, für jede Anforderung eine spezielle App anzubieten. Dies kennen Anwender von ihrem Smartphone und diesen Ansatz verfolgen wir ebenfalls mit unseren Lösungen. Das Ziel ist schließlich, dass wir unseren Kunden eine ganzheitliche Plattform anbieten, auf der sie alle Aufgaben rund um das Datenmanagement erledigen.

Auch wenn der Cloud-Markt insgesamt wächst, sind viele Unternehmen skeptisch, ein Cloud-Modell für ihre Datenintegration und -bereitstellung zu verwenden. Wie überzeugen Sie potenzielle Kunden von ihrer Lösung?

Steinborn: Wir erleben aktuell, dass immer mehr Unternehmen IT-Ressourcen aus der Cloud nutzen, darunter auch große Konzerne. Die Skepsis gegenüber der Cloud nimmt also ab. Dennoch möchten Unternehmen, dass die Datenverarbeitung weiterhin unter ihrer Kontrolle bleibt, beispielsweise in einer Private-Cloud-Umgebung. Talend unterstützt ein hybrides Deployment von Big-Data-Lösungen. So können Unternehmen selbst entscheiden, welche Aufgaben im eigenen On-Premises-Rechenzentrum bleiben und welche Daten in der Cloud verarbeitet werden. Letztlich geht auch darum, den Kunden Kostenvorteile für den laufenden IT-Betrieb aufzuzeigen. Und da kann ein gemanagter Service in der Cloud häufig klare Vorteile bringen, beispielsweise bei den Themen Hochverfügbarkeit, Skalierbarkeit und Betriebskosten.

Welche Vorteile sehen Sie insgesamt in einer Cloud-Bereitstellung gegenüber einem On-Premises-Modell?

Steinborn: In unseren Kundengesprächen erleben wir, dass das Problem der Datenverarbeitung nicht die eigentliche Datenverarbeitung ist. Vielmehr geht es um die anfallenden Kosten der Datenverarbeitung. Bei dem Cloud-Modell werden die eigenen IT-Experten von vielen administrativen IT-Aufgaben entlastet. Sie können sich also um die Datenauswertung kümmern, statt sich über Details zum IT-Betrieb den Kopf zu zerbrechen.

Thomas Steinborn, Talend

„Talend unterstützt ein hybrides Deployment von Big Data-Lösungen. So können Unternehmen selbst entscheiden, welche Aufgaben im eigenen On-Premises-Rechenzentrum bleiben und welche Daten in der Cloud verarbeitet werden.“

Thomas Steinborn, Talend

Darüber hinaus können Big-Data-Projekte in der Cloud exponentiell wachsen, da dort IT-Ressourcen schnell und flexibel abrufbar sind. Erwähnenswert ist in diesem Zusammenhang die Trennung von Datenhaltung und Datenverarbeitung in der Cloud. Dadurch wird die Wiederverwertbarkeit von Daten erleichtert und die Skalierung von Big Data-Projekten vereinfacht sich erheblich. Diese Argumente überzeugen viele Unternehmen, die eine Digital Journey gestartet haben und die neue Werte aus ihren Daten erzeugen möchten.

Seit der letzten Version unterstützen Sie Unternehmen mit ihrer Data-Fabric-Lösung auch bei der Verwaltung von Multi-Cloud-Umgebungen. Wie funktioniert das Multi-Cloud-Management für den Kunden?

Steinborn: Bei der Verwendung von Multi-Clouds geht es für viele Kunden um das Thema Investitionssicherheit und Wiederverwendbarkeit. Wer eine Lösung für Plattform A entwickelt hat, möchte sie auch auf Plattform B betreiben können. Wir unterstützen mit unserer Talend Plattform diese Anforderung, da wir die Definition von Datenpipelines abstrakt und technologieneutral halten. Dadurch lassen sich einmal entwickelte Lösungen auch auf anderen Cloud-Plattformen ausrollen. Je nach verwendeten Technologien wird es in der Praxis zwar immer einen gewissen Vendor-Lock-in geben, aber durch den hohen Abstraktionsgrad, den wir Entwicklern bieten, können wir hier mit einem klaren USP unsere Kunden überzeugen, auch in Multi-Cloud-Umgebungen zu arbeiten.

Machine Learning (ML) ist eines der zentralen Anwendungsszenarien von Big-Data-Lösungen. Was entwickelt Talend in diesem Bereich?

Steinborn: Wir unterstützen Entwickler bei der Nutzung von Machine-Learning-Technologien direkt von unserer Plattform Talend Data Fabric aus. Beispielsweise durch die Anbindung von Spark Streaming, um mit neuen Datenströmen Machine-Learning-Modelle zu trainieren. Kunden können also ihre Machine-Learning-Algorithmen mit Daten speisen, die über die Talend-Plattform bereitgestellt werden.

Machine-Learning-Algorithmen können direkt in der Datenmanagementplattform des Kunden genutzt werden. Kunden könnten somit eine intelligente und lernfähige Datenplattform betreiben, mit dem Ziel, wiederkehrende Aufgaben bei ihrem Datenmanagement zu automatisieren und so eine höhere Datenqualität erreichen.

Die EU Datenschutz-Grundverordnung ist seit einem halben Jahr in Kraft. Welche Erfahrungen konnten Sie mit Ihren Kunden bei der Umsetzung einer DSGVO-konformen Datenintegration und -verwaltung sammeln?

Steinborn: Wir führten dieses Jahr eine eigene Untersuchung zur Umsetzung der DSGVO durch. Dabei zeigte sich, dass etwa 70 Prozent der 103 befragten global agierenden Unternehmen nicht in der Lage ist, DSGVO-Anfragen innerhalb der festgelegten Frist von einem Monat zu bearbeiten. Es fehlen oftmals geeignete Methoden für die Speicherung, die Organisation oder den Abruf von Daten, um die Anforderungen zu erfüllen.

Unsere Data-Governance-Lösung unterstützt viele technologische Herausforderungen, die Kunden bei der DSGVO-Umsetzung haben. Insbesondere das Auffinden und Qualifizieren von Datenbeständen über die gesamte Organisation hinweg ist manuell kaum zu schaffen. Mit einer zentralen Plattform für die Integration und das Datenmanagement werden die Grundlagen geschaffen, um die gesetzlichen Vorgaben effizient erfüllen zu können.

Haben Sie abschließend noch einen Tipp, wie Unternehmen der Start in Big-Data-Projekte gelingt?

Steinborn: Unternehmen sollten ausgehend von einer konkreten Business-Anforderung in das Thema Big Data einsteigen und dafür ein Anwendungsszenario identifizieren sowie klare Ziele bestimmen. Im nächsten Schritt erfolgt die Evaluation geeigneter Lösungen und Technologien. Beispielsweise bieten wir mit Talend Open Studio auch eine Open-Source-Version für Data Integration und Big Data. Kombiniert mit einem kostenfreien Test-Account eines Public Cloud Providers starten Unternehmen in das Cloud-Daten-Management ohne Vorabinvestitionen und können Lösungen risikofrei evaluieren.

Folgen Sie SearchEnterpriseSoftware.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Die Funktionen von Talend Enterprise Data Integration im Überblick.

KI versus Big Data: Vergleich der aufstrebenden Technologien.

Machine Learning und IoT beeinflussen Big-Data-Management.

Erfahren Sie mehr über Datenanalyse

ComputerWeekly.de
Close