WavebreakMediaMicro - Fotolia

Cloud vs. Edge: wie Data Gravity den Schwerpunkt verschiebt

Wo sich riesige Datenmengen ansammeln, entsteht Data Gravity. Das führt dazu, das Daten schwer verschiebbar und somit unflexibel werden. Erfahren Sie, was sich dagegen tun lässt.

Vernetzte IoT-Geräte, Sensoren und Kameras generieren täglich Terabytes an Daten – immer mehr davon in Edge-Umgebungen.

Viele dieser Daten werden jedoch nicht effizient gespeichert oder übertragen. Das führt zu unnötig hohen Kosten und verpassten Chancen für Unternehmen.

Um den größtmöglichen Nutzen aus ihren Daten zu ziehen, müssen Unternehmen die Bedeutung von Data Gravity verstehen und ihre Rechen- und Speicherlösungen entsprechend überdenken. Schauen wir uns einmal genauer an, was Data Gravity ist, und warum sie für Unternehmen und Organisationen im IoT-Zeitalter wichtig ist.

Was ist Data Gravity?

Bevor wir in die Tiefe gehen, ist es wichtig zu verstehen, warum das Konzept der Data Gravity gerade jetzt so wichtig ist. Ein Rückblick: Bis vor kurzem war es üblich, Daten – wo auch immer sie generiert wurden – für zentralisierte und sequenzielle Verarbeitung in ein Rechenzentrum zu übertragen. Der Grund dafür ist, dass die Unternehmen weniger Daten erzeugten und Rechenressourcen stationär gebunden waren. Damit waren Unternehmen in der Regel auf Server vor Ort oder leistungsstarke zentrale Computer angewiesen.

Heute erzeugen Unternehmen und andere Organisationen jedoch deutlich mehr Daten – viele davon in Edge-Umgebungen. Nach Angaben des Analyseinstituts Gartner werden bis 2025 etwa 75 Prozent der von Unternehmen erzeugten Daten außerhalb eines herkömmlichen Rechenzentrums oder einer Cloud generiert und verarbeitet werden.

Der Schwerpunkt hat sich damit verlagert. Er liegt nicht mehr im Bereich der Rechenleistung (das heißt dort, wo die Anwendung ausgeführt wird), sondern bei den Daten selbst und dort, wo sie gespeichert sind. Daten werden nicht mehr an einem zentralen Ort gespeichert, sondern auf Tausenden vernetzten Geräten in Produktionsstätten, Fahrzeugen, Haushalten und anderswo.

Es gibt nicht nur mehr Daten als je zuvor. Sie haben generell an Bedeutung gewonnen. Autonome Fahrzeuge, vernetzte Produktionsstätten und Smart Cities sind allesamt auf Daten angewiesen, um Entscheidungen zu treffen. Angesichts dieser neuen datenzentrierten Situation ist es sinnvoll, zumindest einen Teil der Rechenleistung – Programme, Algorithmen, Anwendungen, Dienste – ins Edge zu verlagern. Denn dort werden diese Daten erzeugt. Auf diese Weise können Unternehmen effizienter und sicherer arbeiten und Kosten einsparen.

Schneller, billiger, sicherer

Für die meisten Unternehmen lassen sich die Argumente für die Verlagerung des Fokus von Rechenleistung und Speicher auf Daten in drei Hauptvorteile aufgliedern.

Höhere Geschwindigkeit: Die meisten IoT-Geräte und -Sensoren erzeugen kontinuierlich große Datenmengen. Bei der Übertragung dieser Daten ist es unmöglich, Latenzzeiten vollständig zu eliminieren – selbst mit 5G und in einer guten Netzwerkumgebung. Durch die Verlagerung der Rechenleistung ins Edge ist es jedoch möglich, die Daten sofort zu verarbeiten. Es können dabei verteilte Systeme beziehungsweise die asynchrone Datenverarbeitung zum Einsatz kommen. Dies alles ermöglicht die sehr hohen Geschwindigkeiten bei der Datenverarbeitung, die erforderlich sind, um intelligente Entscheidungen nahezu in Echtzeit zu treffen.

Geringere Kosten: Viele Daten, die von IoT-Geräten und Sensoren erzeugt werden, sind einfach nicht nützlich oder relevant genug, um langfristig gespeichert zu werden. Nehmen wir das Beispiel des Fertigungssektors, wo Kameras eingesetzt werden, um Betriebsstörungen und Produktionsfehler bei der automatischen Fertigung zu erkennen. Eine Kamera kann zum Beispiel durchschnittlich 23,5 Stunden pro Tag fehlerfreie Produktion und eine halbe Stunde Fehlproduktionen oder Unregelmäßigkeiten aufzeichnen.

Wenn die Datenverarbeitung ausschließlich in der Cloud erfolgt, müssten sämtliche 24 Stunden Filmmaterial transferiert und gespeichert werden, um die relevante halbe Stunde herauszufiltern. Den Unternehmen würden dementsprechend die Kosten für die Übertragung und Speicherung all dieses Filmmaterials in Rechnung gestellt. Wenn es jedoch vor Ort gefiltert werden kann, muss nur die relevante halbe Stunde übertragen und gespeichert werden. Das senkt die Kosten für die Übertragung und Speicherung in der Cloud erheblich.

Mehr Sicherheit: Beim Übertragen von Daten besteht unweigerlich die Gefahr, dass sie in die falschen Hände geraten, verloren gehen oder beschädigt werden. Trotz vieler Sicherheitsmaßnahmen sind Datenschutzverletzungen in der Cloud noch relativ häufig. Daher ist es sinnvoll, die Menge der zu speichernden Daten und die Häufigkeit der Übertragung zu minimieren. Bei Fahrzeugen mit autonomen Fahrassistenzsystemen zum Beispiel ist es wichtig, dass die persönlichen Daten des Halters, wie etwa sein Wohn- und Arbeitsort, geheim bleiben. Sollten diese Informationen in die Hände von Kriminellen gelangen, würde dies ein ernsthaftes Sicherheitsrisiko darstellen. Die Filterung von Daten in Edge-Umgebungen und die Übertragung nur der relevanten Informationen in die Cloud helfen, dieses Risiko zu verringern.

Wie funktioniert das in der Praxis?

Natürlich ist die Verlagerung von Rechenleistung und Storage dorthin, wo die Daten erzeugt werden, leichter gesagt als getan. Aber mit gemeinsamen APIs und einer ganzheitlichen Betrachtung von Cloud-Storage, Edge-Speicher und Rechenzentrum ist das für die meisten Unternehmen leicht durchzuführen.

Erstens ist dabei wichtig, dass sich Anwendungen und Speicher problemlos integrieren lassen. Eine Möglichkeit, dies zu erreichen, ist die Verwendung eines portablen Codes – vor allem in Form von mit Kubernetes verwalteten Containern. Durch Kubernetes können Entwickler ein einzelnes Analytics-Programm schreiben, das in der Edge-Umgebung, in einem Rechenzentrum oder in der Public Cloud funktioniert. Dies bietet Unternehmen die Flexibilität, die Grenzen zwischen den verwendeten Systemen auf der Grundlage von RAM- und CPU-Ressourcen anzupassen und automatisch nach oben oder unten zu skalieren – je nachdem, was verfügbar ist.

Zweitens kann die Bedeutung von standardisierten und offenen APIs nicht genug betont werden. Ein Entwickler, der ein Analyseprogramm schreibt, sollte in der Lage sein, dieselbe API in der Cloud und am Edge zu verwenden. Dann kann er einfach auf die Daten zugreifen und einen Rechenauftrag an beiden Orten ausführen.

Gary Ogasawara, Cloudian

„Da immer mehr Daten am Edge generiert werden, müssen Unternehmen erkennen: Anstelle von der Rechenleistung rücken jetzt Daten in den Fokus.“

Gary Ogasawara, Cloudian

Daten sind heute das Zentrum des IT-Universums. Es gibt schlichtweg kein Netzwerk, das bereits jetzt oder in absehbarer Zeit groß genug ist, um alle Daten, die am Edge erzeugt werden, an ein zentrales Rechenzentrum beziehungsweise eine Cloud zu übertragen. Außerdem liegt der Wert für die automatisierte Entscheidungsfindung – und damit für die Unternehmen – bei den Daten und nicht den verwendeten Programmen. Die Analysealgorithmen von Programmen, die mit Deep Learning arbeiten, sind weitgehend zur Massenware geworden. Einzigartig und von Vorteil sind dagegen die von den Unternehmen gesammelten Daten sowie die Geschwindigkeit und Effizienz, mit der diese Daten für die Entscheidungsfindung genutzt werden können.

Wenn Unternehmen diese neue Situation und die Bedeutung von Data Gravity anerkennen, können sie mit der nächsten Stufe der digitalen Transformation beginnen. Dazu gehört die Zusammenführung von On-Premise- und Cloud-Workloads, damit die gleichen Rechen- und Speicherdienste am Edge – das heißt in der Nähe der Datenerzeugung – und in der Cloud verfügbar sind.

Dieses kombinierte Modell ermöglicht es Unternehmen, ein optimales Gleichgewicht für ihre Workloads zu finden, das sich wahrscheinlich mit sich ändernden Anforderungen weiterentwickeln wird. Letztlich können Unternehmen und andere Organisationen nur dann den größtmöglichen Nutzen aus der IoT-Technologie und den damit verbundenen KI- und ML-Anwendungen ziehen, wenn die Rechenleistung auf die Bedürfnisse der erzeugten Daten abgestimmt ist.

Über den Autor: Gary Ogasawara ist Chief Technology Officer (CTO) bei Cloudian, wo er für die langfristige technologische Vision und Ausrichtung des Unternehmens verantwortlich ist. Bevor er diese Rolle übernahm, agierte er als technischer Leiter und führender Entwickler bei der Gründung von Cloudian. Er hält einen Ph.D. in Informatik von der University of California at Berkley, wo er sich auf Uncertainty Reasoning und Machine Learning (ML) konzentrierte.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Cloud Storage

ComputerWeekly.de
Close