
Aryan - stock.adobe.com
Edge-KI: Mehr Intelligenz am Netzwerkrand
Edge Computing bringt KI näher an industrielle Geräte, ermöglicht Echtzeit-Entscheidungen und reduziert Latenz sowie Kosten im IIoT, meint Henrik Hasenkam von gridscale.
Edge Computing bietet im Industrial IoT (IIoT) viele Vorteile. Doch KI-Anwendungen stellen eine Edge-Computing-Architektur vor neue Herausforderungen. Es braucht angepasste Modelle, neue Infrastrukturkonzepte – und ein klares Verständnis für die technologische Symbiose von Edge und KI.
Im IIoT wird längst nicht mehr nur auf die zentrale Verarbeitung von Daten in der Cloud gesetzt. Um Entscheidungen in Echtzeit treffen zu können, beispielsweise an einer smarten Produktionsstrecke, empfiehlt es sich, die Daten direkt am jeweiligen Gerät zu verarbeiten und nicht erst in die Cloud zu übertragen. Mit steigender Datenmenge nimmt auch das Risiko inakzeptabler Latenzzeiten zu und die Kosten für den Cloud-Service schießen in die Höhe. Hier kann Edge Computing, also die dezentrale Verarbeitung von Daten am Netzwerkrand Vorteile bieten.
Edge Computing: IT-Ressourcen, wo sie benötigt werden
Inzwischen gibt es zahlreiche Praxisbeispiele für Edge Computing – überall dort, wo zeitnahe Entscheidungen vor Ort getroffen werden müssen oder die datenerfassenden Objekte geografisch weit verteilt sind. Die Anwendungsszenarien reichen dabei weit über intelligente Produktionsstrecken, autonome Transportsysteme und Smart Factories hinaus: sei es die Verkehrsüberwachung in Smart Cities, Echtzeitanalysen von Kundenverhalten im Einzelhandel oder die sekundenschnelle Übermittlung von Notfällen im Gesundheitswesen. Um mit den großen Mengen an IoT-Daten umzugehen, müssen Unternehmen die richtigen Infrastruktur-Lösungen und Systemmodelle finden.
KI als nächster Entwicklungsschritt im IIoT
KI ist auch im IIoT längst kein Nischenthema mehr: Aus vernetzten Sensoren und Maschinen können intelligente Ökosysteme entstehen – der Wandel von IIoT zu AIoT (Artifical Intelligence of Things). Um diesen Wandel zu meistern, braucht es eine leistungsfähige, sichere und dezentrale Cloud-Infrastruktur damit die KI-Anwendungen entsprechend arbeiten können.
![]()
„Edge-KI muss mit begrenzten Ressourcen zum Zeitpunkt der Analyse und Entscheidung auskommen. Um das KI-Modell dennoch zu trainieren und zu optimieren, ist die Datensynchronisierung mit einer Cloud-Infrastruktur im Hintergrund essenziell.“
Henrik Hasenkamp, gridscale
Die KI oder zumindest einige Teilfunktionen direkt an die Geräte zu verlagern, würde die Vorteile des Edge Computing ausspielen. Auf vorhandene Edge-Ressourcen sind KI-Technologien jedoch nur schwer übertragbar. Zum einen ist die Leistungsfähigkeit konventioneller Edges stark begrenzt. Zum anderen sind die KI-Anwendungen und KI-Einsatzkonzepte bisher kaum darauf ausgelegt, mit begrenzten Ressourcen auf einer dezentral organisierten Infrastruktur zu arbeiten.
KI und Edge Computing in der Praxis umsetzen
Um mehr KI an den Netzwerkrand und damit direkt an das autonome Fahrzeug, die Produktionsstrecke oder das Offshore-Windrad zu bringen, bedarf es einiger konzeptioneller Überlegungen:
- Das KI-Modell anpassen: Edge-KI muss mit begrenzten Ressourcen zum Zeitpunkt der Analyse und Entscheidung auskommen. Um das KI-Modell dennoch zu trainieren und zu optimieren, ist die Datensynchronisierung mit einer Cloud-Infrastruktur im Hintergrund essenziell. Dies kann – je nach Geschäftsmodell und Anforderungen – eine zentrale Unternehmens-Cloud oder eine Edge-Cloud sein. Es gilt also, ein Optimum für den konkreten Geschäftsfall zu finden, zwischen KI-Funktion am Endgerät und KI-Weiterentwicklung.
- Einsatz und Betrieb von Edge-KI: Eine KI-Anwendung, die auf verteilten Ressourcen arbeitet (nicht zu verwechseln mit Distributed AI, die verteilte Ressourcen nutzt, um Daten gleichzeitig und damit effizienter zu verarbeiten), muss dafür vorbereitet sein. Die Anwendung, genauer gesagt ein Teil davon, läuft auf den Endgeräten und muss entsprechend dort installiert werden – die zentrale Bereitstellung in der Cloud genügt hier nicht. Diese Art des Betriebs erfordert regelmäßige Updates und Monitoring. Das ist umso dringender, da die KI am Edge eben Entscheidungen trifft, die oft sofortige Auswirkungen haben (Stichwort: autonomes Fahren).
- Überdenken der Struktur der IT-Infrastruktur: In Anlehnung an das KI-Modell können Änderungen am IT-Infrastruktur-Modell sinnvoll sein. Mögliche Lösungen, um Edge-KI leistungsfähig umzusetzen, sind die Erweiterung der Edge-Ressourcen direkt an den Geräten oder die Einrichtung von Edge-Clouds in örtlicher Nähe. Dabei spielen auch sicherheitstechnische Überlegungen eine Rolle: Edge-Ressourcen lassen sich normalerweise gut physisch absichern, weil die Daten vor Ort verbleiben und direkt verarbeitet werden. Das ändert sich nun wieder, da die KI auf den regelmäßigen Kontakt zur Cloud angewiesen ist, um optimal zu arbeiten. Datenverbindungen müssen entsprechend priorisiert und abgesichert werden. Auch welche zentrale Cloud die Basis des KI-Modells bildet, könnte zur strategischen Frage werden: strenge DSGVO-Vorschriften, deren Einhaltung deutsche (und europäische) Cloud-Service-Provider garantieren müssen, stehen rechtlichen Unsicherheiten gegenüber, die amerikanische Anbieter mit sich bringen. Edge-Clouds können als Zwischenebene dafür sorgen, den Datenverkehr trotzdem lokal zu halten und die zentrale Unternehmens-Cloud zu entlasten.
Edge-Cloud: Praxisbeispiel für die Industrie
Hinter der mehrfach erwähnten Edge-Cloud stecken kleinere, aber voll leistungsfähige Rechenzentren, die eine sinnvolle Zwischenebene zwischen Edge-Endgerät und zentraler Unternehmens-Cloud bilden. Gerade im Hinblick auf die Entwicklung hin zu AIoT dürfte der Datenverkehr trotz Vorverarbeitung an der Edge hin zur Cloud wieder so stark ansteigen, dass eine zusätzliche Verarbeitungsebene sinnvoll sein könnte.
Ein Beispiel aus der Praxis zeigt, dass Edge-Infrastrukturen vielleicht bald flächendeckend diese Anforderungen erfüllen können. Mit der Cloud- und Edge-Computing-Technologie von gridscale betreibt der Energieanbieter WestfalenWIND mit seinem Tochterunternehmen windCORES Rechenzentren in den eigenen Windrädern. WestfalenWIND wird so zum lokalen, nachhaltigen Cloud-Provider und ein Netz aus verteilten Edge-Computing-Ressourcen entsteht. Für datenintensive und auf Echtzeitanalysen angewiesene KI-Anwendungen, die am Edge ihr Hauptpotenzial entfalten, könnte dies eine zukunftsfähige Infrastrukturerweiterung darstellen.
Über den Autor:
Henrik Hasenkamp verantwortet als CEO die Strategie und Ausrichtung von gridscale, einem Kölner Technologieanbieter, der Unternehmen eine schlüsselfertige Plug-and-Play-Plattform für den schnellen und unkomplizierten Aufbau von Cloud- und Edge Computing-Services zur Verfügung stellt. Als einer der Pioniere und Vorreiter hat Henrik mit der Gründung von gridscale im Jahr 2014 das große Potenzial von Edge und Cloud Computing für die Digitalisierung in Deutschland früh erkannt und gridscale bis heute zu einem innovativen Softwareanbieter und Plattformbetreiber für mittlerweile Tausende Mittelstandsunternehmen, IT-Dienstleister und Systemhäuser fortentwickelt. Seit August 2023 gehört das Unternehmen zur OVHcloud, dem nach eigener Angabe europäischen Marktführer im Bereich Cloud.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.