kentoh - stock.adobe.com

HPE strebt mit Edge Computing und The Machine in die Zukunft

In seiner 80-jährigen Geschichte hat HPE (früher HP) viele Metamorphosen erlebt. Die jüngste ist die Wandlung zum bedeutenden Edge-Computing-Anbieter.

Die heutige Data-Center-Strategie von HPE ist vor allem auf Edge Computing und das Internet der Dinge (Internet of Things, IoT) ausgerichtet. Innerhalb der nächsten vier Jahre will das Unternehmen vier Milliarden Dollar allein in diese Bereiche investieren.

Das überrascht nicht, denn HPEs Vorläufer, Hewlett Packard (HP), entstammt der Steuerungselektronik und Automation. In vielen Fertigungsanlagen, Erdölraffinerien und anderen Industrieanlagen wurden Jahrzehnte lang HP-Produkte verbaut. Edge ist praktisch die Fortsetzung dieser Infrastrukturen.

Edge: Mehr Daten – weniger Zeit

Der Unterschied zu früher ist, dass beim Edge Computing die Daten von vielen intelligenten Sensoren direkt vor Ort analysiert und zielgerichtet ausgewertet werden. Diese sind über das Internet miteinander verbunden. Laut Gartner werden in wenigen Jahren 75 Prozent aller Daten in der Edge entstehen. Dieses Datenvolumen ist nur dann beherrschbar, wenn es weitestgehend direkt vor Ort verarbeitet wird.

HPE ist auch heute noch in der Industrie-Automation engagiert. Zum Beispiel gibt es eine weitreichende Kooperation mit dem Schweizer Roboterhersteller ABB, bei der es um die Entwicklung von Hard- und Software für Industrie 4.0 geht.

Edge-orientierte Systeme

Die HPE-Flaggschiffe für Edge Computing sind die Converged Edge Systeme Edgeline EL1000 und EL4000. Für diese Produktfamilie wurde jüngst der Edgeline Extended Storage Adapter vorgestellt. Damit können diese Systeme mit bis 48 Terabyte Software-defined Storage (SDS) ausgestattet werden. Außerdem wurde jüngst eine Reihe leistungsfähiger Middleware für die Edgeline-Serie angekündigt. Hierzu gehören unter anderen SAP HANA, SparkCognition SparkPredict und Digital Predix Platform von GE.

Der dritte Bereich für effizientes Edge Computing ist die Netzwerktechnologie. Auch hier versucht HPE eine führende Rolle einzunehmen. Das HPE-Angebot basiert auf der im Jahr 2015 getätigten Akquisition des Netzwerkunternehmens Aruba.

Ergänzend zu den Standard-Komponenten eines Software-defined Networks (SDN) bietet Aruba auch intelligente Edge-Systeme mit Analytics, künstlicher Intelligenz (KI), Machine Learning (ML) und diversen lokalen Steuerungsfunktionen. Damit folgt HPE den Architekturmodellen von Dell, Fujitsu und IBM. Das heißt, es wird eine zusätzliche Ebene zwischen den Edge-Systemen und dem Data Center, beziehungsweise der Cloud geschaffen.

Intelligentes Edge Computing

Laut HPE verfolgt man mit diesem umfangreichen Produktportfolio das ehrgeizige Ziel, sich „als Komplettanbieter für alle Teile einer intelligenten Edge“ zu positionieren. Viele Analysten sehen HPE gut aufgestellt.

„Mit ihren Computing-Ressourcen und ihrem Software-Ökosystem verknüpfen sie hervorragend die Operations-Technologien mit den Informations-Technologien“, lobt Matt Kimball, Analyst für Data-Center-Technologien bei Moor Insights & Strategy, den Ansatz von HPE.

Zu den Standard-Rechenzentrumssystemen von HPE gehören unter anderen die Converged Systems. Hier konkurriert das Unternehmen unter anderem mit Oracle Exalogic und IBM PureSystems.

Automatisierung des Data-Center-Betriebs

Der technologische Rahmen, in dem HPE seine Technologien einbettet, ist Data-Center-Automatisierung. „Die Rechenzentren der Zukunft sind keine isolierten Datenverarbeitungsinseln mehr. Schon jetzt werden beispielsweise die Sensoren einer Bohrinsel über eine lokale Edge Unit mit der Cloud oder direkt mit einem Rechenzentrum verbunden, was eine Vielzahl an Geräten, Netzwerkkomponenten und Realtime-Processing erfordert“, sagt Alain Andreoli, Senior Vice President für Hybrid IT bei HPE.

Solche komplexen Infrastrukturen lassen sich nur mit weitreichenden Automatisierungs-Tools aufbauen und betreiben. HPE bietet hierzu die Softwarepakete OneView, OneSphere und Infosight an. Darin enthalten sind Cloud-Optimierung und KI für das Infrastruktur-Management.

Mit ihren Computing-Ressourcen und ihrem Software-Ökosystem verknüpfen sie hervorragend die Operations-Technologien mit den Informations-Technologien.
Matt KimballMoor Insights & Strategy

„Unser nächster Schritt Richtung Software-defined Infrastructure ist die Integration aller bislang separaten Tools, und wir sind auf einem guten Weg hier eine führende Rolle einzunehmen“, erläutert Andreoli die HPE-Strategie.

Forschung und Entwicklung: Neue Basistechnologien

Aufbauend auf der Edge-Fokussierung hat man auch die Forschung an den zukünftigen Data-Center-Technologien darauf umgestellt. Vor einigen Jahren machte HP mit der Ankündigung von The Machine Schlagzeilen.

Kernstück dieser Entwicklung sind Memristoren, mit denen HP schon seit 2008 experimentiert. Memristoren sind passive Bauelemente, deren Widerstand nicht konstant ist. Der aktuelle Widerstandswert hängt davon ab, wie viele Ladungen in welcher Richtung vorher geflossen sind. Der Widerstandswert bleibt erhalten, auch wenn keine Stromzufuhr mehr stattfindet.

Ursprünglich sollten schon 2016 kommerzielle Memristoren auf den Markt kommen, doch das hat sich immer wieder verzögert. Noch sind die Memristoren viel zu teuer und Experten sagen, dass sie für das Abspeichern von Einsen und Nullen zu wertvoll sind, denn diese Bauelemente können viele Zustände einnehmen. Zum Beispiel wurden bereits Memristoren entwickelt, die bis zu 100 verschiedene Zustände einnehmen können.

Gleichzeitig möchte HPE das Konzept eines Memory-Driven-Computers voranbringen. Daher setzt HPE in den Superdome Flex Servern auf In-Memory-Technologien. Im nächsten Schritt wird man wohl auf 3D XPoint von Intel zurückgreifen.

Damit ist das Thema Memristor aber noch nicht endgültig gestorben. Zusammen mit Ford arbeitet man an Memristor-basierten Chips, die das Trainieren von neuronalen Netzen wesentlich beschleunigen sollen. Geplant ist deren Einsatz als Edge-System in Fahrzeugen sowie in anderen Bereichen der Logistik.

Solide Angebote – vor allem für die Industrie

Die Data-Center-Strategie von HPE lässt sich am besten mit bodenständig beschreiben. Sowohl bei den Teilnehmern der HPE Discover im Juni, als auch bei den Analysten wird HPE nicht als Überflieger mit phantastischen Visionen gesehen, sondern als IT-Arbeitspferd, das mit beiden Beinen auf dem Boden steht.

Trotzdem ist man bei HP nicht im Status Quo gefangen. The Machine und Superdome Flex zeigen, wie progressiv das Unternehmen an zukünftigen Technologien arbeitet, auch wenn es dabei ab und zu Rückschläge erleidet.

Folgen Sie SearchDataCenter.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Welches Konzept Fujitsu für das moderne Data Center hat.

IBM versucht den Spagat zwischen Mainframes und moderner IT.

Data Center der Zukunft: Dell entwirft neue Architektur.

Erfahren Sie mehr über Data-Center-Betrieb

ComputerWeekly.de
Close