AWS re:Invent 2018: Von der Cloud ins Weltall

Auf der re:Invent fackelte AWS ein Produkt-Feuerwerk ab, wie man es nur selten erlebt. AWS unterstrich einmal mehr seinen Führungsanspruch im Cloud-Markt.

AWS CEO Andy Jassy wartete auf der re:Invent 2018 mit vielen Rekorden und Superlativen auf. „Wir sind unbestreitbar die Nummer eins im Cloud-Markt“, rief er gleich zu Beginn seiner Keynote den über 50.000 Teilnehmern zu.

Der AWS-Marktanteil ist inzwischen auf 51 Prozent angestiegen. Das ist mehr als dreimal so viel wie der Anteil der Microsoft Azure-Plattform, die mit 13 Prozent auf Platz zwei liegt. Auf den dritten Platz hat sich inzwischen der chinesische Provider Alibaba vorgeschoben, der mit knapp fünf Prozent noch vor Google und IBM platziert ist.

Zum AWS-Marktanteil gehören auch die entsprechenden Umsatzzahlen. Basierend auf den jüngsten Quartalszahlen ergibt sich ein Jahresumsatz von 27 Milliarden Dollar, das entspricht einem Plus von 46 Prozent.

Im Fokus der re:Invent standen aber überwiegend verschiedene Ankündigungen. Über 20 Neuheiten oder Erweiterungen präsentierte Jassy in seiner Keynote, die nicht nur die klassischen IT-Infrastrukturen, wie Datenbanken und Cybersicherheit betrafen, sondern natürlich auch die modernen Buzzwords, wie künstliche Intelligenz (KL) und Machine Learning.

EC2 mit ARM-Prozessoren

Amazon Elastic Compute Cloud (EC2) bietet nun drei neue Instances an. Die neuen A1-Instances basieren auf selbst entwickelten 64-Bit ARM-Graviton-Prozessoren, die 16 Kerne haben und mit Amazon Linux verwendet werden. Diese Instances sind laut Matt Garman, Vice President Amazon Elastic Compute Cloud, bis zu 40 Prozent günstiger als die bekannten General Purpose Instances.

„Wir sehen hierfür einen Bedarf bei Linux ARM-Fans, als auch als Entwicklungsplattform für Linux ARM-Produktionsumgebungen“, gab Amazon als Begründung für diese neue Plattform an.

Schnelleres Training bei Machine Learning

„Der Bedarf an Machine-Learning-Anwendungen explodiert“, sagte Jassy. Um das Training solcher Modelle deutlich zu beschleunigen, stellte er eine Reihe neuer Instances vor. So lässt sich mit den neuen P3dn-Instances die Trainingszeit von mehreren Tagen auf unter eine Stunde verkürzen.

AWS CEO Andy Jassy verwies in seiner Keynote selbstbewusst auf die Marktdominanz seines Unternehmens im Cloud-Segment.
Abbildung 1: AWS CEO Andy Jassy verwies in seiner Keynote selbstbewusst auf die Marktdominanz seines Unternehmens im Cloud-Segment.

Das liegt vor allem daran, dass der Datenaustausch zwischen GPU und der Storage-Plattform S3 wesentlich verbessert wurde. Bis zu 100 Gbit/s sollen möglich sein, um die acht Nvidia Tesla V100 GPUs, 96 Intel Xeon vCPUs und 1,8 TByte NVMe-based SSD-Einheiten mit Daten zu versorgen.

Supercomputing in der Cloud

Noch ist das Feld der Supercomputer (High Performance Computing, HPC) eine Spezialdisziplin der großen Hardwarehersteller, doch Amazon beginnt, einen Stück des Kuchens für sich zu beanspruchen.

Der Schlüssel dazu ist Elastic Fabric Adapter (EFA), der mithilfe des Message Passing Interface mehrere zehntausend CPUs verbinden kann. Der neue Service ist als Preview auf den EC2 P3dn und C5n Instances verfügbar. Das HPC-Angebot soll laut AWS im nächsten Jahr ausgeweitet werden. Bedarf dafür gibt es vor allem in den Anwendungsbereichen Strömungsdynamik, Wettermodellierung und Biotechnologien.

Von der Cloud ins Weltall

Passend zur erfolgreichen Landung der neuen Mars-Mission InSight wurde ein neuer Satelliten-Service vorgestellt. Hinter dem Namen AWS Ground Station verbirgt sich ein globales Gateway zu den Datenbergen, die sowohl von bereits bestehenden als auch zukünftigen Weltraumsatelliten produziert werden.

„Wir haben eine neue Infrastruktur geschaffen, zu der nicht nur unsere IT- und Netzwerkeinrichtungen gehören, sondern auch Antennenfelder und spezielle satellitenorientierte Analytics“, erläuterte Jassy den neuen Dienst.

„Wir übertragen das Prinzip des Cloud Computing auf die Nutzung von Satellitendaten“, schreibt AWS Chief Evangelist Jeff Barr in einem Blogeintrag dazu. Mit dem Cloud-Preismodell können die Betreiber bis zu 80 Prozent der Kosten einsparen.

AWS nutzt hierzu ein Netz an Satellitenbasisstationen, die mit den AWS-Regionen verbunden sind. Zunächst werden nur zwei AWS-Regionen angeschlossen, wovon eine die US-West-Region ist. Bis Mitte nächsten Jahres sollen insgesamt zwölf der bestehenden 19 AWS-Regionen angeschlossen sein.

Pilotpartner ist unter anderem der Rüstungskonzern Lockheed Martin. Dessen Vice President Rick Ambrose sieht vor allem gute Chancen der Zusammenarbeit auf dem Gebiet der neuen Low-Earth-Orbit-Satelliten (LEO), die bald die Erde mit einem globalen Netz für den Internetzugang überziehen. Hierfür werden bald 16.000 Satelliten die Erde umkreisen. Unter dem Namen Verge hat das Unternehmen neuartige Low-Cost Antennen entwickelt, die als Bindeglied zwischen Satelliten und der AWS-Cloud fungieren.

AWS will in Rechenzentren

Über viele Jahre hinweg vertrat Jassy die Ansicht, dass Unternehmen kein eigenes Rechenzentrum mehr benötigen und alles in der Cloud ablaufen kann. Vor einigen Jahren gab er allerdings zu, dass es auch weiterhin Anwendungen gibt, die On-Premises ablaufen. Das bezog sich überwiegend auf IT-Bereiche, die Amazon ohnehin nicht abdeckt, zum Beispiel Mainframes.

„Wir übertragen das Prinzip des Cloud Computing auf die Nutzung von Satellitendaten.“
Jeff BarrAWS Chief Evangelist

Nun ist man bei AWS überzeugt, dass eine Hybrid Cloud in vielen Fällen die optimale Lösung ist. Jassy und VMware CEO Pat Gelsinger stellten hierzu das neue gemeinsame Angebot Outposts vor. Dabei handelt es sich um eine gemeinsame Hybrid Cloud, die Amazon-Services im eigenen Rechenzentrum bereitstellt.

Amazon richtet im Kunden-Data-Center ein eigenes Subrechenzentrum mit proprietärer Hardware ein. Auf diesen Inhouse-Systemen können die gleichen Dienste abgerufen werden, die es sonst nur auf der AWS- Plattform gibt. Der Grund für die Ausweitung des Angebotes ist nach Angaben von Jassy, dass viele Kunden eine nahtlose und unterbrechungsfreie Verschiebung ihrer Anwendungen zwischen On-Premises und AWS-Cloud wünschen. Das geht nur, wenn auch die APIs und Aufrufe kompatibel sind.

Zurück auf die Erde

Auch aus einem anderen Grund kommen viele Anwendungen wieder aus der Cloud zurück ins eigene Rechenzentrum. Der Grund ist, dass immer mehr Unternehmen über die ersten Abrechnungen entsetzt sind. Die Kosten liegen häufig über dem, was im Vorfeld kalkuliert wurde und deutlich über dem, was eine Inhouse-Lösungen kostet.

Die University of Reading hat solche Erfahrungen hinter sich. Für ihre Forschungsprojekte im Bereich der Meteorologie benötigen sie häufig wechselnde Computerleistung – also ein typischer Fall für die Cloud.

„Wir starteten zunächst mit einigen typischen Forschungsprojekten und alles verlief nach Plan“, sagt Ryan Kennedy, IT-Chef für den akademischen Bereich. „Doch dann kam die Rechnung und löste eine Schockstarre aus.“ Seiner Ansicht nach lag die Kostenexplosion an einer überzogenen und unnötigen Nutzung der verfügbaren Ressourcen.

„Wenn man einem Forscher sagt: Hier hast du uneingeschränkte Computerleistung, dann wird gekauft, gekauft, gekauft. Wir konnten das einfach nicht mehr managen“, sagt er über seine Erfahrungen und die Gründe für die Rückkehr zur On-Premises-Lösung.

Diese Erfahrungen decken sich mit denen vieler anderer IT- und Finanz-Manager. Und auch im Gartner Hype Cycle sind Cloud-bezogenen Trends inzwischen verschwunden.

Folgen Sie SearchEnterpriseSoftware.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Kostenloser E-Guide: Die Serverless-Plattform AWS Lambda.

Wie AWS Fargate das Container-Management entlastet.

AWS-Entwicklungsservices: Vom Code in die Produktion.

Erfahren Sie mehr über Big Data

ComputerWeekly.de
Close