Ameer - stock.adobe.com

AWS re:Invent 2025: neue Prozessoren und Datenbank-Updates

Auf der re:Invent 2025 hat Amazon Web Services (AWS) zahlreiche Neuerungen im Bereich Infrastruktur vorgestellt. Dieser Artikel beleuchtet die wichtigsten Ankündigungen.

Mit dem Graviton5 präsentierte Amazon Web Services (AWS) auf der re:Invent 2025 seinen bisher leistungsstärksten Prozessor für allgemeine Cloud Workloads. Die auf der ARM-Architektur basierenden Chips werden im TSMCs 3-Nanometer-Prozess (N3) gefertigt und bieten laut AWS signifikante Verbesserungen gegenüber der Vorgängergeneration.

Technische Daten des Graviton5

Der Graviton5 integriert 192 ARM Neoverse V3-Kerne in einem einzigen Sockel – eine Verdopplung gegenüber dem Graviton4, der zwei 96-Kern-Chips nutzte. Diese Konsolidierung reduziert die Inter-Core-Latenz um bis zu 33 Prozent, da keine Kommunikation zwischen mehreren Sockeln mehr erforderlich ist.

Der L3-Cache wurde gleichzeitig massiv ausgebaut: Mit der fünffachen Kapazität der Vorgängergeneration steht jedem Kern nun 2,6-mal mehr Cache zur Verfügung. Dies verbessert die Cache-Hit-Rate und reduziert teure DRAM-Zugriffe. Die Speicherbandbreite profitiert von DDR5-7200-Unterstützung mit 691,2 GB/s – ein Plus von 28,6 Prozent gegenüber dem Graviton4.

AWS re:Invent 2025
Abbildung 1: AWS stellte auf der re:Invent unter anderem eine neue Generation seiner Graviton-Prozessoren vor, die speziell für Cloud Workloads optimiert sind.

Weitere Verbesserungen umfassen 15 Prozent höhere Netzwerkbandbreite sowie 20 Prozent mehr Amazon EBS-Bandbreite. Die größten Instanzen bieten sogar die doppelte Netzwerkbandbreite.

Neue Amazon-EC2-Instanzen

Die neuen Amazon-EC2-M9g-Instanzen auf Graviton5-Basis liefern laut AWS bis zu 25 Prozent höhere Performance als die M8g-Vorgänger. Sie sind ab sofort in der Preview verfügbar. Compute-optimierte C9g- und speicheroptimierte R9g-Instanzen sollen 2026 folgen.

Ein weiteres Highlight in diesem Zusammenhang war die neue Nitro Isolation Engine, die mittels formaler Verifikation mathematisch beweisbare Workload-Isolation gewährleistet. SAP berichtet bereits von 35 bis 60 Prozent höherer OLTP-Query-Performance auf SAP HANA Cloud.

Graviton-Prozessoren treiben mittlerweile mehr als die Hälfte der neuen CPU-Kapazität bei AWS an – das dritte Jahr in Folge. 98 Prozent der Top-1.000-EC2-Kunden, darunter Adobe, Airbnb, SAP, Siemens und Snowflake, nutzen Graviton-basierte Instanzen.

Amazon S3: Neuerungen für KI-Workloads

Amazon S3 erhält mehrere Updates, die den Objektspeicher besser für KI- und Machine-Learning-Anwendungen positionieren.

Die wichtigste Ankündigung ist die allgemeine Verfügbarkeit von S3 Vectors. Der Dienst ermöglicht die Speicherung und Abfrage von Vektordaten direkt in S3 und unterstützt nun bis zu zwei Milliarden Vektoren pro Index bei Abfragezeiten von 100 Millisekunden. AWS verspricht dabei bis zu 90 Prozent niedrigere Kosten im Vergleich zu spezialisierten Vektordatenbanken.

Diese Erweiterung macht S3 zu einer attraktiven Option für Retrieval-Augmented Generation (RAG), semantische Suche und andere KI-Anwendungsfälle, ohne dass Kunden separate Vektordatenbankinfrastruktur aufbauen müssen.

Amazon S3 unterstützt außerdem ab sofort Objekte bis 50 Terabyte – das Zehnfache des bisherigen Limits. Dies vereinfacht die Speicherung großer KI-Trainingsdatensätze, die bisher in mehrere Objekte aufgeteilt werden mussten.

Für S3 Tables wurde Intelligent-Tiering eingeführt, das automatisch Daten zwischen Speicherklassen verschiebt, um Kosten zu optimieren. Ebenfalls neu: Replikations-Support für S3 Tables ermöglicht die Spiegelung von Tabellen über AWS-Regionen und Konten hinweg.

Amazon FSx for NetApp ONTAP lässt sich nun direkt mit S3 integrieren. Unternehmen können so ihre Dateisystemdaten für AWS-Analytics-, ML- und KI-Dienste zugänglich machen, ohne Daten zu kopieren oder zu verschieben.

Datenbanken: Kostensenkung und bessere Performance

Bei den Datenbankdiensten lag der Fokus in diesem Jahr weniger auf neuen Features als auf Kosteneinsparungen und Effizienzsteigerungen.

Die mit Abstand lauteste Reaktion im Publikum auf der re:Invent 2025 erntete dabei die Ankündigung der Database Savings Plans. Dieses neue Preismodell ermöglicht Einsparungen von bis zu 35 Prozent bei einer einjährigen Nutzungszusage – ohne Vorauszahlung.

Das Besondere: Die Savings Plans gelten übergreifend für neun Datenbankdienste: Aurora, RDS, DynamoDB, ElastiCache, DocumentDB, Neptune, Keyspaces, Timestream und den Database Migration Service. Kunden können zwischen Datenbank-Engines, Instanztypen, Regionen und Deployment-Modellen (Serverless versus provisioniert) wechseln, ohne ihre Rabatte zu verlieren.

Die höchsten Rabatte von 35 Prozent gelten für Serverless-Deployments wie Aurora Serverless v2. Bei provisionierten Instanzen liegen die Einsparungen typischerweise bei 20 Prozent. Das System wendet Rabatte automatisch auf die Nutzung mit dem höchsten Discount an.

Amazon RDS für SQL Server und Oracle unterstützt nun viermal mehr Speicher: Die Kapazität steigt von 64 auf 256 Terabyte, verbunden mit vierfacher IOPS- und I/O-Bandbreite. Beide Speichertypen io2 und GP3 können gemeinsam genutzt werden.

Mit der neuen Optimize-CPUs-Funktion für RDS for SQL Server können Kunden ihre Kosten um bis zu 55 Prozent senken, da SQL-Server-Lizenzen pro vCPU berechnet werden. Zusätzlich steht eine neue Developer Edition von RDS for SQL Server zur Verfügung, die Entwicklerteams alle Enterprise-Features ohne Lizenzgebühren bietet.

Amazon Aurora und Vercel-Integration

Die Erstellung von Aurora-Serverless-Datenbanken soll künftig in wenigen Sekunden möglich sein – ein deutlicher Fortschritt gegenüber den bisherigen 10 bis 20 Minuten. Aurora DSQL wurde bereits auf unter zwei Minuten optimiert.

Für Entwickler interessant: AWS-Datenbanken wie Aurora PostgreSQL, Aurora DSQL und DynamoDB sind demnächst als native Integrationen im Vercel Marketplace und in v0 verfügbar. Entwickler können dann direkt aus dem Vercel-Dashboard oder v0-Prompts heraus auf diese Dienste zugreifen.

Fazit

Die Ankündigungen auf der re:Invent 2025 zeigen, dass AWS an der Optimierung seiner Infrastruktur arbeitet. Mit Graviton5 liefert das Unternehmen einen leistungsstarken ARM-Prozessor, der die Kosteneffizienz verbessert. Die S3-Erweiterungen positionieren den Objektspeicher als zentrale Komponente für KI-Workloads. Die Database Savings Plans adressieren einen langjährigen Kundenwunsch nach mehr Flexibilität bei Datenbankrabatten.

Die re:Invent 2025 stand insgesamt im Zeichen von KI – von den Trainium3-UltraServern über die Nova-Modelle bis hin zu den Frontier Agents. Doch die hier vorgestellten Infrastruktur-Updates bilden das Fundament, auf dem diese KI-Innovationen aufbauen.

Erfahren Sie mehr über Cloud-Software