iStock
SUSECON 2026: Souveränität, agentische KI und Industrial Edge
Vom 20. Bis 24. April 2026 fand die SUSECON in Prag statt. Wir fassen in unserem Beitrag die wichtigsten Themen, die das Unternehmen künftig in den Mittelpunkt stellt, zusammen.
Die SUSECON 2026 fand vom 20. bis 24. April im Prague Convention Centre statt – nach Angaben des Anbieters mit Rekord-Anmeldezahlen. Der Veranstaltungsort war strategisch gewählt: SUSE inszenierte Prag als Symbol für Resilienz und stellte die zentrale Botschaft der Konferenz an die Spitze der Eröffnungs-Keynote. „Architect for innovation through choice“ lautete die Leitformel von CTO und Chief Product Officer Thomas Di Giacomo. Frank Feldmann, Chief Strategy Officer bei SUSE, ergänzte das Konzept um zwei operative Begriffe, die sich durch die gesamte Veranstaltung zogen: Exit Velocity – die Fähigkeit, einen unwirtschaftlichen Vendor-Vertrag zügig zu verlassen – und Pivot Ability – die technische Möglichkeit, ohne Geschäftsunterbrechung auf eine andere Plattform zu wechseln.
Das Framing ist eine direkte Antwort auf die aktuelle Marktdynamik: VMware/Broadcom-Lizenzschocks, regulatorischer Druck durch NIS2, DORA und den EU AI Act, geopolitische Reibungen sowie die Sorge vor Lock-in in einen bestimmten KI-Stack. SUSE legt diese Themen unter ein gemeinsames Dach: digitale Souveränität als Voraussetzung für Resilienz, Open Source als technisches Fundament dafür.
Souveränitäts-Studie: Ambition und Umsetzung klaffen auseinander
Begleitend zur Konferenz veröffentlichte SUSE die Studie „Navigating Digital Resilience“ mit 309 IT-Verantwortlichen aus Deutschland, Frankreich, Indien, Japan und den USA. Die zentralen Befunde unterstreichen das Spannungsfeld zwischen Anspruch und Realität.
Dabei gilt digitale Souveränität zwar für die große Mehrheit der Befragten als hohe Priorität, doch nur etwa die Hälfte setzt entsprechende Maßnahmen tatsächlich um. Souveränität wird zunehmend in Ausschreibungen (RFPs) und bei der Vendor-Auswahl berücksichtigt. Als wichtigsten Treiber digitaler Resilienz in den nächsten Jahren sehen die Teilnehmer vor allem mehr Transparenz und Kontrolle bei KI-Modellen.
Margaret Dawson, Chief Marketing Officer bei SUSE, fasste die Botschaft auf der Keynote-Bühne pointiert zusammen: Sovereign AI sei kein Widerspruch bei der KI-Transformation, sondern deren Voraussetzung.
SUSE AI Factory mit NVIDIA: Sandbox-zu-Production als Versprechen
Die technisch ambitionierteste Ankündigung war die Vorstellung der SUSE AI Factory mit NVIDIA, die später in diesem Jahr allgemein verfügbar sein soll. Die Lösung kombiniert NVIDIA AI Enterprise – darunter NVIDIA NIM-Microservices (das sind vorgefertigte, optimierte Container von NVIDIA, mit denen man KI-Modelle extrem schnell und performant einsetzen kann), die offene Nemotron-KI-Modellfamilie, das NeMo Toolkit für Agent-Entwicklung und Fine-Tuning, Run:ai für GPU-Orchestrierung sowie die neuen Agent-Runtimes OpenShell und NemoClaw – mit der SUSE-Plattformschicht aus SLES 16, Rancher Prime, K3s, vorgefertigten Blueprints und GitOps-Workflows. Erwähnenswert ist, dass die NVIDIAs OpenShell- und NemoClaw-Runtimes SUSEs K3s als Laufzeitumgebung nutzen.
Zwei Aspekte verdienen besondere Aufmerksamkeit. Erstens bleibt die Plattform hardware-neutral: Sie läuft auf jedem NVIDIA-zertifizierten System – von Dell, HPE, Lenovo, Cisco, Supermicro oder Fujitsu – über GPU-Klassen von RTX-Pro-Workstations bis zu Blackwell-Rack-Systemen und der für 2026 angekündigten Vera-Rubin-Generation. Damit positioniert sich SUSE bewusst gegen die OEM-eigenen AI-Factory-Bündel der gleichen Hersteller. Zweitens bleiben Stack-Komponenten oberhalb der Hardware austauschbar: Nemotron-Varianten lassen sich tauschen, man kann RAG- oder AI-Q-Blueprints als Ausgangspunkt nehmen oder eigene Pipelines aufbauen.
Das verspricht Firmen, dass sie eine einzige Anlaufstelle für Support über den gesamten Stack hinweg haben – bei gleichzeitiger Wahlfreiheit bei Hardware und Software-Komposition. Daten und Modelle verbleiben in der Kundeninfrastruktur – ein Punkt, den SUSE explizit mit den Anforderungen des EU AI Acts verbindet. Als Launch-Partner trat unter anderem Fsas Technologies Europe (Fujitsu) auf.
Switch-Partnerschaft: SUSE als Substrat unter der AI Factory
Mit gleichem Gewicht wie die NVIDIA-Ankündigung wurde am zweiten Konferenztag die Partnerschaft mit Switch vorgestellt – einem in Las Vegas ansässigen Betreiber von KI-Infrastruktur, dessen Campusse die Workloads für sogenannte Neoclouds wie CoreWeave hosten, also GPU-spezialisierte Cloud Provider, die direkt mit den Hyperscalern konkurrieren. Corinne Winfield, VP Data, Operations and Business Analysis bei Switch, demonstrierte, wie Switch SUSE AI Factory zusammen mit NVIDIAs Omniverse-DSX-Blueprint einsetzt, um seine „Living Data Center“-Steuerungsplattform und einen physikalisch validierten Digital Twin der neuen EVO-AI-Factory-Campusse zu betreiben.
Das verschiebt die Positionierung der SUSE AI Factory deutlich. War sie zunächst als Stack für Enterprise-IT-Abteilungen positioniert, die etwa einen RAG-Chatbot On-Premises betreiben wollen, sitzt SUSE im Switch-Szenario in der Operating Fabric der KI-Fabrik selbst.
Agentic AI: MCP als Standard-Schnittstelle
Den Pfeiler der KI-Strategie – „AI for Infrastructure“ statt „Infrastructure for AI“ – setzt SUSE über das Model Context Protocol (MCP) um. Das Unternehmen hat MCP-Server-Schnittstellen über sein gesamtes Portfolio ausgerollt: Multi-Linux Manager und Rancher als Kern, dazu SLES, der Rancher-Prime-Liz-Assistent sowie die Observability- und Security-Tools. Die Botschaft ist mehr als Produktzählerei: SUSE etabliert MCP als Default-Modus, in dem Infrastruktur mit Agenten kommuniziert.
In der Eröffnungs-Keynote demonstrierte SUSE das Konzept anhand eines SAP-HANA-Patching-Szenarios. Dort fragt ein Operations-Agent Trento für Topologie und SAP Notes ab, Multi-Linux Manager für Patch-Baselines und Drift-Status, prüft Business-Constraints (etwa: „Patches nur Freitag 02:00–04:00 UTC, keine simultane HANA-Replica-Behandlung“) und schlägt einen Rolling-Plan vor. Vor der Ausführung greift ein Approval-Gate, an dem Liz – der KI-Assistent von Rancher Prime – ihre Begründung präsentiert. Der eigentliche Mehrwert liegt nicht in der Geschwindigkeit, sondern in der Auditierbarkeit: Jeder Schritt ist ein benannter MCP-Tool-Call gegen ein benanntes Produkt.
Begleitend kündigte SUSE Integrationen mit AWS, Fsas Technologies (Fujitsu), n8n, Revenium und Stacklok an. Stacklok-CEO Craig McLuckie – einer der Kubernetes-Mitbegründer – verwies dabei auf das Stacklok-Registry geprüfter MCP-Server, das auch SUSE Multi-Linux Manager umfasst. n8n-Engineering-VP Cornelius Suermann betonte die Möglichkeit, SUSEs MCP-Server direkt in eigene Agent-Workflows einzubinden, ohne dafür spezielle Integrationen entwickeln zu müssen.
VMware-Migration: Coriolis wird zum First-Class-Pfad
Natürlich war auch Broadcom ein Thema auf der Konferenz. Mit der Partnerschaft mit Cloudbase Solutions integriert SUSE das Migrationswerkzeug Coriolis direkt in den SUSE-Virtualization-Stack. Coriolis ist keine neue Entwicklung – Cloudbase mit seiner OpenStack-Historie pflegt das Tool seit Jahren. Dabei verfolgt Cloudbase einen „Warm Migration“-Ansatz, bei dem erst die Daten repliziert werden, während die Quell-VM weiterläuft, und anschließend ein Cutover erfolgt. Interessant ist auch die Möglichkeit einer verifizierten Migration für SAP-Anwendungsserver und SAP HANA auf SUSE Linux Enterprise for SAP Applications mit dem KVM-zertifizierten Hypervisor - dies schließt eine wichtige Lücke gegenüber Red Hat OpenShift Virtualization und Nutanix AHV.
SUSE Industrial Edge: später Eintritt mit Open-Source-Pflicht
Mit SUSE Industrial Edge betritt der Anbieter einen Markt, den industrielle OEMs und Hyperscaler seit einem Jahrzehnt prägen. Das neue Produkt basiert auf der Losant-Plattform, deren Übernahme SUSE im Februar 2026 abgeschlossen hatte. Es füllt laut SUSE die Lücke am „Tiny Edge“ – der Schicht aus Sensoren und beschränkten Geräten, an der die Daten entstehen – während SUSE im Near Edge (Telco) und Far Edge (Krankenhaus-Monitoring, Schiffsmotoren) bereits präsent ist.
Die technischen Eckpunkte sind dabei Protokoll-agnostische Konnektivität (OPC UA, Siemens, Beckhoff, HVAC-Systeme), eine No-Code/Low-Code Workflow-Engine, Multi-Level-Dashboards, vorgefertigte Templates für gängige Industrieszenarien und Inferenz vor Ort. Die Plattform verarbeitet nach Angaben von SUSE bereits über zwei Milliarden Workflow-Transaktionen pro Monat.
Strategisch interessanter als die Akquisition selbst ist das Open-Source-Versprechen: SUSE will die Losant-Technologie als Open Source freigeben. Parallel dazu bewegt sich SUSE in die Steering Committee der Margo-Initiative der Linux Foundation, die Interoperabilität an industriellen Edges standardisieren soll.
Sovereignty Specialization und Partner-Ökosystem
Um das fehlende Know-how im Markt im Bereich Souveränität zu stärken, führt SUSE eine neue Sovereignty Specialization im SUSE-One-Partnerprogramm ein. Sie startete im April zunächst als invite-only-Programm mit ausgewählten Partnern; eine breitere Öffnung ist für später im Jahr vorgesehen.
Oracle Marketplace und Multi-Cloud-Reichweite
Etwas weniger Aufmerksamkeit, aber praktische Relevanz hatte die Ankündigung, dass das gesamte SUSE-Portfolio über den Oracle Marketplace verfügbar ist und sich auf Oracle Cloud Infrastructure (OCI) deployen lässt. Das vereinfacht Beschaffung und Deployment für Kunden mit Oracle-Bindung – vor allem im Kontext hybrider Cloud-Strategien, KI-Workloads und Container-Anwendungen. SUSE verweist auf eigene Erhebungen, wonach 59 Prozent der Organisationen hybride Cloud-Deployments für souveränitätsrelevante Workloads priorisieren.
Kundenbeispiele: vom Supercomputing bis zur Cruise-Linie
Auf der Bühne ließ SUSE 12 Customer Awards in vier Kategorien vergeben. Die Bandbreite illustriert die Reichweite des Portfolios:
- Airbus Defence and Space als „Digital Sovereignty Pioneer“ für Kubernetes-Sicherheits-Engineering nach Anforderungen nationaler Cybersicherheits-Behörden.
- Swiss National Supercomputing Centre (CSCS) als „Virtualization Visionary“: Auf dem Alps-Supercomputer wird Bring-your-own-Container-Forschung betrieben; das CSCS startete zudem das offene LLM-Projekt Apertus auf Open-Source-Infrastruktur.
- Mizuho Bank als „Open Source Excellence“ für ihre 10-jährige Modernisierungs-Roadmap mit der Migration von über 200 Legacy-Servern auf SUSE Multi-Linux Support.
- PepsiCo als „Open Source Excellence“ für die Migration von mehr als 1.000 Legacy-Systemen auf SUSE; Chris Scott von PepsiCo argumentierte auf der Bühne, dass der Abbau der „archäologischen Schicht technischer Schulden“ Kapazität für Innovation freisetze.
- Carnival Corporation als „Edge Innovator“ für die Vereinheitlichung von mehr als 180 verteilten Rechenzentren auf einer Kreuzfahrt-Flotte mit über 90 Schiffen.
- Nexi Group als „Cloud Native Champion“ mit 99,99 Prozent Verfügbarkeit bei der Verarbeitung von Milliarden Zahlungstransaktionen jährlich.
Einordnung: Das Beschaffungs-Argument muss erst noch reifen
SUSEs Positionierung ist in sich konsistent. Anders als die meisten Wettbewerber, die im Jahr 2026 eine eigene KI-Faktorie ausrufen, führt SUSE mit Souveränität – ein in Europa gut anschlussfähiges Argument, das durch EU AI Act, NIS2 und DORA regulatorische Rückendeckung erhält. Der gemeinsame Nenner aller vier strategischen Partnerschaften – NVIDIA für KI-Compute, Switch für die operative Schicht, Cloudbase für den VMware-Exit, Losant für den Plant Floor – ist dieselbe Logik: SUSE will nicht die Anwendung, das Modell oder die Hardware besitzen, sondern die Laufzeitumgebung darunter.