phonlamaiphoto - stock.adobe.com

CPT 2026: Herausforderungen bei der KI-Verantwortung

Mit zunehmender Automatisierung durch KI entstehen vielfältige neue Risiken, auch im Hinblick auf Verantwortung und Haftung. Ein Thema auf der CPT Cybersecurity Konferenz.

Vom 4. bis 5. März fand in München die CPT Cybersecurity Konferenz statt. Im Rahmen einer Diskussionsrunde zum Thema Mensch oder Maschine – wer trägt die Verantwortung? stand die Frage im Mittelpunkt, wie autonome KI-Systeme regulatorisch und gesellschaftlich eingeordnet werden können. Mit zunehmender Verbreitung agentischer Systeme verschiebt sich die Verantwortung von klar definierten Softwarelösungen hin zu dynamischen, probabilistisch arbeitenden Architekturen.

Anders als klassische IT-Systeme liefern KI-Modelle keine deterministischen Ergebnisse. Selbst bei hoher Genauigkeit verbleibt ein Restrisiko fehlerhafter Entscheidungen. Die Teilnehmer diskutierten, ob bestehende Haftungsmodelle langfristig ausreichen oder ob neue Konzepte nötig sind. Neben der Verantwortlichkeit von Herstellern, Betreibern und Nutzern wurde auch die Möglichkeit juristischer Sonderformen für hochautonome KI-Systeme angesprochen. Konkrete Modelle existieren hierfür bislang nicht.

Regulierung und Innovationsgeschwindigkeit

Ein zentraler Streitpunkt war die Rolle des europäischen AI Acts. Während er als notwendiger Rahmen für Transparenz und Risikoklassifizierung gilt, sehen Teile der Startup- und Investorenlandschaft erhebliche Umsetzungshemmnisse. Besonders in stark regulierten Bereichen wie dem Gesundheitswesen führt die Kombination aus AI Act, Datenschutzanforderungen und branchenspezifischen Regularien, etwa der Medical Device Regulation, zu komplexen Zertifizierungsprozessen.

Diskutiert wurde, dass technisch realisierbare KI-Produkte häufig an ökonomischer Umsetzbarkeit scheitern. Die regulatorischen Anforderungen erhöhen Entwicklungszeiten und Markteintrittskosten erheblich. Im Vergleich dazu setzen die USA stärker auf nachgelagerte Haftungsmodelle. Innovationen gelangen schneller in den Markt, während Risiken im Nachhinein juristisch adressiert werden. Beide Ansätze gelten als systemisch konsistent, unterscheiden sich jedoch deutlich in ihrer Innovationsdynamik.

Agentische Systeme erhöhen die Komplexität

Neben generativer KI wurde insbesondere die nächste Entwicklungsstufe der agentischen Systeme thematisiert. Diese kombinieren mehrere Werkzeuge, verfolgen eigenständig definierte Ziele und können operative Prozesse über längere Zeiträume autonom orchestrieren. Ihre Einsatzgebiete reichen von IT-Automatisierung über Gebäudesteuerung bis hin zu Entwicklungsumgebungen. Mit wachsender Autonomie steigt jedoch die Komplexität der Risikosteuerung. Anders als isolierte Chatbot-Anwendungen greifen agentische Systeme häufig direkt in Geschäftsprozesse oder physische Infrastrukturen ein.

Gefordert wurden daher:

  • granulare Berechtigungskonzepte
  • Edge-basierte Sicherheitsmechanismen
  • kontinuierliche Überwachung agentischer Aktivitäten
  • klare Verantwortlichkeitsstrukturen im Unternehmen

Technische Robustheit und Governance-Modelle wurden als zentrale Wettbewerbsfaktoren identifiziert.

Standortfrage und globale Perspektive

Mehrere Diskussionsbeiträge verwiesen auf Unterschiede zwischen Europa, den USA und China. Während Europa regulatorische Sicherheit priorisiert, setzen andere Regionen stärker auf schnelle Skalierung und Marktdurchdringung.

Beispiele wie autonome Fahrzeugsysteme oder KI-gestützte Robotik verdeutlichen, dass technologische Kompetenz nicht zwangsläufig zu schneller Marktdurchdringung führt. Zugleich wurde betont, dass auch das Unterlassen von KI-Innovation volkswirtschaftliche Risiken birgt, etwa durch Produktivitätsverluste oder Wettbewerbsnachteile in strategischen Industrien.

Fazit

Die Debatte zeigt, dass sich die Verantwortung bei KI-Systemen nicht auf einen einzelnen Akteur reduzieren lässt. Mit zunehmender Autonomie verschieben sich Haftungsfragen, Governance-Modelle und regulatorische Anforderungen. Gleichzeitig stehen europäische Unternehmen vor der Herausforderung, Innovationsfähigkeit und Risikomanagement in Einklang zu bringen. Ob bestehende Rechtsrahmen langfristig ausreichen oder neue Konzepte erforderlich werden, bleibt offen. Klar ist jedoch, dass agentische KI-Systeme die Diskussion um Verantwortung weiter verschärfen werden.

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)