Looker_Studio - stock.adobe.com
Für Agentic AI fehlt häufig eine klare Governance-Strategie
Agentische KI findet immer mehr Verbreitung – doch vielen Unternehmen fehlt die Governance. CISOs müssen Sicherheitsrisiken systematisch steuern.
Laut einer GitLab-Umfrage unter Führungskräften rechnen 89 Prozent damit, dass agentische KI innerhalb der nächsten drei Jahre zum Industriestandard für die Softwareentwicklung wird. Gleichzeitig bewerten 80 Prozent dies als erhebliche Sicherheitsherausforderung.
IT-Sicherheitsverantwortliche, häufig Chief Information Security Officers (CISOs), stehen damit vor einem Balanceakt: Sie müssen KI-Nutzung ermöglichen und gleichzeitig neue Sicherheitsrisiken minimieren. Mit 87 Prozent der Führungskräfte, die in den nächsten 18 Monaten ihre KI-Investitionen erhöhen wollen, verschärft sich diese Situation weiter.
Die Umfrage zeigt: 52 Prozent der befragten Unternehmen haben keine regelkonforme Governance implementiert, 48 Prozent fehlen interne KI-Richtlinien.
Fehlende Governance erschwert die KI-Einführung
Die meisten Sicherheitsverantwortlichen in Deutschland kennen die Risiken von agentische KI. Dazu zählen Governance-Herausforderungen (48 Prozent), Cybersicherheitsbedrohungen (46 Prozent) und von KI-Agenten verursachte Fehler (46 Prozent). Die Definitionen dieser Risiken entwickeln sich weiter und sind eng miteinander verflochten.
Unternehmen benötigen ein Governance-Modell, um ihre Sicherheitsstrategie an KI-Risiken anzupassen. Da KI mehrere Technologie- und Sicherheitsbereiche umfasst – von Data Governance bis Identitäts- und Zugriffsmanagement – stellt dies eine erhebliche Herausforderung dar. Etwa die Hälfte der in Deutschland befragten Führungskräfte gibt zu, dass ihre Organisation weder regelkonforme Governance (52 Prozent) noch interne Richtlinien (48 Prozent) für KI implementiert hat.
Der Rückstand bei der KI-Governance resultiert aus branchenweiten Herausforderungen, die es Führungskräften erschweren, die effektivsten Investitionsbereiche zu identifizieren. KI-Agenten verhalten sich aufgrund ihrer nicht-deterministischen Natur unvorhersehbar – ein Verhalten, das nachweislich bestehende Sicherheitsgrenzen durchbricht. Die Komplexität nimmt mit universellen Protokollen wie Model Context Protocol und Agent2Agent zu, die Datenzugriff vereinfachen und Agenten-Interoperabilität verbessern.
![]()
„Erfolgreich werden weder die Organisationen sein, die KI meiden, noch die, die sie unüberlegt einsetzen. Erfolgreich sind diejenigen, welche Sicherheit von Beginn an in ihre KI-Strategie integrieren.“
Josh Lemos, GitLab
Dennoch dürfen diese Herausforderungen Sicherheitsverantwortliche nicht davon abhalten, KI-Governance zu priorisieren. Wer auf umfassende Best Practices für diese dynamische Technologie wartet, wird kontinuierlich hinterherhinken. Auch Organisationen, die KI-Einführung gänzlich vermeiden, bleiben durch Lieferanten und ungenehmigte KI-Nutzung in ihrer Umgebung Risiken ausgesetzt.
Handlungsfelder für CISOs: Governance systematisch aufbauen
CISOs können mit dem Aufbau einer AI Observability beginnen, mit der sich Agentenverhalten in verschiedenen Umgebungen verfolgen, überprüfen und zuordnen lässt. Hier sind drei konkrete Schritte zur Reduzierung von KI-Risiken und Verbesserung der Governance:
- Identitätsrichtlinien für die Zuordnung von Agentenaktionen: Die Verfolgung und Absicherung nicht-menschlicher Identitäten wird mit der zunehmenden Verbreitung von KI-Systemen genauso wichtig wie die Verwaltung menschlicher Benutzerzugriffe. Composite Identities verknüpfen die Identität eines KI-Agenten mit der des steuernden menschlichen Benutzers. Greift ein KI-Agent auf eine Ressource zu, lässt sich der Agent authentifizieren und autorisieren, während sich die Aktivität eindeutig dem verantwortlichen Benutzer zuordnen lässt.
- Umfassende Monitoring-Frameworks: Betriebs-, Entwicklungs- und Sicherheitsteams benötigen Möglichkeiten zur Überwachung von KI-Agenten-Aktivitäten über mehrere Workflows, Prozesse und Systeme hinweg. Es reicht nicht aus zu wissen, was ein Agent in einer Codebasis tut. Teams müssen seine Aktivitäten in Staging- und Produktionsumgebungen sowie in zugehörigen Datenbanken und allen Anwendungen überwachen können, auf die er zugreift.
- Systematische Weiterbildung technischer Teams: Eine Sicherheitskultur erfordert heute KI-Kompetenz. Laut der oben erwähnten Studie bewerten 88 Prozent der befragten Führungskräfte die Schulung von Mitarbeitern im Umgang mit agentische KI als Priorität, um Qualifikationslücken zu schließen. Diese Lücke wird sich vergrößern, wenn technische Führungskräfte nicht die Weiterbildung ihrer Teams priorisieren – zum Verständnis von Modellverhalten, Prompt Engineering und kritischer Bewertung von Modelleingaben und -ausgaben.
Teams müssen verstehen, wo Modelle leistungsfähig sind und wo ihre Verwendung suboptimal ist, um unnötige Sicherheitsrisiken und technische Schulden zu vermeiden. Ein auf Anti-Patterns trainiertes Modell erkennt diese Muster gut, ist aber gegen Logikfehler, denen es nie begegnet ist, nicht wirksam. Teams sollten sich bewusst sein: Kein Modell ersetzt menschliches Fachwissen. Funktioniert das Modell in einem Bereich suboptimal, mit dem ein Sicherheitsingenieur oder Entwickler weniger vertraut ist, können sie die Sicherheitslücken nicht erkennen, die das Modell hinterlassen hat.
CISOs sollten erwägen, einen Teil des Weiterbildungsbudgets für kontinuierliche technische Fortbildung bereitzustellen. Dies fördert interne KI-Sicherheitskompetenz und ermöglicht es neu ausgebildeten KI-Experten, ihre Kollegen zu schulen und Best Practices zu etablieren.
Sicherheit als Geschäftsvorteil: KI systematisch einsetzen
Bei systematischer Überwachung und richtigem Einsatz bestätigen Führungskräfte, dass KI die Sicherheit verbessert. Mehr als ein Drittel (37 Prozent) der Führungskräfte in Deutschland stuft Sicherheit als einen der wichtigsten Bereiche ein, in denen KI Mehrwert für die Softwareentwicklung bietet.
Als Beschleuniger – nicht als Ersatz für Fachwissen – eingesetzt, kann KI Sicherheitswissen in Entwicklungsteams demokratisieren. Sie automatisiert routinemäßige Sicherheitsaufgaben, liefert intelligente Codierungsempfehlungen und stellt relevante Sicherheitskontexte direkt in Entwickler-Workflows bereit. KI kann beispielsweise Erklärungen für Schwachstellen liefern, sodass Entwickler Probleme schneller beheben können, ohne auf Kontext der Sicherheitsabteilung warten zu müssen. Das Ergebnis: verbesserte Sicherheitsergebnisse, geringere Risiken und besseres Verständnis für die Zusammenarbeit zwischen Entwicklern und Sicherheitskollegen.
Erfolgreich werden weder die Organisationen sein, die KI meiden, noch die, die sie unüberlegt einsetzen. Erfolgreich sind diejenigen, welche Sicherheit von Beginn an in ihre KI-Strategie integrieren. Auch wenn die Grundlagen noch nicht perfekt sind, helfen sie Teams, sich schnell an veränderte Rahmenbedingungen anzupassen. Wenn die befragten Führungskräfte Recht haben, bleiben nur noch drei Jahre für systematische Vorbereitung. Führungskräfte, die ihre Teams zu den richtigen KI-Anwendungsfällen führen, minimieren nicht nur Risiken, sondern verschaffen sich einen Wettbewerbsvorteil. Die Sicherheit Ihrer Software bleibt ein wesentlicher Bestandteil ihrer Qualität.
Über den Autor:
Josh Lemos ist Chief Information Security Officer bei GitLab Inc. und bringt 20 Jahre Erfahrung in der Leitung von Informationssicherheitsteams in seine Rolle ein. Er ist verantwortlich für die Entwicklung und Aufrechterhaltung der Unternehmensvision, -strategie und -programme, um sicherzustellen, dass Informationsressourcen und -technologien angemessen geschützt sind, die GitLab DevSecOps-Plattform zu stärken und ein Höchstmaß an Sicherheit für Kunden zu gewährleisten.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.