
Rsquare stock - stock.adobe.com
Der planlose Einsatz von KI-Agenten als Sicherheitsrisiko
Die Vision von selbststeuernden Workflows wird mit KI-Agenten immer mehr zur Realität. Bei aller Euphorie sollen Verantwortliche nicht vergessen, Sicherheit zu integrieren.
LLMs und Generative Modelle zählen zu den KI-Systemen, die in vielen Unternehmen zum Alltag geworden sind: Mitarbeitende kennen ihren Nutzen und das Management die potenziellen Risiken, die mit ihrem Einsatz verbunden sind. Anders sieht die Situation bei KI-Agenten aus. Hinter dieser Bezeichnung verbergen sich autonom agierende Softwaremodelle, die mit Künstlicher Intelligenz vordefinierte Aufgaben erledigen. Anstelle von menschlichen Nutzern beantworten KI-Agenten datenbasierte Anfragen –wie beispielsweise die Prognose von Nachfrageschwankungen im Vertrieb oder die frühzeitige Erkennung von Schadsoftware im Kundenmanagement.
Um diese definierten Aufgaben schnell und datenbasiert bearbeiten zu können, sind KI-Agenten darauf angewiesen, tief in die bestehende IT-Architektur integriert zu werden. Schließlich müssen sie abteilungsübergreifend Schnittstellen überwachen, auf Datenbanken zu greifen und Programme steuern. Der große Vorteil von KI-Agenten gegenüber Softwareanwendungen, die nicht KI-basiert sind, liegt in ihrem Lernverhalten. Mit jedem Einsatzfall verbessert das Modell sein Know-how und kann dadurch seine Aufgaben besser erledigen. Dieses Potenzial haben viele IT-Verantwortliche erkannt, weshalb die Verbreitung von KI-Agenten geradezu exponentiell zunimmt. Aktuelle Studien prognostizieren, dass das Marktvolumen für KI-Agenten in den nächsten Jahren um fast 50 Prozent pro Jahr wachsen wird.
Sicherheitsrisiken für das IAM
Gerade aufgrund dieser großen Euphorie am Markt muss Entscheidern bewusst sein, dass der planlose Einsatz von KI-Agenten große Sicherheitsrisiken birgt. Der Grund liegt darin, dass KI-Agenten zwar menschliche Aufgaben übernehmen, sich dabei jedoch wie KI-Modelle verhalten. Genau diese Diskrepanz bringt viele der eingesetzten IAM-Lösungen an ihre Grenzen. Sie können nicht zwischen rechtmäßigen Zugriffen durch gute KI-Agenten und böswilliger Schadsoftware unterscheiden. Ohne passendes Training des IAM führt diese Situation dazu, dass KI-Agenten entweder nicht arbeitsfähig sind oder Blankorisiken für Hacker entstehen.
Es gilt deshalb ohne Ausnahme, dass IAM-Systeme auf den Einsatz von KI-Agenten vorbereitet werden müssen. Das gelingt nur, wenn sie als integraler Bestandteil der Sicherheitsarchitektur betrachtet werden. Denn die Anforderungen einer Zero-Trust-Architektur und der planlose Einsatz von KI-Agenten sind nicht miteinander kompatibel.
Identifikation von schadhaften KI-Agenten
Auch Hacker haben das Potenzial von schadhaften KI-Agenten mittlerweile für sich erkannt. Sie nutzen unzureichend geschützte IAM-Systeme, um sich mit KI-Agenten als legitime Nutzer auszugeben oder um gefälschte Anmeldedaten zu generieren. Nur mit einem adaptiven Sicherheitsverständnis und einer agilen Eskalationsmatrix können sich IAM gegen diese Infiltrierung wehren, beispielsweise indem sie automatisiert das Authentifizierungsniveau anheben (Step-Up-Authentifizierung). Das ist auch aus Perspektive der Kundenzufriedenheit elementar, schließlich haben fast 90 Prozent der Verbraucher Angst vor KI-gestützten Angriffen auf ihre digitale Identität – so die Verbraucherumfrage 2024 von Ping Identity.
Für die Identifikation von schadhaften Agenten müssen IAM-Lösungen deren Eigenheiten kennen. KI-Agenten agieren deutlich dynamischer und unvorhersehbarer als menschliche Nutzer und verursachen dadurch einige Herausforderungen. Sie verfügen über komplexe Identitätsbeziehungen zu vielen IT-Systemen und oft umfangreiche Provisionierungen, was Angreifern im Falle eines erfolgreichen Zugriffs die horizontale Bewegung im Netzwerk ermöglicht. Zudem agieren sie ohne Zeit- und Ortsbeschränkungen und erfordern damit ein kontinuierliches und agiles Identitätsmanagement. Nicht zuletzt stellt auch die Governance eine Herausforderung dar: Unternehmen müssen sicherstellen, dass KI-Entscheidungen jederzeit nachvollziehbar, erklärbar und gesetzeskonform sind.
![]()
„Für die Identifikation von schadhaften Agenten müssen IAM-Lösungen deren Eigenheiten kennen. KI-Agenten agieren deutlich dynamischer und unvorhersehbarer als menschliche Nutzer und verursachen dadurch einige Herausforderungen.“
Dirk Decker, Ping Identity
Strategien für die Agentenverwaltung
Wie können IT-Verantwortliche also eine IAM-Strategie implementieren, die die Risiken bei der Authentifizierung begrenzt und zudem ein transparentes Monitoring sicherstellt? Hierfür empfiehlt es sich eine Strategie zu entwickeln, die auf vier Säulen fußt.
- KI-Benutzerverwaltung: Ebenso wie es ein Identitätsmanagement für alle menschlichen Nutzer in der Unternehmens-IT gibt, müssen auch KI-Agenten verwaltet werden. Dazu zählen etwa die Definition von Benutzerrechten und das Monitoring des Nutzerverhaltens – letzteres ist gerade beim Einsatz von KI-Agenten in kritischer Infrastruktur von Bedeutung.
- Adaptive Richtlinien: Ein statisches Login-System mit einfacher Authentifizierung kann weder für menschliche User noch für KI-Agenten einen sicheren Zugang gewährleisten. Mit adaptiven Zugriffsrichtlinien, die kontextbasiert agieren und im Zweifelsfall eine Just-in-Time-Autorisierung einfordern, lassen sich Blankovollmachten vermeiden. Dadurch erhalten KI-Agenten nur die Zugriffsrechte, die sie in der jeweiligen Situation benötigen.
- Verifizierungsverfahren: Da KI-Agenten keine „klassische“ Multi-Faktor-Authentifizierung durchführen, sollten menschliche Nutzer für die Erteilung kurzfristiger Berechtigungen eingebunden werden (Device Authorization Flows). Als Ergänzung ermöglicht ein Echtzeit-Monitoring die fortlaufende Bewertung von Risikolagen.
- Echtzeit-Monitoring: Mit einem System zum Echtzeit-Monitoring können SOC-Teams bestehende Sicherheitslücken schließen und sicherstellen, dass die KI-Agenten innerhalb der definierten Aufgaben und gesetzlichen Anforderungen unterwegs sind. Abweichungen vom „normalen“ Verhalten lassen sich so schnell erkennen und Gegenmaßnahmen einleiten. Und auch wenn die allgemeine Sicherheitslage sich verändert, lässt sich das im IAM-System abbilden.
KI-gesteuerte Workflows
Um Befürchtungen rund um den KI-Einsatz zu reduzieren und die Chancen von KI-Workflows zu nutzen, müssen sich IT-Verantwortliche mit ihren IAM-Systemen auseinandersetzen. Sie sind entscheidend dafür, dass KI-Agenten zu einem integralen Bestand in der Sicherheitsarchitektur werden können. Erst dann können Unternehmen das volle KI-Potenzial nutzen, ohne Kompromisse bei Sicherheit, Compliance und Kontrolle eingehen zu müssen.
Über den Autor:
Dirk Decker ist Regional Sales Director DACH & EMEA South bei Ping Identity.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.