sabida - stock.adobe.com

Wie der Einsatz von KI die Sicherheit beeinflusst

Der Einsatz von KI bietet die Chance auf Unterstützung von IT-Teams durch Entlastung. Zeitgleich sorgt die KI-Nutzung für massive Herausforderungen bei Sicherheit und Datenschutz.

In vielen Unternehmensbereichen kommen KI und große Sprachmodelle ganz selbstverständlich zum Einsatz. Gerade auch in der IT-Sicherheit, kann die Technologie den Sicherheitsteams doch ganz trefflich unter die Arme greifen. Aber Datenschutz-Verantwortliche wie Security-Experten haben aus gutem Grund zwiespältige Gefühle beim flächendeckenden Einsatz von LLMs sowie zunehmend auch KI-Agenten im gesamten Unternehmen und allen Abteilungen. Denn mit dem Einsatz der Technologien gehen eine Reihe von Veränderungen in Bezug auf Risiken einher. Und die unterscheiden sich teils signifikant von traditionellen Risiken, denn es geht nicht immer prinzipiell um Code und Technik an sich.

CyberArk hat in seinem 2025 Identity Security Landscape Report einmal näher untersucht, welche Herausforderungen unter anderem beim Thema KI auf Unternehmen und IT-Abteilungen in Sachen Sicherheit existieren. Wir haben einige der Ergebnisse, auch im Hinblick auf deutsche Unternehmen, zusammengefasst.

Problematische Schatten-KI

Wenn der Belegschaft von der IT-Abteilungen nicht die Werkzeuge zur Verfügung gestellt werden, mit denen diese ihre Tätigkeit nach ihren Vorstellungen ausüben können, finden entsprechende Lösungen den Weg in den alltäglichen Einsatz. Das ist kein neues Phänomen, bekommt mit generativer KI aber nochmal ein neues Risikopotenzial. Statt Schatten-IT spricht man von Schatten-KI, wenn sich Mitarbeitende LLMs und KI-Tools zuwenden, die nicht offiziell von der IT genehmigt und eingeführt wurden.

So spielt sich der Einsatz von KI vielerorts ganz selbstverständlich außerhalb der Obhut von IT- und Sicherheitsteams ab. So würden 42 Prozent der deutschen Befragten KI-Anwendungen, Modelle oder KI-gestützte Funktionen ohne offizielle Genehmigung nutzen.

Immerhin sind sich 82 Prozent der Befragten der Studie bewusst, dass durch die KI- und LLM-Nutzung ein erhebliches Risiko auch in Bezug auf sensible Daten entsteht. Und das kann schon bei der Nutzung von genehmigten Tools nicht immer unproblematisch sein. Hinzu kommen die Risiken durch nicht sanktionierte Werkzeuge. Von den deutschen Befragten der Studie gehen 58 Prozent davon aus, dass die Unternehmen verwendeten KI-Tools genehmigt wurden. Weltweit liegt dieser Wert bei 64 Prozent. Aber man ist sich diesbezüglichen Wahrnehmungslücken offensichtlich durchaus bewusst. So geben 66 Prozent der deutschen Befragten an, dass ihr Unternehmen nicht in der Lage sei, alle Schatten-KI-Tools zu verwalten und zu sichern.

Das könne unter anderem daran liegen, dass die Nutzung mancher KI-Funktionalität nicht immer leicht aufzuspüren ist. Und so können personenbezogene oder andere sensible Daten durch Mitarbeitende an einen KI-Dienst übermittelt werden, ohne das dies wirklich transparent ist. Dies erhöht das Risiko für Datenabfluss und Compliance-Verstöße.

KI-Agenten: Herausforderer der Sicherheit

Ging man bisher davon aus, dass die Prinzipien „Security by Design“ und „Security by Default“ ganz gute Ideen seien und hierüber Konsens herrsche, scheint dies beim Thema KI-Agenten nur so begrenzt Eingang gefunden haben. Die je nach Ausprägung recht autonom agierenden Modelle schaffen für den Bereich Sicherheit ein neues Maß an Komplexität.

KI-Agenten benötigen, um ihre Aufgaben erfüllen zu können, eine Identität und entsprechende Berechtigungen, um sich gegenüber Systemen, Anwendungen und anderen Agenten authentifizieren zu können. Nun sind ja die Sicherung und solide Verwaltung von Identitäten an sich schon keine kleine Aufgabe, aber mit dem Einsatz von KI-Agenten stellen sich da für IT-Teams noch einmal komplett neue Herausforderungen, auf die man vorbereitet sein muss. Die Identitäten von KI-Agenten konfrontieren IT-Teams mit Risiken, die bereits von anderen Maschinenidentitäten bekannt sind. Aber es gibt eine weitere Herausforderung: KI-Agenten könnten auf Modellebene manipuliert werden. Dies kann nicht nur dazu genutzt werden, um unberechtigt Daten weiterzugeben.

Daher würde die Angriffsfläche von KI-Agenten drei Bereiche umfassen:

  • Die Infrastrukturebene, die sich auf die Anmeldedaten des KI-Agenten bezieht für das System, auf dem er ausgeführt wird.
  • Die Zugriffsebene, in der die Berechtigungen des KI-Agenten eine Rolle spielen.
  • Die Modellebene, auf der sich die KI manipulieren lässt.

Bei der augenscheinlichen Euphorie hinsichtlich des Einsatzes von KI-Agenten scheinen diese Risiken manchmal in den Hintergrund zu treten. Im Report sind sich 57 Prozent der deutschen Befragten bewusst, dass sich durch einen unautorisierten Zugriff das Verhalten des KI-Agenten beeinflussen ließe. Lediglich 45 Prozent der hiesigen Befragten geben an, dass sie sich im Klaren sind, dass KI-Agenten Zugriff auf sensible Daten und Ressourcen haben. Und 45 Prozent geben an, dass dies Auswirkungen auf die Resilienz des Unternehmens habe.

Unternehmen werden nicht umhinkommen, dem Thema der Sicherheit der nicht-menschlichen Identitäten eine andere Aufmerksamkeit als bisher zu schenken. Insbesondere angesichts der Dynamik mit der KI-Agenten agieren können (und sollen), und welche Folgen dies haben kann.

Zur Methodik des CyberArk 2025 Identity Security Landscape Report: Hierfür wurden Anfang des Jahres 2025 insgesamt 2600 Entscheidungsträger im Bereich Cybersicherheit in zahlreichen Ländern befragt. Wir beziehen uns entweder auf die Ergebnisse der deutschen Befragten (wenn genannt) oder auf die Gesamtergebnisse.

Erfahren Sie mehr über Datensicherheit