VAlex - stock.adobe.com

Ist generative KI eine Sicherheitsbedrohung für Unternehmen?

Generative KI kann sowohl von Security-Teams für die Verteidigung genutzt werden, als auch von Cyberkriminellen für Angriffe. Daher muss die Betrachtung differenziert erfolgen.

Künstliche Intelligenz (KI) ist aktuell in aller Munde – doch neben Neugier und Interesse an dieser Technologie wachsen auch die Ängste und Sorgen. Das zeigt der erst kürzlich veröffentlichte Brief des Future of Life Instituts, in dem gefordert wird, die KI-Forschung für mindestens sechs Monate zu pausieren. Doch wie real ist die Bedrohung wirklich? Und welche Risiken birgt KI im Hinblick auf die Cybersicherheit?

Derzeit kommt KI in den unterschiedlichsten Branchen zum Einsatz. Zu den führenden Wirtschaftssektoren bei der Einführung von künstlicher Intelligenz (PDF) gehören Finanzdienstleister, Automobilindustrie sowie Fertigung und Telekommunikation, wo etwa 30 Prozent der Unternehmen eine oder mehrere KI-Technologien einsetzen. Dagegen ist die Reise- und Tourismusbranche mit einem Anteil von rund 12 Prozent in diesem Bereich weniger fortgeschritten.

Die grundsätzliche Gefahr durch KI: KI verstehen, um sie richtig einzusetzen

KI treibt den Wandel in vielen Branchen voran und bietet durch ihre zunehmende Komplexität großes Potenzial für weitere Veränderungen – eine Entwicklung, die bei vielen Arbeitnehmerinnen und Arbeitnehmern Angst vor Ersetzbarkeit auslöst. In Branchen, in denen Inhalte durch KI erstellt werden können, sind diese Entwicklungen bereits sichtbar.

Künstliche Intelligenz ist real und es ist nur eine Frage der Zeit, bis neue Anwendungsmöglichkeiten entdeckt werden. Wie bei jeder neuen Technologie muss die Industrie sie erst besser verstehen, um Wege für ihren angemessenen Einsatz zu finden. Die Angst vor Substitution und Ersetzung ist nicht neu – ähnliche Befürchtungen gab es ebenfalls bei der Einführung von Fließbändern und Robotern in der Fertigung. Allerdings gibt es einen grundlegenden Unterschied zwischen der KI und früheren technologischen Innovationen: ihre Anpassungsfähigkeit. Diese bringt eine Unberechenbarkeit mit sich, die vielen Menschen Sorgen bereitet.

Generative KI wird immer ausgereifter und komplexer, sodass eine Unterscheidung zwischen Mensch und KI immer schwieriger wird. Aktuelle Versionen der generativen KI haben bereits bewiesen, dass sie den Turing-Test bestehen können, das heißt die Fähigkeit einer KI, einem Menschen vorzutäuschen, sie sei ein Mensch.

Was tun, wenn Menschliches nicht mehr vom Künstlichen zu unterscheiden ist? Wie können wir Identitäten oder Daten vertrauen? Dies erfordert eine Zero-Trust-Mentalität, bei der alle Nutzer authentifiziert, autorisiert und kontinuierlich validiert werden müssen. Es bleibt abzuwarten, wie und in welchem Tempo sich die KI weiterentwickeln wird. In der Zwischenzeit gibt es jedoch einige aktuelle und potenzielle Auswirkungen, die im Hinblick auf die Cybersicherheit zu berücksichtigen sind.

Cyberangriffe skalieren

Es ist nicht lange her, als wir mit KI-generierter Kunst konfrontiert wurden. Schon damals waren die Reaktionen sehr unterschiedlich – die Künstler waren aufgebracht, während viele Menschen KI in der Kunst als hilfreich empfanden, indem sie wiederholende Aufgaben übernimmt. So könnte beispielsweise ein Designer KI einsetzen, um ein erstelltes Muster zu wiederholen und so das Ausfüllen der restlichen Grafiken zu beschleunigen. Doch genau dieses Prinzip können Hacker jetzt auch bei der Durchführung von Cyberangriffen nutzen.

Arno Edelmann, Verizon Business

„Entwickler von generativer KI müssen die Parameter ständig überprüfen, um sicherzustellen, dass keine neuen Schwachstellen ausgenutzt werden – die Dynamik der KI erfordert demnach ständige Wachsamkeit.“

Arno Edelmann, Verizon Business

Die meisten Hackerangriffe werden manuell durchgeführt, was bedeutet, dass für groß angelegte Cyberangriffe eine Vielzahl von Akteuren erforderlich ist. Angreifer können KI nutzen, um die monotonen, zeitaufwendigen Elemente des Angriffs, wie das Sammeln von Daten über ein Ziel, zu reduzieren. Insbesondere nationale Akteure stellen eine große Bedrohung dar, da sie ihre Angriffe ausweiten können, indem sie ihre Ressourcen nutzen, um in hoch entwickelte KI zu investieren. Dies würde es Cyberkriminellen ermöglichen, mehr Ziele gleichzeitig anzugreifen und so die Chancen zu erhöhen, Schwachstellen zu finden und auszunutzen.

Cyberkriminelle und generative KI

Cyberkriminelle können die generative Künstliche Intelligenz anweisen, einen schädlichen Code oder Phishing-Betrug zu erstellen. Auch wenn die Entwickler zwar behaupten, dass die KI nicht auf bösartige Anfragen reagiert, so können Angreifer dennoch indirekte Wege finden, der KI den Code zu entlocken. Entwickler von generativer KI müssen die Parameter ständig überprüfen, um sicherzustellen, dass keine neuen Schwachstellen ausgenutzt werden – die Dynamik der KI erfordert demnach ständige Wachsamkeit.

Hacker können KI verwenden, um Sicherheitslücken auszunutzen, die durch menschliches Versagen verursacht werden. Die Fähigkeit der der künstlichen Intelligenz, natürliche Sprache zu verarbeiten, kann Social-Engineering-Versuche erheblich vereinfachen.

KI als Werkzeug: Verteidigung gegen generative KI

Während viele schnell auf die potenziellen Risiken der generativen KI hinweisen, ist es ebenso wichtig, das menschliche Element zu berücksichtigen, das unmittelbar mit dieser Technologie verbunden ist: Sicherheitsverantwortliche können diese Technologie als Verteidigungsmechanismus einsetzen, ebenso wie Cyberkriminelle sie für einen Angriff nutzen können.

Laut dem aktuellen Data Breach Investigations Report 2023 (DBIR) ist der Mensch eine der größten Risiken, wenn es um die Sicherheit bei Unternehmen geht. Das Öffnen einer Phishing-Mail, die Verwendung gestohlener Zugangsdaten oder auch einfach das menschliche Versagen – Menschen sind anfällig für Social-Engineering-Taktiken, die generative KI unter der Kontrolle von Angreifern massenhaft einsetzen kann. Diese Fähigkeit, ausgeklügelte digitale Tricks durchzuführen, gefährdet Bürger, Verbraucher und Unternehmen. Weiter verschärft wird die Bedrohung durch die sich verändernden Arbeitsbedingungen. Der Wechsel zwischen Homeoffice und der Arbeit im Büro erschwert die Verwaltung der Zugangsdaten. Zusätzlich stellt der ständige Wechsel zwischen beruflichen und privaten Geräten ein hohes Sicherheitsrisiko dar.

Das Szenario einer weit verbreiteten Bedrohung stärkt die Argumente für Zero Trust, das einen „Never Trust, Always Verify“-Ansatz für die Cybersicherheit verfolgt. Dabei handelt es sich um ein Modell, das die Tatsache anerkennt, dass Sicherheitsbedrohungen von überall herkommen können, sogar innerhalb eines Unternehmens. Ein Zero-Trust-Ansatz erfordert nicht nur eine strenge Authentifizierung der Nutzerinnen und Nutzer, sondern wendet das gleiche Maß an Differenzierung für Anwendungen und Infrastruktur, einschließlich der Lieferkette, der Cloud, Switches und Router.

Während der Aufbau von Zero-Trust-Architekturen und entsprechenden Technologien einen enormen Aufwand erfordern, könnte KI diesen Prozess erheblich vereinfachen. Mit anderen Worten: Die Technologie, die das Potenzial hat, eine expansive Bedrohung zu schaffen, kann auch die Implementierung umfassender Sicherheitsprotokolle rationalisieren, die zur Abwehr solcher Angriffe erforderlich sind.

KI ist „out of the box“

Fakt ist: Man kann KI nicht in eine Schublade stecken. Sie ist ein Werkzeug, und wie jedes Werkzeug kann es produktiv oder destruktiv eingesetzt werden. Wir müssen diese generative KI zu unserem Vorteil nutzen und gleichzeitig antizipieren, wie sich Cyberkriminelle die Technologie zunutze machen könnten.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Bedrohungen

ComputerWeekly.de
Close