vchalup - stock.adobe.com

Die Rolle der KI für Maschinenidentitäten

Ob für Phishing, Deepfakes, Reverse Engineering oder das Schreiben von Code. Kriminelle setzen KI auf vielfältige Weise ein, um ihre Taktiken und Cyberangriffe zu optimieren.

Die beeindruckende Entwicklung der generativen künstlichen Intelligenz hat weltweit großes Interesse geweckt. Die Einsatzmöglichkeiten dieser Technologie, um das persönliche und geschäftliche Leben zu optimieren, scheinen schier grenzenlos zu sein. Viele Menschen setzen KI bereits erfolgreich ein, um Prozesse zu automatisieren, Inhalte zu erstellen und sogar Code zu schreiben. Allerdings, wie es in der Technologiewelt üblich ist, verwenden auch Personen mit böswilligen Absichten KI für illegitime Zwecke.

Eine kürzlich durchgeführte Studie von Sapio Research ergab, dass 75 Prozent der Sicherheitsexperten eine Zunahme von Cyberangriffen verzeichnen, wovon 85 Prozent diese auf „böse Akteure, die generative KI einsetzen“ zurückführen.

Bedrohungsakteure nutzen KI in verschiedenen Taktiken, um Cyberangriffe mit den folgenden acht Taktiken zu optimieren:

  • KI-gestützte Erkundung
  • Gezielte Spear-Phishing-Angriffe
  • Verwendung generativer KI zum Schreiben von Schadcode
  • Reverse Engineering bestehender Programme
  • Einschleusen falscher oder schädlicher Inhalte in ansonsten legitime Modelle
  • Umgehung von CAPTCHA-Tools, umgekehrte Psychologie und Jailbreaking

Normalerweise erfolgt die Untersuchung möglicher Angriffsziele manuell. Künstliche Intelligenz automatisiert diesen Prozess und ermöglicht eine rasche Sammlung von Informationen aus öffentlichen Webquellen. Durch KI kann all diese Daten in kurzer Zeit zusammengestellt werden, sodass Bedrohungsakteure sie nicht kaufen oder selbst mühsam zusammentragen müssen. Stattdessen haben sie mehr Zeit und Energie zur Verfügung, um effektivere Malware zu entwickeln oder weitere Angriffe durchzuführen.

Gezielte Spear-Phishing-Angriffe

Mithilfe von KI können Bedrohungsakteure personalisierte E-Mail-Texte erstellen, die nur schwer von legitimen E-Mails zu unterscheiden sind. Dies steigert die Erfolgschancen von Spear-Phishing-Angriffen, vereinfacht sie und macht sie für Angreifer erheblich kostengünstiger. In Kombination mit Informationen aus einem Leak können betrügerische Rechnungen erstellt werden. Beispielsweise von Hotels, die selbst vom Support des Reisebuchungsservices nicht identifiziert werden können, wie es ein Kollege von mir leider erst kürzlich erleben musste.

Deepfakes

Durch KI können Hacker überzeugende Deepfakes erstellen, indem sie die Stimme und das Gesicht einer anderen Person nachahmen. Dies ermöglicht es, Opfer zu täuschen und finanzielle Schäden anzurichten oder politische Interessen zu vertreten.

Fälschungen von Fotos und Filmmaterial

Fälschungen von politischen Persönlichkeiten oder Prominenten in Fotos oder Videos können Unruhen und Fehlinformationen verbreiten.

Gefälschte Profile in sozialen Medien

Bedrohungsakteure setzen KI ein, um gefälschte Social-Media-Profile zu erstellen und ihr Netzwerk zu vergrößern, um potenzielle Opfer zu identifizieren. Es existieren bereits mehrere speziell für diesen Zweck entwickelte KI-Tools, darunter WormGPT, FraudGPT, DarkBERT und DarkBART. Ähnlich wie vorgefertigte Ransomware-as-a-Service-Kits den Arbeitsaufwand von Bedrohungsakteuren erleichtern, agiert KI nun als eine Art Handlanger.

Da 88 Prozent der Verstöße gegen die Cybersicherheit durch menschliches Versagen verursacht werden, sind Schulungen zum Thema Cybersicherheit, die auch Informationen über KI-gestützte Phishing-Bedrohungen enthalten, ein wichtiges Element der Sicherheitsstrategie Ihres Unternehmens.

Generative KI zum Schreiben bösartiger Codes

KI kann verwendet werden, um bösartigen Code zu generieren und sogar polymorphe Malware zu entwickeln, die sich anpassen kann. Das kann wiederum die Arbeit von Antivirensystemen von Unternehmen erschweren.

Unabhängig davon, welchen Code die KI für diese Bedrohungsakteure generiert, ist es für Unternehmen wichtig, ihre Systeme regelmäßig zu aktualisieren, um sich vor Malware zu schützen. Dafür ist es wichtig, sichere Code-Signierungsvorgänge zu implementieren, um zu verhindern, dass nicht autorisierter Code oder KI-bezogene APIs überhaupt auf Ihren Systemen ausgeführt werden.

Künstliche Intelligenz vereinfacht das Reverse Engineering von Code und unterstützt Bedrohungsakteure dabei, Muster und Schwachstellen zu identifizieren, um sich auf zukünftige Angriffe vorzubereiten. Die Manipulation von LLMs (Large Language Model) durch das Einspeisen von vergifteten Daten stellt eine Gefahr für die Zuverlässigkeit der Modelle dar. Um sich gegen diese Bedrohungen zu verteidigen, sind regelmäßige Schulungen und sichere Code-Signierungsvorgänge erforderlich. Dabei ist es entscheidend, sich bewusst zu sein, welche Eingaben Nutzer in das KI-System einbringen. Wenn sie geschützte Informationen oder andere sensible Daten verwenden, kann es sein, dass diese in der Konversation eines anderen Nutzers auftauchen. 

Jens Sabitzer, Venafi

„Es ist offensichtlich, dass Bedrohungsakteure KI auf unterschiedliche Weisen einsetzen, und dies stellt eine erhebliche Belastung für Information-Security-Teams dar.“

Jens Sabitzer, Venafi

Umgehung von CAPTCHA-Tools, umgekehrte Psychologie und Jailbreaking

CAPTCHAs sind zwar lästig, jedoch gibt es bisher keine wirklich gute Alternative. Daher werden sie weiterhin auf Millionen von Websites eingesetzt. In Zukunft könnten jedoch Technologien wie ChatGPT in der Lage sein, „CAPTCHA-Rätsel“ zu lösen. Das erhöht die Anfälligkeit von Websites, die auf Anti-Bot-Technologien setzen, da Bots, die die Rätsel lösen können, leicht verfügbar sind.

Generative KIs wie ChatGPT verfügen über umfangreiche Schutzmechanismen, um Benutzer vor bestimmten Arten von Informationen zu schützen. Bedrohungsakteure nutzen umgekehrte Psychologie, um Antworten zu erhalten. Bedrohungsakteure umgehen Einschränkungen von Chatbots wie ChatGPT und der ChatGPT-API, indem sie sie jailbreaken oder modifizieren. Einige stehlen diese Konten sogar, um sie im Dark Web zu verkaufen.

Die Auswirkungen des Einsatzes von KI durch Bedrohungsakteure: Dauerstress und Burnout bei Information Security-Teams

Es ist offensichtlich, dass Bedrohungsakteure KI auf unterschiedliche Weisen einsetzen, und dies stellt eine erhebliche Belastung für Information-Security-Teams dar. Laut einer Umfrage von Deep Instinct denken 51 Prozent der Sicherheitsexperten darüber nach, ihren Job im kommenden Jahr aufzugeben. Mit der fortschreitenden Entwicklung von KI wird das Problem des anhaltenden Stresses im Sicherheitssektor voraussichtlich weiter zunehmen. Trotzdem sollten nicht nur die negativen Aspekte betrachtet werden. Sicherheitsteams können diese KI-Tools auf vielfältige Weise nutzen, um Echtzeitschutz und Warnungen, Überwachung, Analyse sowie ein tieferes Verständnis der sich entwickelnden Bedrohungslandschaft zu gewährleisten.

Fazit

Die Antwort auf diese Frage hängt von der jeweiligen Perspektive ab. KI kann einen tiefgreifenden Einfluss auf unsere Gesellschaft haben. Unternehmen müssen die Kontrolle über generative KI behalten. Darüber hinaus sollten sie über einen „Kill Switch“ für KI-Technologien nachdenken, insbesondere angesichts des technologischen Fortschritts in Richtung künstlicher allgemeiner Intelligenz (AGI, Artificial General Intelligence), bei der KI menschliche Funktionen wie Denken, Planen und Problemlösen nachahmen kann.

Wünschenswert ist, Maschinen vertrauenswürdig zu halten und vor Angriffen zu schützen, damit die Daten sicher bleiben. Dies beginnt mit der Basis, insbesondere der Authentizität der Maschinenidentitäten. Das Ergebnis dieser Bemühungen ermöglicht dem Unternehmen die volle Nutzung von Next-Generation-Technologien wie Cloud-nativ, KI und Quantencomputing, während gleichzeitig die Sicherheit jeder Maschine im Unternehmen gewährleistet ist. Jede Maschinenidentität wird überprüft und als vertrauenswürdig bestätigt, um die Sicherheit der Daten zu gewährleisten.

Über den Autor:
Jens Sabitzer ist Manager Solution Architect Central Europe bei Venafi.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Identity and Access Management (IAM)

ComputerWeekly.de
Close