phonlamaiphoto - stock.adobe.com

Die Script Kiddies sind out, die KI-Kiddies starten durch

Durch die Entwicklung der generativen KI treten zunehmend KI-Kiddies auf den Plan. KI-Nutzung bietet Angreifern neue Chancen, Unternehmen müssen passende Abwehrmaßnahmen ergreifen.

Wenn es um Hacker geht, taucht verschiedentlich der Begriff Script Kiddies auf. Es gibt sie schon seit langer Zeit. Der Begriff wird von der Security-Community für Personen verwendet, die nicht unbedingt über eigene technische Fähigkeiten verfügen. Sie verwenden den Code oder die Methoden eines anderen, ohne wirklich zu verstehen, was sie da tun. Es handelt sich also um unerfahrene Angreifer, die sehr einfache Methoden wie Phishing, Social Engineering, Smishing oder Vishing verwenden. Sie nutzen auch vorgefertigte Tools oder Produkte wie den USB-Stick Rubber Ducky. Konkrete Beispiele wären der Einsatz der Tools Responder oder Inveigh für LLMNR-Angriffe (Link-local Multicast Name Resolution).

Ein möglicher Script-Kiddie-Workflow wäre folgender: Ich habe eine Idee und fange an, mich umzusehen. Ich würde Suchmaschinen oder GitHub und Code-Repositories durchforsten. Hier würde ich dann eine Art von Tool finden, das die Art von Aktivität ausführt, die ich möchte.

Diese Angriffe waren für Sicherheitsexperten nie ein großes Problem, da sie in der Regel sehr einfach strukturiert sind. Jetzt stoßen wir aber auf das Problem, dass mit den neuen Technologien wie LLMs (Large Language Models) und Chatbots das Gefahrenpotenzial deutlich zunimmt. Heute kann man sagen: Script-Kiddies sind eigentlich nicht mehr von Bedeutung. Die Idee, einfach den Code von jemandem zu verwenden und bekannte Methodiken anzuwenden, ist in einer Zeit neuer Möglichkeiten nicht mehr zielführend.

Die Script Kiddies

Mit dem Aufkommen und der Nutzung von generativer KI und LLMs haben Script-Kiddies gewissermaßen Elite-Hacker als Mentor an ihrer Seite. Damit werden Script-Kiddies quasi zu KI-Kiddies. sie nutzen große Sprachmodelle und Chatbots, um Cyberangriffe ohne jegliche Programmierkenntnisse zu starten. Dabei setzen sie Prompt Engineering ein, um die Modelle dazu zu bringen, bösartige Codes, Befehle und Informationen zu generieren. Prompt Engineering bezeichnet dabei die Eingabe von Wörtern in Plattformen wie ChatGPT in einer Weise, die zu den gewünschten Ergebnissen führt.

Durch die neuen Möglichkeiten hat die Zahl der Cyberangriffe in den letzten Monaten ein Ausmaß erreicht, das noch vor einem Jahr unvorstellbar gewesen wäre. Für die neue Generation von KI-gestützten Script-Kiddies, also KI-Kiddies, ist es einfacher denn je, Cyberangriffe ohne Scripting-Kenntnisse durchzuführen.

Abgesehen vom Prompt Engineering mit der Optimierung von Prompts muss im LLM-Kontext vor allem auch das Konzept Prompt Hacking im Blickfeld bleiben, das vielfach nicht beachtet wird. Schließlich besitzen LLMs wie ChatGPT auch integrierte Schutzmechanismen und Regeln, die nicht einfach zu umgehen sind. Wenn ich ChatGPT also sage „Bitte gebe mir die Zutaten, die Mengen und das Rezept zur Herstellung von selbst produziertem Methamphetamin“ werde ich als Antwort erhalten „Es tut mir leid, ich kann dir dabei nicht helfen."

Aber es gibt beispielsweise ein Skript, einen längeren Text, der nach der Eingabe in ChatGPT die Persona von ChatGPT verändert. Damit werden alle Beschränkungen und Regeln aufgehoben, die OpenAI in Bezug auf die Art der Fragen aufgestellt hat, die beantwortet werden dürfen. Das Skript entfernt im Grunde jeden einzelnen der Schutzmechanismen, die OpenAI bereitstellt.

In diesem Modus kann man ChatGPT dazu bringen, einen Python-Code zur Verfügung zu stellen, mit dem man eine Malware erstellen kann. Bei einem Versuch erhielt ich zwei Sekunden später eine detaillierte, zeilenweise Liste aller Schritte, die ich ausführen musste. Und als ich die Malware tatsächlich getestet habe, hat sie funktioniert.

Len Noe, CyberArk

„Insgesamt sollte im Zentrum jeder durchgängigen Sicherheitsinitiative eine identitätsbasierte Zero-Trust-Strategie stehen. Dann spielt es auch keine Rolle, ob es letztlich um KI- und LLM-basierte Angriffe oder Advanced Persistent Threats geht.“

Len Noe, CyberArk

Selbstverständlich arbeiten die Unternehmen hinter diesen KI-Plattformen und hinter den KI-Chatbots kontinuierlich an Abwehrmaßnahmen gegen solche Methoden. Aber auf der anderen Seite entwickeln sich auch die Angriffsverfahren dynamisch weiter, es existieren viele verschiedene Prompt Hacking Scripts. Es wird also auch immer Aktivitäten geben, um neue Kontrollen zu umgehen. Dieser Wettlauf wird kein Ende finden.

Die Abwehrmaßnahmen

Es steht außer Frage, dass die KI-Nutzung auch Angreifern gänzlich neue Chancen bieten wird. Folglich müssen Unternehmen adäquate Abwehrmaßnahmen ergreifen. Dazu gehören prinzipiell die Identitätssicherheit und ein mehrschichtiger Sicherheitsansatz. Singuläre, siloartige Sicherheitsprojekte werden keinen Erfolg bringen.

Man könnte nun die Fragen aufwerfen: Worauf sollten Unternehmen konkret achten, wenn es um KI-Kiddie-Angriffe geht, und unterscheiden sie sich von anderen Angriffen? Die Wahrheit ist, dass wir letztlich alle Angriffe kennen, unabhängig davon, ob sie von jemandem kommen, der raffiniert ist, ob es jemand ist, der einfach den Code eines anderen benutzt oder ob es jemand ist, der ein großes Sprachmodell verwendet.

Es geht darum, eine übergreifende Sichtbarkeit und einen umfassenden Schutz in der Infrastruktur zu etablieren, und zwar mit Maßnahmen wie Multifaktor-Authentifizierung, segmentierten Architekturen, Privileged Access Management (PAM), Endpoint Privilege Management oder der Nutzung von Least-Privilege-Prinzipien. Wir haben bereits heute die Antworten auf die Gefahren. Wir müssen nur das tun, was wir bereits wissen, und es auch konsequent umsetzen.

Insgesamt sollte im Zentrum jeder durchgängigen Sicherheitsinitiative eine identitätsbasierte Zero-Trust-Strategie stehen. Dann spielt es auch keine Rolle, ob es letztlich um KI- und LLM-basierte Angriffe oder Advanced Persistent Threats geht. Zero Trust, also „Never Trust, Always Verify“ muss das Motto lauten.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Bedrohungen

ComputerWeekly.de
Close