sabida - stock.adobe.com

KI vs. Abwehr: Was ist, wenn Angreifer schneller skalieren?

Generative KI hat nicht nur die Erstellung von Inhalten, die Programmierung und die Kundeninteraktion verändert, sondern auch die Dynamik des Cyberrisikos unumkehrbar verschoben.

In Vorstandsetagen in ganz Europa und darüber hinaus stellen sich Sicherheits- und Technologieverantwortliche eine einfache, aber drängende Frage: Haben wir noch die Kontrolle? Die Antwort lautet zunehmend Nein. So autorisierte beispielsweise im Jahr 2024 ein Finanzmitarbeiter eines multinationalen Unternehmens eine Zahlung von 25 Millionen US-Dollar, nachdem er scheinbar einen Videoanruf seines CEOs erhalten hatte. Stimme, Gesicht und Kontext wirkten authentisch, doch es war nicht echt. Es handelte sich um einen Deepfake, eine synthetische, KI-generierte Imitation, die von der Realität nicht zu unterscheiden war. Dieser Vorfall war kein Einzelfall, sondern Teil einer größeren Entwicklung: KI-gestützte Cyberkriminalität skaliert schneller, als herkömmliche Abwehrmaßnahmen reagieren können.

KI ist nicht nur ein weiterer Angriffsvektor. Sie wirkt wie ein Multiplikator, der die Eintrittsbarrieren für Bedrohungsakteure senkt und die Raffinesse, Menge und Erfolgsquote bösartiger Kampagnen erhöht. Die Verteidigungsstrategien müssen sich daher von linearer Verbesserung hin zu exponentieller Resilienz entwickeln.

Generative KI in den Händen von Angreifern

Während KI enormes Potenzial für Innovation und Effizienz bietet, erfolgt ihre Nutzung durch Kriminelle ebenso schnell. Allein in den letzten zwei Jahren meldete IBM X-Force einen Anstieg des weltweiten Phishing-Volumens um 1.000 Prozent, wobei ein Großteil dieses Wachstums auf KI-generierte Inhalte zurückzuführen ist. Angreifer benötigen keine Sprachkenntnisse, keine Expertise im Social Engineering und keine teuren Malware-Kits mehr.

Ein einziges generatives Modell kann innerhalb von Sekunden Tausende maßgeschneiderte Phishing-Nachrichten verfassen, die sogar die interne Unternehmenssprache verwenden. Diese Nachrichten sind oft nicht nur sprachlich fehlerfrei, sondern auch kontextuell intelligent. Sie ahmen den Tonfall von Führungskräften nach, verweisen auf kürzlich stattgefundene Meetings und zielen auf bestimmte Rollen, Regionen oder Zugriffsrechte ab. Das Ergebnis ist eine dramatisch höhere Erfolgsquote und eine deutlich geringere Benutzererkennung.

Doch Phishing ist erst der Anfang. Mithilfe von Voice-Cloning-Technologien werden täuschend echte Audioimitate von Führungskräften erstellt. Deepfake-Videos werden in Echtzeit eingesetzt, um betrügerische Transaktionen zu bestätigen oder Vorstandsentscheidungen zu beeinflussen. KI-generierte Malware wird innerhalb weniger Minuten geschrieben, getestet und wiederverwendet – inklusive Varianten, die signaturbasierte Erkennung umgehen. Kurz gesagt: Die Cyberkriminalität hat sich industrialisiert.

KI als Multiplikator von Bedrohungen

Im Zentrum dieser Entwicklung steht das Konzept der „KI-Verstärkung“, also der vervielfachende Effekt, der eintritt, wenn künstliche Intelligenz auf Cyberangriffe angewandt wird. Was früher ein Team aus Experten wochenlang vorbereitete, kann heute ein einzelner Akteur mit wenigen Befehlen und einem Standardmodell orchestrieren. Aufgaben wie Code-Verschleierung, Schwachstellen-Scanning und Nutzerprofiling werden in einem bisher ungekannten Maß automatisiert. Besonders gefährlich ist die Anpassungsfähigkeit von KI. Im Gegensatz zu statischen Angriffen können sich KI-generierte Bedrohungen während der Ausführung weiterentwickeln. Phishing-Kampagnen lernen aus Nutzerreaktionen. Malware passt ihr Verhalten anhand von Telemetriedaten an. Selbst Fake-Stimmen können im Gespräch Tonfall und Dringlichkeit variieren.

Warum Unternehmen im Wettlauf gegen KI-basierte Cyberangriffe zurückfallen

Trotz wachsender Aufmerksamkeit für Cyberbedrohungen sind viele Unternehmen noch immer nicht ausreichend vorbereitet. Ein zentrales Problem liegt in der Technik: Die meisten Erkennungssysteme sind nicht auf KI-basierte Angriffe ausgelegt. Klassische, signaturbasierte Tools erkennen polymorphe Malware oder KI-gestütztes Phishing kaum. Selbst fortschrittlichere verhaltensbasierte Analysen stoßen an ihre Grenzen, beispielsweise wenn Deepfakes auf scheinbar legitimen Plattformen zum Einsatz kommen. Gleichzeitig sind viele Security Operations Center (SOCs) überlastet. Die Flut an Warnmeldungen, von denen ein großer Teil Fehlalarme sind, bindet wertvolle Ressourcen. In der Folge werden neuartige oder seltene Bedrohungen häufig übersehen. Bisher setzen nur wenige SOCs KI-gestützte Analysen in größerem Umfang ein, um diesem Problem zu begegnen.

Eine zentrale Rolle spielt auch der Fachkräftemangel: Mehr als die Hälfte der CISOs gibt an, dass ihren Teams die nötigen Fähigkeiten fehlen, um KI-basierte Angriffe zu erkennen oder wirksam abzuwehren. Hinzu kommt ein strukturelles Problem: Sicherheitsinvestitionen orientieren sich häufig eher an regulatorischen Vorgaben als an der tatsächlichen Bedrohungslage. Während Unternehmen nur langsam auf Veränderungen reagieren, entwickeln Angreifer ihre Methoden ständig weiter. Das Ergebnis ist ein klarer strategischer Nachteil: Unternehmen passen sich nur schrittweise an, während Cyberkriminelle zunehmend schneller, flexibler und intelligenter agieren.

Gerald Eid, Getronics

„Die Bedrohungslage hat sich durch den Einsatz von KI grundlegend verändert, doch Organisationen haben die Chance, das Gleichgewicht wiederherzustellen. Wer jetzt handelt, technologisch aufrüstet und das Sicherheitsbewusstsein stärkt, kann die Kontrolle zurückgewinnen.“

Gerald Eid, Getronics

Drei aktuelle Bedrohungsszenarien

Drei aktuelle Bedrohungsszenarien zeigen, wie Angreifer KI nutzen. KI-gesteuertes Phishing imitiert die Sprache von Unternehmen perfekt, passt Betreffzeilen und Versandzeitpunkte an und nutzt Meeting-Historien, um E-Mails zu erstellen, die täuschend echt aussehen. Beim Deepfake-Betrug reichen die Fälschungen von Echtzeit-Video- und Audioaufnahmen bis hin zu „Geister-Mitarbeitern“ mit gefälschten Profilen und Lebensläufen, die in Lieferketten oder HR-Prozessen eingesetzt werden. Generative Malware tarnt sich durch dynamische Code-Verschleierung, erkennt Sandboxes und verzögert ihre Ausführung. Gleichzeitig ermöglichen Tools wie WormGPT auch weniger versierten Tätern Angriffe.

Wie Organisationen auf KI-Bedrohungen reagieren können

Die Abwehr von KI-gestützten Cyberangriffen erfordert einen grundlegenden Wandel in Strategie und Technik. Unternehmen müssen auf moderne Erkennungsmethoden setzen, die mithilfe von KI und Verhaltensanalysen auch subtile Anomalien aufdecken. Gleichzeitig ist es entscheidend, die Resilienz durch gezielte Mitarbeiterschulungen zu stärken – insbesondere im Umgang mit Deepfakes und Social Engineering.

Ein Zero-Trust-Ansatz mit Mehrfaktorauthentifizierung, bedingtem Zugriff und Mikrosegmentierung sollte zum Standard gehören. Ergänzend dazu ist eine integrierte Threat Intelligence wichtig, die auch Informationen aus dem Darknet und zu KI-basierten Bedrohungen einbezieht. Die Bedrohungslage hat sich durch den Einsatz von KI grundlegend verändert, doch Organisationen haben die Chance, das Gleichgewicht wiederherzustellen. Wer jetzt handelt, technologisch aufrüstet und das Sicherheitsbewusstsein stärkt, kann die Kontrolle zurückgewinnen.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)