VAlex - stock.adobe.com

Generative KI und Deepfakes: Der Bedrohung richtig begegnen

Die Bedrohungslage für Unternehmen verschärft sich durch immer raffiniertere Deepfakes. Entsprechend aufmerksam müssen die Anwender gegenüber möglichen Täuschungsversuchen sein.

Generative KI wird immer leistungsfähiger bei der Erstellung von Fälschungen, die realistisch klingen und aussehen können. Infolgedessen haben einige der raffinierteren Kriminellen Social-Engineering-Angriffe auf eine noch bedrohlichere Stufe gehoben.

In ihren frühen Entwicklungsstadien war die Deepfake-KI in der Lage, ein allgemeines Abbild einer Person zu erzeugen. In jüngster Zeit haben Deepfakes synthetische Stimmen und Videos von bestimmten Personen verwendet, um Cyberangriffe zu starten, Fake News zu erstellen und den Ruf zu schädigen.

Wie die KI-Deepfake-Technologie funktioniert

Deepfakes nutzen Deep-Learning-Techniken wie ein Generative Adversarial Network (GAN), um eine echte Person digital zu verändern und zu simulieren. Zu den Beispielen gehören die Nachahmung von Anweisungen einer Führungskraft an Mitarbeiter, die Erstellung einer gefälschten Nachricht an eine Familie in Not und die Verbreitung falscher, peinlicher Fotos von Personen.

Derartige Fälle häufen sich, da die Fälschungen immer realistischer und schwieriger zu erkennen sind. Außerdem lassen sie sich dank der Verbesserung von Tools, die für legitime Zwecke entwickelt wurden, leichter erzeugen. Microsoft hat beispielsweise einen Sprachübersetzungsdienst eingeführt, der die Stimme eines Menschen in einer anderen Sprache nachahmt. Eine große Sorge ist jedoch, dass diese Tools es den Tätern auch leichter machen, den Geschäftsbetrieb zu stören.

Glücklicherweise werden auch die Instrumente zur Erkennung von Fälschungen immer besser. Deepfake-Detektoren können nach verräterischen biometrischen Merkmalen in einem Video suchen. Beispielsweise nach dem Puls einer Person oder einer Stimme, die von menschlichen Stimmorganen und nicht von einem Synthesizer erzeugt wird. Ironischerweise könnten die Tools, die heute zum Trainieren und Verbessern dieser Detektoren verwendet werden, irgendwann auch zum Trainieren der nächsten Generation von Deepfakes eingesetzt werden.

Laut Robert Scalise, Global Managing Partner of Risk and Cyber Strategy bei Tata Consultancy Services (TCS), lassen sich Deepfake-Angriffe in vier allgemeine Kategorien einteilen:

  • Fehlinformation und Desinformation.
  • Verletzung von geistigem Eigentum.
  • Verleumdung.
  • Pornographie.

Beispiele für Deepfake-Angriffe

Der erste ernsthafte Deepfake-Angriff ereignete sich 2019, so Oded Vanunu, Leiter der Produktschwachstellenforschung beim IT-Sicherheitsanbieter Check Point Software Technologies. Hacker täuschten die telefonische Anfrage eines Geschäftsführers vor, was zu einer Überweisung von 243.000 US-Dollar führte. Dieser Vorfall zwang Finanzinstitute dazu, wachsamer zu sein und größere Vorsichtsmaßnahmen zu treffen, während die Hacker immer raffinierter vorgehen.

Im Jahr 2021 brachten Kriminelle einen Bankangestellten dazu, ganze 35 Millionen Dollar auf ein betrügerisches Bankkonto zu überweisen. „Die Kriminellen wussten, dass das Unternehmen kurz vor einer Übernahme stand und eine Überweisung veranlassen musste, um das andere Unternehmen zu kaufen“, so Gregory Hatcher, Gründer der Cybersecurity-Beratung White Knight Labs. „Die Kriminellen haben den Angriff perfekt getimt, und der Bankmanager hat die Gelder überwiesen“.

Die neueste Generation von Bots nutzt die Deepfake-Technologie, um sich der Erkennung zu entziehen, so Sam Crowther, Gründer und CEO des Anbieters von Software zum Schutz und zur Eindämmung von Bots, Kasada. „Deepfakes werden in Kombination mit Bots zu einer zunehmenden Bedrohung für unsere sozialen, wirtschaftlichen und politischen Systeme“, erklärte er. „Dank der jüngsten Fortschritte in der künstlichen Intelligenz und der bösartigen Automatisierung sind Deepfakes realistischer und zugänglicher und verbreiten Desinformationen in einem bisher unvorstellbaren Ausmaß.“ Die pro-chinesische Propagandaorganisation Spamouflage beispielsweise nutzt Bots, um gefälschte Konten zu erstellen, Deepfake-Videos zu verbreiten und Desinformationen über Social-Media-Plattformen zu verbreiten.

„Deepfake-Angriffe sind nicht länger eine hypothetische Bedrohung. Die Unternehmen müssen sich jetzt mit ihnen befassen“, warnt Bence Jendruszak, COO beim Anbieter von Betrugspräventionstools Seon Technologies. „Das bedeutet, dass die Mitarbeiter darüber aufgeklärt werden müssen, worauf sie zu achten haben, und dass sie generell über die Verbreitung von Deepfake-Angriffen aufgeklärt werden müssen.“

Bewährte Verfahren zur Erkennung von Deepfake-Technologie

Früher konnten die meisten Online-Video- und Audioinhalte als echt akzeptiert werden. Heute nicht mehr. Heute ist die Erkennung von Fälschungen eine Kombination aus Kunst und Wissenschaft.

Es ist möglich, dass Menschen unregelmäßige Stimmlagen oder unrealistische Schatten um die Augen einer KI-generierten Person erkennen, so Jendruszak. „Ich glaube, dass die große Mehrheit der Deepfakes immer noch das Gefühl hinterlässt, dass etwas nicht stimmt, und das liegt daran, dass es Fehler im Prozess gibt, die Spuren hinterlassen“, fügte er hinzu.

Es gibt mehrere verräterische Anzeichen, anhand derer Menschen echte von gefälschten Bildern unterscheiden können, darunter die folgenden:

  • Unregelmäßigkeiten der Haut und der Körperteile.
  • Schattierungen um die Augen.
  • Ungewöhnliche blinkende Muster.
  • Ungewöhnliche Spiegelungen auf Brillengläsern.
  • Unrealistische Bewegungen des Mundes.
  • Unnatürliche Lippenfärbung im Vergleich zum Gesicht.
  • Gesichtshaare, die nicht zum Gesicht passen.
  • Unrealistische Muttermale im Gesicht.

In der Vergangenheit war es einfacher, Fälschungen in Videos zu erkennen - Veränderungen im Hautton, ungewöhnliche Blinzelmuster oder ruckartige Bewegungen, so Sandy Fliderman, Präsident, CTO und Gründer des Finanzinfrastrukturdienstleisters Industry FinTech. „Aber die Technologie ist heute viel besser geworden, und viele dieser alten Erkennungsmerkmale gibt es heute nicht mehr.“ Heute können verräterische Anzeichen in Form von Anomalien bei der Beleuchtung und Schattierung auftreten, die die Deepfake-Technologie erst noch perfektionieren muss.

Es könnte hilfreich sein, eine forensische Analyse durchzuführen, schlägtVanunu vor, indem die Metadaten der Video- oder Audiodatei untersucht werden, um Manipulationen oder Veränderungen festzustellen. Spezialisierte Software kann auch für die umgekehrte Bildsuche verwendet werden, um visuell ähnliche Bilder zu entdecken, die in anderen Zusammenhängen verwendet werden. Darüber hinaus setzen Unternehmen zunehmend synthetische 3D-Daten ein, um anspruchsvollere Modelle zur Gesichtsverifizierung zu entwickeln, die 3D-, Multisensor- und dynamische Gesichtsdaten zur Erkennung der Lebendigkeit nutzen, so Yashar Behzadi, CEO und Gründer des Anbieters der synthetischen Datenplattform Synthesis AI.

Was Audio-Deepfakes betrifft, so empfiehlt Hatcher, dass verräterische Anzeichen in abgehackten Sätzen, einer seltsamen Wortwahl und einem abnormalen Tonfall des Sprechers zu finden sind.

Neue Normungsgremien wie die Coalition for Content Provenance and Authenticity (C2PA) schaffen technische Standards für die Überprüfung von Herkunft, Historie und Ursprung von Inhalten. Die C2PA fördert die Zusammenarbeit der Branche mit Unternehmen wie Adobe, ARM,  Intel, Microsoft und Truepic. Adobe und Microsoft arbeiten auch an Content Credentials, mit deren Hilfe die Authentizität von Bildern und Videos überprüft werden kann.

Starke Sicherheitsverfahren einführen

Die Verhinderung des durch Deepfake-Angriffe verursachten Schadens sollte Teil der Sicherheitsstrategie eines Unternehmens sein. Organisationen können sich am Zero Trust Maturity Model der CISA orientieren, um die Risiken durch Deepfakes einzudämmen.

Um sich vor Spoofing-Angriffen zu schützen, können Unternehmen folgendes tun:

  • Entwickeln Sie ein mehrstufiges Authentifizierungsverfahren, das mündliche und interne Genehmigungssysteme umfasst.
  • Ändern Sie Prozesse, indem Sie nachvollziehen, wie Hacker Deepfakes verwenden, um in Sicherheitssysteme einzudringen.
  • Festlegung von Richtlinien und Verfahren auf der Grundlage von Industrienormen und neuen Standards.
  • Sich über die neuesten Tools und Technologien auf dem Laufenden halten, um immer raffiniertere Deepfakes zu vereiteln.

Die Zukunft der Deepfake-Angriffe

Als natürliche Erweiterung von Ransomware als Service (Ransomware as a Service, RaaS) ist mit der Verbreitung von Deepfakes als Service zu rechnen, die auf neuronaler Netzwerktechnologie basieren und es jedem ermöglichen, ein Video von jedem zu erstellen. „Angesichts dieser wahrscheinlichen Verbreitung“, warnte Scalise, „müssen sowohl der öffentliche als auch der private Sektor zusammenarbeiten und wachsam bleiben. Das Ziel wird sein, ... das Vertrauen der Nutzer in private und kommerzielle Online-Interaktionen zu erhalten und die Authentizität des sozialen Engagements im Allgemeinen zu fördern.“

Deepfake-Angriffe entwickeln sich im Gleichschritt mit neuen Technologien, die zu ihrer Erkennung entwickelt wurden. „Die Zukunft von Deepfake-Angriffen ist schwer vorherzusagen, aber es ist wahrscheinlich, dass sie aufgrund des Fortschritts der künstlichen Intelligenz immer häufiger und raffinierter werden“, so Vanunu abschließend. „Da die Technologie, die hinter Deepfakes steckt, immer besser wird, wird es für Angreifer einfacher werden, überzeugende Deepfakes zu erstellen, was es schwieriger macht, sie zu erkennen.“

Erfahren Sie mehr über Bedrohungen

ComputerWeekly.de
Close