VAlex - stock.adobe.com

Deepfakes, KI, automatisiertes Hacking und die Sicherheit

Neue Technologien sind für Unternehmen häufig mit Vorteilen verbunden, lassen sich aber auch von Cyberkriminellen für deren Zwecke zum Nachteil der Security einsetzen.

Es ist ein ärgerliches Paradoxon, dass neue Cybertechnologien zwar einerseits wertvolle Vorteile bieten, andererseits ihr böswilliger Einsatz etwa in Form von automatisiertem Hacking, Deepfakes und waffenfähiger künstlicher Intelligenz (KI) aber die Security-Landschaft verdunkeln. Kombiniert mit bestehenden Bedrohungen wie Ransomware, Botnets, Phishing und Denial-of-Service-Angriffen erschweren sie Unternehmen, ihre Informationssicherheit aufrechtzuerhalten.

Diese Herausforderung wächst stetig, da immer mehr Endgeräte und Systeme mit dem Internet vernetzt sind. Gleichzeitig erzeugen diese Geräte riesige Datenmengen, die gesichert werden müssen. Auch neuere Technologien wie das Internet der Dinge (Internet of Things / IoT) und 5G setzen sich vermehrt durch. Die Demokratisierung leistungsfähiger Computing-Technologien wie verteilte Systeme (oder Distributed Computing) und die Public Cloud verschärfen das Problem zusätzlich.

Tatsächlich können Cyberbedrohungen zu einer großen, dauerhaften Bedrohung für die Welt werden, so eine Aussage des World Economic Forum. Dass die Bedrohung real ist, zeigt auch die Gründung der Joint Cybercrime Action Taskforce, der Strafverfolgungsbehörde der Europäischen Union (EU) Europol. Die Taskforce soll die grenzüberschreitende Zusammenarbeit zur Bekämpfung der Cyberkriminalität von 16 EU-Mitgliedsländern – sowie weiterer Staaten wie den USA, Kanada und Australien – erleichtern.

Im Rahmen einer Studie von Forrester gaben 88 Prozent der Befragten an, den offensiven Einsatz von KI als unvermeidlich anzusehen. Dabei erwartet fast die Hälfte der Studienteilnehmer KI-basierte Angriffe innerhalb des nächsten Jahres. Mit KI-gestützten Angriffen in Reichweite wird es laut der Studie „entscheidend sein, KI als Kraftverstärker einzusetzen“.

Automatisiertes Hacking

Die zunehmende Automatisierung bietet signifikante Vorteile wie Geschwindigkeit, Präzision und Entlastung von monotonen und/oder repetitiven Aufgaben. Doch nicht nur die Wirtschaft profitiert von dieser Effizienz: Automatisiertes Hacking oder Hacking im industriellen Maßstab – dabei werden automatisch mehrere Angriffsversuche initiiert – führen zu massiven finanziellen Verlusten und können die Reputation eines Unternehmens zerstören. Die Angriffe sind vollständig automatisiert – von der Erkundung bis zur Angriffsorchestrierung – und lassen sich so schnell ausführen, dass den Organisationen nur wenig Zeit bleibt, sie zu erkennen und entsprechend zu reagieren.

Hier werden mit automatisierten Open-Source-Tools schnell öffentlich verfügbare Informationen von Unternehmenswebseiten und sozialen Medien gesammelt. Mithilfe der Daten erstellen Hacker überzeugende Profile, die dann wiederum als Ausgangspunkt für Angriffe genutzt werden können.

Firmen implementieren automatisierte Tools, die explorative Hackerangriffe aufdecken und ihren digitalen Fußabdruck in der Cyberlandschaft sichern. Um automatisierte Hackerattacken durch die Verteilung über unterschiedliche IP-Adressen und Geo-Standorte zu entschärfen und abzuwehren, müssen Organisationen proaktiv vorgehen.

Dazu gehört einschließlich des Einsatzes von Täuschungsmanövern, zählt fast alles, um automatisierte Hackerangriffe durch die Verteilung von Angriffen mit unterschiedlichen IP-Adressen und Geostandorten zu entschärfen und abzuwehren – mithilfe dieser Methode entwickeln Hacker fortschrittliche und ausgeklügelte Angriffstaktiken und nutzen die Potenziale der Cloud, ohne dabei ihre eigene Identität zu verraten.

Deepfakes

Deepfakes sind eine Mischung aus Deep Learning und Fakes. Darüber hinaus resultieren sie aus einer Art missbräuchlichen Nutzung von Machine Learning (ML, maschinelles Lernen) und KI. Dabei nutzt die Technologie Ähnlichkeiten in Fotos, Audio- und Videodateien, um synthetische Fotos, Audio- und Video-Files zu erstellen. Die „gefälschten“ Daten werden dann genutzt, um sich für eine andere Person auszugeben und dadurch Dritte zu bedrohen, falsch zu informieren, zu diffamieren oder zu erpressen. Deepfakes sind zudem überzeugender als Shallowfakes – die mit Morphing begannen –, die Motive sind aber ähnlich.

Ein Beispiel: Im Jahr 2019 wurde ein britisches Energieunternehmen mit einem Audio-Deepfake betrogen, bevor die Führungsebene Verdacht schöpfte und weitere Betrugsversuche blockierte. Oftmals legen Firmen nicht offen, dass sie betrogen wurden – und verschleiern damit die Verbreitung von Deepfakes.

Vishal Salvi, Infosys

„Eine Kombination aus IT-Hygiene, Autorisierung und Authentifizierung sowie einheitliche Sichtbarkeit und Kontrolle digitaler Assets ist eine gute Verteidigungsstrategie gegen Cyberbedrohungen.“

Vishal Salvi, Infosys

Automatisierte Sicherheits-Tools und -produkte mit KI, insbesondere in forensischer Software, können diese erkennen und abwehren. Zusammen mit Security-Protokollen und Mitarbeiterschulungen sind dies gängige Schutzmaßnahmen gegen Deepfakes, die über soziale Medien eine große Reichweite erlangen.

KI als Waffe für Hacker

KI wird immer häufiger auch als Cyberwaffe eingesetzt. Dabei handelt es sich um den missbräuchlichen Einsatz der Technologie. Damit lassen sich neue Angriffe extrem schnell realisieren und die Zeit, diese Attacken zu verhindern und zu kontern, wird immer geringer

Als Cyberwaffe eingesetzt, sucht KI selbstständig nach Schwachstellen in Systemen und Netzwerken. Sie nutzt versteckten Schadcode oder „intelligente“ Malware, um sich unbemerkt innerhalb des Netzwerks zu bewegen, wird zu bestimmten Zeiten ausgeführt oder erwirbt Systemwissen, um Angriffe entsprechend zu variieren.

Diese Art der KI kann legitimen Datenverkehr generieren und Systeme im Netzwerk eines Unternehmens stören. Sie lernt selbständig, um Sicherheitskontrollen zu umgehen. Darüber hinaus kommt oftmals sogenanntes KI- oder ML-Poisoning – also, quasi eine „Vergiftung“ der Technologie – zum Einsatz. Damit wird gutartiges Verhalten vorgetäuscht, während gleichzeitig bösartige Codes freigesetzt werden. Die künstliche Intelligenz lernt, warum frühere Angriffe erfolglos waren oder wie sich KI-basierte Überwachungslösungen umgehen lassen. Darüber hinaus finden sie heraus, wann Netzwerke am anfälligsten für Angriffe sind.

Der Einsatz von KI zur Abwehr von Cyberangriffen liegt in der Modellierung und Kontrolle des Nutzerverhaltens. Auf diese Weise werden Abweichungen in der automatisierten Netzwerküberwachung und -analyse sowie im Einsatz von KI-gestützten Lösungen zur Anomalie-Erkennung identifiziert. Um KI-basierte Angriffe abwehren zu können, müssen Organisationen wissen, wie diese Angriffe funktionieren – keine leichte Aufgabe angesichts des Mangels an geschultem Personal in solchen Techniken oder in KI selbst.

Eine Kombination aus IT-Hygiene, Autorisierung und Authentifizierung sowie einheitliche Sichtbarkeit und Kontrolle digitaler Assets ist jedoch eine gute Verteidigungsstrategie gegen Cyberbedrohungen. Um einen minimalen digitalen Fußabdruck zu hinterlassen, sollten nur notwendige Netzwerk-Assets verwendet und der Rest gehärtet werden. Eine kontinuierliche Netzwerküberwachung hilft ebenfalls. Durch den Einsatz von KI werden Angriffe immer raffinierter. Der Kampf gegen Cyberkriminelle bedeutet, dass Unternehmen in KI-basierte Lösungen und Produkte investieren müssen, um Angriffe möglichst schnell und effizient zu erkennen und zu vereiteln.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Bedrohungen

ComputerWeekly.de
Close