phonlamaiphoto - stock.adobe.com

Risiko KI: Firmen müssen ihre Cybersicherheit verstärken

Unternehmen sollten dringend ihren Schutz vor Cyberangriffen optimieren, denn mit der Verbreitung von künstlicher Intelligenz steigt das Risiko schwerer wirtschaftlicher Schäden.

Grund dafür ist die Achillesferse der KI-Systeme. Sie motivieren kreative Cyberkriminelle, immer gefährlichere Angriffsarten und -methoden zu entwickeln. Wie die aktuelle Bitkom-Studie aus 1.000 befragten Unternehmen in Deutschland ermittelte, verursachte die Cyberkriminalität im vergangenen Jahr einen Schaden von 206 Milliarden Euro. Jetzt rächt sich, dass viele Betriebe jahrelang ihre Sicherheit vernachlässigt haben. 62 Prozent erwarten eine große Bedrohung durch analoge und digitale Attacken. Über die Hälfte (52 Prozent) der Firmen sieht ihre Existenz durch Cyberangriffe gefährdet. Ein Rekordwert. Und die Furcht vor Angriffen ist durchaus gerechtfertigt.

Die Marktforscher von IDC gehen davon aus, dass Unternehmen bis 2027 weltweit etwa 143 Milliarden Dollar in generative KI investieren. Das beweist das große Vertrauen in die Technologie. Gefahren durch die rasante Entwicklung von KI drohen dennoch, denn die Entscheidungen der Systeme werden von ungeschützten Algorithmen und Lerndaten getroffen. Je mehr und intensiver Unternehmen und Behörden KI einsetzen, desto häufiger sehen sie sich durch immer effektivere Methoden in ihrer Cybersicherheit bedroht.

KI-Entscheidungen sind manipulierbar

KI-Systeme können anhand von Algorithmen große Datenmengen in Bruchteilen von Sekunden analysieren. Basierend auf wiederholtem maschinellem Lernen und Berechnen treffen sie eigene Entscheidungen. Als von Menschen programmiertes Werkzeug urteilt die künstliche Intelligenz dabei allerdings rational, ohne eigene ethische Prinzipien. Diese stammen ausnahmslos von Menschen, die sie entwickeln und einsetzen. Sie kann demnach nicht intrinsisch zwischen „gut“ und „schlecht“ unterscheiden. Jeder Algorithmus lässt sich täuschen. Wollen Kriminelle ihn dazu bringen, falsche Schlussfolgerungen zu ziehen, können sie entweder die implementierten Trainingsdaten manipulieren oder von außen gezielt falsche Daten eingeben.

Das Täuschen von Algorithmen birgt vielfältige Gefahren

Anhand gezielt manipulierter Algorithmen lassen sich zahlreiche illegale Ziele verfolgen. Die Täuschung des Suchalgorithmus von Google beispielsweise beeinflusst die Einstufung des Rankings von Websites. Wird der Algorithmus entschlüsselt und eine Website dadurch höher gelistet, verschafft das dem Unternehmen einen wettbewerbsverzerrenden wirtschaftlichen Vorteil. Gravierendere Folgen hat das Hacken von Algorithmen gerade im Bereich des autonomen Fahrens. Angreifer könnten schlimmstenfalls die Kontrolle über ein Auto übernehmen und so das Leben der Insassen oder anderer Verkehrsteilnehmer massiv gefährden.

Angriffe lassen sich nur schwer erkennen

Nicht nur Algorithmen bieten Schwachstellen und Angriffsflächen. Indem Cyberkriminelle Trainingsdaten manipulieren, auf denen das maschinelle Lernen basiert, können sie das Lernverhalten der KI-Systeme beeinflussen und so Fehlfunktionen oder Ausfälle verursachen.

Wolfgang Kurz, indevis

„Nicht nur Algorithmen bieten Schwachstellen und Angriffsflächen. Indem Cyberkriminelle Trainingsdaten manipulieren, auf denen das maschinelle Lernen basiert, können sie das Lernverhalten der KI-Systeme beeinflussen und so Fehlfunktionen oder Ausfälle verursachen.“

Wolfgang Kurz, indevis

Um Muster festzustellen und aus diesen Zusammenhänge abzuleiten, richtet sich der Algorithmus während des Lernens ständig neu aus. Neben den ursprünglichen Trainingsdaten und weiteren Benutzereingaben wird dabei auch auf solche Daten zugegriffen, die für jedermann zugänglich sind, beispielsweise aus dem Internet. Dieser Umstand erschwert es Nutzern und Administratoren, Verstöße gegen den Datenschutz rechtzeitig zu bemerken und entsprechend zu reagieren.

Der unerlaubte Zugriff auf Trainingsdaten der KI ermöglicht Angreifern zudem, Daten aus dem KI-Modell zu extrahieren und daraus Rückschlüsse auf deren Quelle zu ziehen. Auf diesem Wege entstehen nicht nur datenschutzrechtliche, sondern auch sicherheitsrelevante Vergehen. Immer wieder gibt es Beispiele dafür, wie leicht sich die Fingerabdrucksensoren in Smartphones und anderen Geräten infiltrieren lassen. Warum sollte es sich bei dem biometrischen Zugang zum Rechner eines Fluglotsen anders verhalten?

Awareness für Angriffe auf KI steigern

KI wird vorausgesagt, in Zukunft die Geschicke der Menschheit maßgeblich zu bestimmen. Dass deutsche Unternehmen so hohe Summen für sie mobilisieren, beweist das unerschütterliche Vertrauen in ihre Möglichkeiten. Gleichzeitig sind sie den Bedrohungen nahezu schutzlos ausgeliefert, die sie entweder ignorieren oder bagatellisieren.

Zuerst sollten Firmen daher für die vielfältigen Gefahren und deren schwerwiegenden Folgen ein Bewusstsein entwickeln. Danach müssen sie sich fragen, ob ihre KI ausreichend geschützt ist und wer sie schützt. Dafür sollten Unternehmen möglichst zeitnah Schwächen analysieren und Sicherheitskonzepte entwickeln. Lösungen könnten beispielsweise ein Algorithmus oder eine Software sein, die eine kriminelle Einflussnahme sofort feststellt und abwehrt. Verharren Firmen jedoch weiter in ihrer Lethargie, drohen ihnen in Zukunft existenzgefährdende Angriffe auf ihre Cybersicherheit. Um das zu verhindern, sollten sie jetzt den Schutz ihrer KI-Systeme verstärken.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

 

Erfahren Sie mehr über Bedrohungen

ComputerWeekly.de
Close