AlienCat - stock.adobe.com

Künstliche Intelligenz und maschinelles Lernen härten

Mit dem Einsatz von KI und maschinellem Lernen vergrößern Unternehmen ihre Angriffsfläche. Dem Thema Sicherheit wird dabei noch nicht ausreichend Aufmerksamkeit geschenkt.

Künstliche Intelligenz und maschinelles Lernen sind angesagte Themen in der Technologiebranche, insbesondere da ChatGPT und andere generative KI die Schlagzeilen beherrschen. Es ist also keine Überraschung, dass KI und maschinelles Lernen auf der RSA Conference im April 2023 eine wichtige Rolle spielten.

Eine Session mit dem Titel „Hardening AI/ML Systems -- The Next Frontier of Cybersecurity“ (Absicherung von KI/ML-Systemen - die nächste Ebene der Cybersicherheit) bot eine Podiumsdiskussion darüber, warum es jetzt an der Zeit ist, KI und ML vor böswilligen Akteuren zu schützen.

Moderator Bryan Vorndran, stellvertretender Direktor der Cyberabteilung des FBI, erklärte, dass Unternehmen, die KI und ML in ihre Kerngeschäftsfunktionen integrieren, ihre Angriffsfläche vergrößern. „Angriffe können in jeder Phase der KI- und ML-Entwicklungs- und Einsatzzyklen erfolgen“, sagte er. „Modelle, Trainingsdaten und APIs können angegriffen werden.“

Dabei sei ein großes Problem, dass der Schutz von KI und maschinellem Lernen vor Angriffen nicht im Fokus der Entwicklerteams stehe.

„Es ist sehr wichtig, dass jeder, der über die interne Entwicklung, Beschaffung oder Einführung von KI-Systemen nachdenkt, dies mit einer zusätzlichen Ebene der Risikominderung oder des Risikomanagements tut“, sagte Bob Lawton, Leiter der Einsatzfähigkeit im Büro des Direktors der nationalen Geheimdienste.

Zudem arbeite die Security-Branche immer noch daran, herauszufinden, wie man künstliche Intelligenz und maschinelles Lernen am besten absichern kann.

Aktuelle Angriffe sind nicht besonders raffiniert

Aktuelle KI-Angriffe sind nicht übermäßig komplex, waren sich die Teilnehmer einig. Christina Liaghati, Manager of AI Strategy Execution and Operations bei Mitre, und Neil Serebryany, CEO von CalypsoAI, erklärten, dass die meisten Angriffe heute nicht viel mehr sind als böswillige Akteure, die an KI- und ML-Systemen herumstochern, bis diese Fehler machen.

Die chinesische Steuerbehörde wurde beispielsweise Opfer eines Angriffs, bei dem böswillige Akteure Gesichtserkennungsmodelle ausnutzten, um fast 77 Millionen Dollar zu stehlen. Die Angreifer nutzten hochauflösende Bilder von Gesichtern, die sie auf dem Schwarzmarkt gekauft hatten, sowie künstliche Intelligenz, um Videos zu erstellen, die den Anschein erweckten, dass die Fotos blinzeln und sich bewegen, um die Gesichtserkennungssoftware zu täuschen.

KI-Angriffe werden sich aber weiterentwickeln, warnte Liaghati. Angesichts des anhaltenden Erfolgs von Angriffen auf niedriger Ebene hätten die Angreifer jedoch noch keinen Grund, sich weiterzuentwickeln. Sobald die Cybersicherheitsbranche beginnt, angemessene KI-Sicherheitsverfahren zu implementieren, werde sich dies jedoch ändern.

Wie man KI- und ML-Angriffe abwehrt

KI-Angriffe werden sich nie ganz verhindern lassen, aber ihre Auswirkungen können abgemildert werden. Serebryany schlug vor, zunächst einfachere Modelle zu verwenden. Wenn man beispielsweise ein lineares Regressionsmodell anstelle eines neuronalen Netzes verwenden könne, sollte man dies tun. „Je kleiner das Modell, desto kleiner die Angriffsfläche. Je kleiner die Angriffsfläche ist, desto einfacher ist es, sie zu sichern“, sagte er.

Darüber hinaus sollten Unternehmen über eine Datenhistorie verfügen und die Daten verstehen, die sie zum Trainieren der KI- und ML-Modelle verwenden. Außerdem sollten sie in Tools und Produkte investieren, um die KI- und ML-Modelle zu testen und zu überwachen, während diese in der Produktion eingesetzt werden.

Abschwächungs- und Härtungstechniken müssen laut Liaghati nicht einmal besonders ausgeklügelt sein oder unabhängig von normalen Security-Maßnahmen durchgeführt werden. Sie schlug vor, dass Unternehmen über die Menge an Informationen nachdenken sollten, die sie über die für KI und ML verwendeten Modelle und Daten öffentlich zugänglich machen. Wenn Sie nicht offenlegen, was Sie tun, so Liaghati, wird es für böswillige Akteure schwieriger zu wissen, wie sie Ihre KI- und ML-Modelle überhaupt angreifen können.

KI- und ML-Angriffe stehen erst am Anfang

KI-Angriffe stünden erst am Anfang, betonte das Expertengremium. „Wir sind uns der Tatsache bewusst, dass es eine Bedrohung gibt, und wir sehen erste Anzeichen dafür. Aber die Bedrohung ist noch nicht voll ausgeprägt“, sagte Serebryany. „Wir haben die einmalige Gelegenheit, uns auf den Aufbau von Schutzmaßnahmen und einer Kultur des Verständnisses für die nächste Generation der gegnerischen ML-Risiken zu konzentrieren.“

Während Angreifer herausfinden, wie sie KI und maschinelles Lernen ausnutzen können, überlegen sich Unternehmen, welche Vor- und Nachteile der Einsatz von KI und ML in ihren täglichen Abläufen mit sich bringt und wie sie diese absichern können. Das Gremium empfiehlt Unternehmen, Zeit damit zu investieren, sich über potenzielle Cybersicherheitsprobleme im Zusammenhang mit ihrer spezifischen Nutzung der Technologien zu informieren. Ist dies geklärt, können Unternehmen Strategien erarbeiten, wie sie die Sicherheitsrisiken angehen wollen.

Die IT-Gemeinschaft sollte auch proaktiv sein und diesbezüglich Partnerschaften aufbauen. Lawton sprach über die Zusammenarbeit der Regierungen und der Nachrichtendienste bei der Cybersicherheit von KI und maschinellem Lernen. Ziel ist es, ein Netzwerk von Entwicklern und Praktikern aufzubauen, um KI- und ML-Sicherheitsfähigkeiten eher früher als später zu entwickeln.

Erfahren Sie mehr über Bedrohungen

ComputerWeekly.de
Close