peopleimages.com - stock.adobe.c

MLSecOps: Brückenschlag zwischen Security und KI

Die KI-Sicherheit zu verbessern ist ein Ziel von MLSecOps. Dies durch Automatisierung von Kontrollen, bessere Zusammenarbeit der Teams und frühzeitige Behebung von Schwachstellen.

Security-Teams wissen, dass die Absicherung einer Organisation keineswegs eine eindimensionale Aufgabe ist: Sicherheitsverantwortliche können sich nicht immer gleichermaßen auf jeden Teil des Unternehmens konzentrieren – das ist schlichtweg unmöglich.

Dies ist aus vielen Gründen normal und natürlich. Manchmal sind Security-Teammitglieder mit einem Bereich besser vertraut als mit anderen. Verglichen mit traditioneller IT rücken sind operative Technologieumgebungen (OT) wie industrielle Steuerungssysteme, medizintechnische Geräte oder IP-vernetzte Laboreinheiten möglicherweise weniger im Fokus. In anderen Fällen kann die Aufmerksamkeit zielgerichtet sein – beispielsweise, wenn ein Bereich akute Risiken aufweist, die sofortige Aufmerksamkeit erfordern.

Solche Verschiebungen der Aufmerksamkeit sind nicht unbedingt ein Problem. Das Problem entsteht vielmehr später, wenn – aus welchen Gründen auch immer – Teile der Umgebung zu keinem Zeitpunkt die Aufmerksamkeit und Fokussierung erhalten, die sie benötigen. Leider kommt dies auf der technischen Seite der KI-Systementwicklung immer häufiger vor.

Konkret bedeutet dies, dass immer mehr Unternehmen entweder Machine-Learning-Modelle (ML) trainieren, große Sprachmodelle (LLMs) feinabstimmen oder KI-fähige Agenten in ihre Arbeitsabläufe integrieren.

Die IT-Sicherheit hinkt dieser Entwicklung deutlich hinterher. Die meisten Sicherheitsteams sind mit der Entwicklung von KI-Modellen und ML kaum vertraut. Als Disziplin müssen wir uns neu ausrichten. Wenn die Daten stimmen und wir uns auf eine Welt zubewegen, in der eine deutliche Mehrheit der Unternehmen ihre eigenen Modelle trainieren oder optimieren könnte, müssen wir bereit sein, uns daran zu beteiligen und diese Modelle zu sichern.

Hier kommt MLSecOps ins Spiel. Kurz gesagt versucht MLSecOps, Sicherheit auf MLOps zu übertragen, genauso wie DevSecOps Sicherheit auf DevOps überträgt.

In der freien Wildbahn sind längst eine steigende Anzahl von KI-spezifischen Angriffen und Schwachstellen zu beobachten. Um diesen Risiken wirksam zu begegnen, ist es notwendig zeitnah zu handeln und Sicherheit aktiv anzugehen. Die Situation weist Parallelen zur Anwendungssicherheit auf. Ebenso wie bei der Softwareentwicklung muss auch die KI-Entwicklung in die Security-Programme von Unternehmen einbezogen werden. Die Methoden hierfür befinden sich zwar noch in der Entwicklung, aber bereits die aktuellen Erkenntnisse erlauben es, die ersten Schritte zu vollziehen.

Die Rolle von MLSecOps

MLOps ist ein neues Framework für die Entwicklung von ML- und KI-Modellen. Es besteht aus drei iterativen und miteinander verbundenen Phasen: einer Designphase, in der die ML-gestützte Anwendung entworfen wird, einer Modellentwicklungsphase, die ML-Experimente und -Entwicklungen umfasst, und einer Betriebsphase – den ML-Operationen. Jede dieser Phasen umfasst ML-spezifische Aufgaben, die mit der Modellerstellung verbunden sind, wie beispielsweise die folgenden:

  • Design. Definition der Anforderungen und Priorisierung der Anwendungsfälle.
  • Entwicklung. Datenverarbeitung und Modelltraining.
  • Betrieb. Modellbereitstellung, Feedback und Validierung.

Zwei Dinge sind hierbei zu beachten. Erstens: Nicht jedes Unternehmen arbeitet mit MLOps. Für die Zwecke von MLSecOps ist das in der Regel kein Problem. MLOps bietet vielmehr eine nützliche, abstrakte Methode, um die Modellentwicklung allgemein zu betrachten. Dies gibt Sicherheitsexperten Anhaltspunkte dafür, wie und wo sie Sicherheitskontrollen in abstrakte ML- und damit auch LLM-Entwicklungs- und Support-Pipelines integrieren können.

Zweitens – und auch hier wieder ähnlich wie bei DevSecOps – nutzen Unternehmen, die MLOps einsetzen, dieses nicht unbedingt auf die gleiche Weise. Sicherheitsexperten müssen ihre eigenen Wege finden, um Sicherheitskontrollen und -darstellungen in ihre Prozesse zu integrieren. Die gute Nachricht ist jedoch, dass Teams, die ihren Sicherheitsansatz bereits auf DevOps/DevSecOps ausgeweitet haben, bereits über einen Plan verfügen, den sie zur Implementierung von MLSecOps befolgen können.

Beachten Sie, dass es bei MLSecOps – genau wie bei DevSecOps – darum geht, Sicherheitskontrollen zu automatisieren, auf Release-Pipelines auszuweiten und Silos aufzubrechen.

Mit anderen Worten: Es geht darum, sicherzustellen, dass Sicherheit eine Rolle in der KI- und ML-Entwicklung spielt. Das klingt nach viel Arbeit und Aufwand, lässt sich aber im Wesentlichen auf die folgenden drei Punkte reduzieren.

Schritt 1: Silos beseitigen und Beziehungen aufbauen

Bauen Sie Beziehungen und Kommunikationswege zu den vielen Teams von Spezialisten auf, die an der Modellentwicklung beteiligt sind. Dazu gehören unter anderem Datenwissenschaftler, Modellentwickler, Produktmanager, Betriebsspezialisten und Tester, die am Endergebnis beteiligt sind. Genauso wie Sicherheitsexperten in einer DevSecOps-Umgebung eng mit Entwicklungs- und Betriebsteams zusammenarbeiten, muss auch das Sicherheitsteam Beziehungen zu den Spezialisten in der KI-Entwicklungspipeline aufbauen. In den meisten Unternehmen bedeutet dies nicht nur, herauszufinden, wer und wo diese Aktivitäten stattfinden – was nicht immer offensichtlich ist –, sondern auch, diesen Mitarbeitern zu vermitteln, warum sie überhaupt auf die Unterstützung der Sicherheitsabteilung angewiesen sind. Es handelt sich um eine Maßnahme zur Kontaktaufnahme und zum Aufbau von Glaubwürdigkeit.

Schritt 2: Sicherheitskontrollen integrieren und automatisieren

Es gilt, innerhalb des bestehenden Entwicklungsprozesses daran, Sicherheitsmaßnahmen zu etablieren, die eine sichere Bereitstellung gewährleisten. Wenn bereits Erfahrungen mit DevSecOps vorliegen, ist es kein Neuland Sicherheitskontrollen in der Release-Kette zu automatisieren. Dies geschieht, indem Security-Teams gemeinsam mit den Build- und Support-Teams die geeigneten Kontrollen festlegen, planen, implementieren und überwachen. Das Gleiche gilt auch hier. Genauso wie man Code-Scans im Software-Kontext implementiert, kann man Modell-Scans implementieren, um böswillige Manipulationen in Foundation- oder Open-Source-LLM-Modellen zu finden, die für die Feinabstimmung vorgesehen sind.

Ebenso wie bei der Softwareentwicklung die zugrunde liegenden Softwarebibliotheken validiert werden müssen, lassen sich die gängigen Open-Source-Feinabstimmungs-Tools und Integrationswerkzeuge wie Unsloth und LangChain auf den Prüfstand stellen.

Schritt 3: Design auf den Prüfstand stellen und Feedbackschleifen einplanen

Arbeiten Sie mit den neuen Partnern, die Sie in Schritt 1 hinzugezogen haben, zusammen, um die für die Sicherheit relevanten Leistungskennzahlen festzulegen und Mechanismen zu deren Verfolgung einzurichten. Dazu müssen mindestens die Daten aus den in Schritt 2 eingerichteten Tools verwendet werden. Denken Sie daran, dass es darum geht, die Sicherheit im Bereich Entwicklung zu optimieren. Wie dies konkret aussieht, ist von Unternehmen zu Unternehmen sehr unterschiedlich. Arbeiten Sie mit den entsprechenden Partnern zusammen, um die für Ihr Unternehmen und dessen Sicherheitsprogramm wichtigsten Kennzahlen festzulegen.

MLSecOps in der Praxis umsetzen

Die Implementierung von MLSecOps ist weniger eine Reihe von festen Regeln als vielmehr ein philosophischer Ansatz.

Entscheidend ist, dass Security-Teams den Ablauf verstehen, wie und wo die KI-Entwicklung im Unternehmen stattfindet und wer daran beteiligt ist. Wie in anderen Bereichen auch, ist es wichtig, gemeinsam daran zu arbeiten, geeignete Sicherheitskontrollen und neue KI-Sicherheitstechniken in diesen Bereichen anzuwenden.

Dieser Artikel ist im Original in englischer Sprache auf Search Security erschienen.

Erfahren Sie mehr über Anwendungs- und Plattformsicherheit