Prostock-studio - stock.adobe.co

KI-Regeln in der EU: Innovation und Kontrolle im Einklang

Der EU AI Act muss einen Balanceakt zwischen Innovation und Sicherheit in einer vernetzten Welt schaffen. Sead Ahmetović, CEO von WeAreDevelopers, umreißt die Regeln hierfür.

Künstliche Intelligenz ist derzeit in aller Munde. Kein Wunder, ist sie doch im Begriff, die Arbeitswelt, wie wir sie kennen, maßgeblich zu transformieren.

Schon heute nutzen laut einer Onlinebefragung von Reuters/Ipsos 28 Prozent der US-amerikanischen Arbeitnehmer generative KI-Modelle, um sich den Arbeitsalltag zu erleichtern. Ob ihr Arbeitgeber ihnen das erlaubt hat, ist dabei für die meisten zweitrangig. Kein Wunder also, dass das Europäische Parlament mit Hochdruck am EU AI Act arbeitet, um klare rechtliche Rahmenbedingungen für die Entwicklung und Nutzung von künstlicher Intelligenz zu setzen.

Für Unternehmen stellt sich die Frage, wie stark die Regulierung von KI-Systemen ausfallen wird. Im globalen Vergleich machen derzeit China und die USA das Rennen bei der Entwicklung von künstlicher Intelligenz. Will Europa nicht weiter zurückfallen, muss den Unternehmen ausreichend Spielraum für Innovation gestattet werden.

Der Ruf nach Regulierung

Die Regulierung von KI-Systemen ist in den Augen der meisten alternativlos. Zu groß sind die potenziellen Auswirkungen von künstlicher Intelligenz auf Arbeitswelt, Gesellschaft, Sicherheit und selbst auf die Umwelt. Den ersten Schritt bei der Regulierung wagte China im Frühjahr 2023. Das verabschiedete Gesetz sieht vor, dass KI nicht diskriminieren darf sowie wahrheitsgetreue und genaue Aussagen tätigen muss.

Doch auch in den USA werden Stimmen laut, welche die Regulierung von KI fordern. Etwas überraschend kommen diese nicht nur aus der Politik und von Aktivisten, sondern auch von Vordenkern der KI wie Sam Altman, seines Zeichens Chef von OpenAI. Zusammen mit 376 weiteren KI-Experten unterzeichnete er einen Aufruf der amerikanischen Nichtregierungsorganisation Center of AI Safety, der vor den Gefahren von generativer KI warnte.

Einheitliche Regeln für Europa

Die Regulierung von künstlicher Intelligenz stellt die Politik vor besondere Herausforderungen. Dies ist zum einen auf die rasante Entwicklung von KI-Technologien zurückzuführen und zum anderen auf die erhebliche mediale Aufmerksamkeit, die seit der Veröffentlichung von ChatGPT auf sie gerichtet ist. Andererseits handelt es sich um hochkomplexe und dynamische Systeme, die sich kaum in starre Statuten pressen lassen. Hier einen Regulierungsstandard zu setzen, der Innovation nicht bremst, ist eine gewaltige Aufgabe.

In Abstimmung mit den Mitgliedstaaten und der EU-Kommission haben sich die Gremien der EU im Dezember 2023 auf einheitliche Regeln geeinigt. Unternehmen haben daraufhin zwei Jahre Zeit, sich den neuen Richtlinien anzupassen und diese in nationales Recht umzusetzen.

Bisher ist bekannt, dass das EU-Parlament entschieden hat, KI-Systeme nach einem Risikomodell einzustufen. Grundsätzlich gilt, je größer die Gefahr ist, die von einem KI-System ausgeht, desto stärker ist die Regulierung. Generative KI wurde im ursprünglichen Entwurf aus dem Jahr 2021 noch nicht berücksichtigt und wäre auch nur schwer in die starren Risikokategorien einzuordnen gewesen. Eine nachträgliche Änderung adressierte die neue Technologie und ergänzte neue Regeln für Entwickler, darunter eine Verpflichtung zur Transparenz sowie Qualitäts- und Risikomanagement.

Gemeinsam statt getrennt

Durch die Einführung einer Risikoabstufung nimmt die EU Rücksicht auf die Dynamik von KI-Systemen. Dieser Ansatz bietet Chancen für eine differenzierte Betrachtung und ermöglicht es Unternehmen, in den jeweiligen Kategorien spezifische Lösungen zu entwickeln. Noch ist nicht klar, wie der endgültige Gesetzestext exakt lauten wird, doch es ist wichtig, Technologieoffenheit zu wahren, sodass Innovation nicht ausgebremst, sondern im besten Fall gefördert wird.

Dafür müssen alle beteiligten Akteure zusammenarbeiten. Technologie-Unternehmen, unabhängige KI-Experten, Ethiker und Entscheidungsträger müssen ihre Kompetenz einbringen, um ein für alle Seiten vernünftiges Gesetz auszuarbeiten. Initiativen wie Open-Source-Frameworks oder ein ethischer Kodex für KI-Entwickler können dabei wegweisend sein.

Unternehmen müssen nachrüsten

Eine fruchtbare Zusammenarbeit ist auch deswegen so wichtig, weil damit nationale Schnellschüsse, wie von Italien, verhindert werden. Die italienische Datenschutzbehörde hatte im März 2023 ChatGPT verboten und erst nach Nachbesserungen von OpenAI bei Datenschutz und Transparenz wieder erlaubt.

Sead Ahmetović, WeAreDevelopers

„Eine Regulierung von KI-Systemen ist in den Augen der meisten alternativlos. Zu groß sind die potenziellen Auswirkungen von künstlicher Intelligenz auf Arbeitswelt, Gesellschaft, Sicherheit und selbst auf die Umwelt.“

Sead Ahmetović, WeAreDevelopers

Noch immer sind Datenschutz und Transparenz die größten Kritikpunkte bei generativen KI-Systemen. Eine aktuelle Studie der Stanford University prüfte, ob die zehn derzeit bekanntesten Foundation Models den Anforderungen des EU AI Acts standhalten. Das Ergebnis ist ernüchternd. Von den zehn untersuchten Modellen erreichten sechs nicht einmal die Hälfte der möglichen Punkte, darunter LLaMa von Facebook, Stable Diffusion von Stability.AI und das Modell Luminous des deutschen Start-ups Aleph Alpha. Diese Anlaufschwierigkeiten müssen spätestens zwei Jahre nach Verabschiedung des AI Acts beseitigt sein, sofern Unternehmen kein Verbot der KI-Systeme riskieren wollen.

Europa als Innovationsstandort stärken

Künstliche Intelligenz ist einer der größten Wachstumsmärkte der nächsten Jahre. Die USA und China haben das verstanden und liefern sich einen erbitterten Kampf um die Vorherrschaft im KI-Sektor. Denn auch bei internationalen Desinformationskampagnen wird KI eine entscheidende Rolle spielen – Stichwort Deepfakes. Europa scheint diese Entwicklung zu verschlafen. Das liegt zum einen an einer fehlenden europäischen Strategie und zum anderen am Mangel an relevanten heimischen Big Techs und Akteuren, welche diesen Kampf aufnehmen können. In harten Zahlen ausgedrückt, sieht man das bei der Bewertung von KI-Start-ups. In den Top 10 der am höchsten bewerteten Unternehmen befindet sich kein einziges europäisches. 

Für Europa heißt das, dass Unternehmen, die KI-Systeme entwickeln, mehr unterstützt werden müssen. Dafür sind eine stärkere Förderkultur und klare rechtliche Rahmenbedingungen unumgänglich. Ein ausgewogener AI Act kann dazu beitragen, dass sowohl große Tech-Unternehmen als auch Start-ups und KMUs in Europa bleiben und hier innovative Technologien entwickeln.

Über den Autor:
​​Sead Ahmetović, CEO und Gründer von WeAreDevelopers, hat in den vergangenen 15 Jahren eine beeindruckende unternehmerische Erfolgsgeschichte aufgebaut. Mit WeAreDevelopers betreibt er mit seinem Team Europas führende digitale Karriereplattform für Software-Entwickler und unterstützt IT-Talente auf ihrem Karriereweg mit inspirierenden Inhalten und personalisierten Job-Angeboten. WeAreDevelopers organisiert zudem den weltweit führenden Kongress für Softwareentwickler und IT-Entscheider. Mit mehr als 12.000 Teilnehmern zieht der jährlich in Berlin stattfindenden WeAreDevelopers World Congress eine Vielzahl von IT-Experten und Superstars aus der globalen Tech-Szene an, um sich über aktuelle Trends und Innovationen auszutauschen. Für sein Engagement und seine Leistungen wurde Sead Ahmetović 2023 in die „Top 40 unter 40“ des Capital Magazins aufgenommen.

 

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)

ComputerWeekly.de
Close