
Marko - stock.adobe.com
KI-Gesetze: Neue Regeln, neue Chancen
Regelungen wie der EU AI Act sind für Unternehmen mit Herausforderungen verbunden, bieten aber auch Chancen. Eine proaktive Compliance-Strategie kann ein lohnender Ansatz sein.
Die Verabschiedung des EU-KI-Gesetzes (AI Act, KI-Verordnung) im Jahr 2024 markiert einen historischen Moment in der europäischen Technologie- und Wirtschaftspolitik. Es ist das erste umfassende Regelwerk seiner Art weltweit, das die Entwicklung und Nutzung künstlicher Intelligenz (KI) durch einen risikobasierten Ansatz reglementiert.
Für Unternehmen, insbesondere im IT-Sektor, ergeben sich daraus tiefgreifende Herausforderungen, aber auch immense Chancen. In diesem Artikel werfen wir einen detaillierten Blick auf die Inhalte und Auswirkungen des AI Acts, betrachten aktuelle Zahlen zur KI-Nutzung in Unternehmen und geben konkrete Empfehlungen, wie IT-Manager und Entscheider den neuen Anforderungen begegnen können.
KI-Nutzung in Unternehmen
Mit der wachsenden Verbreitung und Nutzung von KI sind auch die Bedenken hinsichtlich ihrer Risiken gestiegen. Diskriminierende Algorithmen, unzureichender Datenschutz und unkontrollierte Entscheidungen durch KI-Systeme haben die Notwendigkeit einer Regulierung auf europäischer Ebene deutlich gemacht. Der AI Act zielt darauf ab, diese Risiken zu minimieren und gleichzeitig Innovationen zu fördern.
Warum ist diese Gesetzgebung gerade jetzt so relevant? Laut einer Umfrage des Digitalverbands Bitkom beschäftigen sich mehr als die Hälfte der deutschen Unternehmen bereits aktiv mit KI, und 20 Prozent setzen diese Technologie in ihren Prozessen ein. 74 Prozent planen, in den kommenden Jahren in KI zu investieren. Gleichzeitig sehen 73 Prozent der Unternehmen KI als die wichtigste Zukunftstechnologie an. Die Relevanz von KI ist also unbestritten – ebenso wie die Notwendigkeit, den Rahmen für ihren Einsatz klar zu definieren.
AI Act: Risikobewertung in vier Klassen
Der AI Act wurde mit zwei zentralen Zielen verabschiedet: Vertrauen und Kontrolle. Auf der einen Seite sollen Nutzer auf die Sicherheit von KI-Systemen vertrauen, während sich Unternehmen auf klare Spielregeln verlassen können, innerhalb derer sie die Freiheit haben, Innovation voranzutreiben. Auf der anderen Seite geht es der EU um eine größtmögliche Einhegung des Risikos durch KI für Grundrechte und das bestehende politische System.
Das EU-Gesetz teilt zu diesem Zweck alle KI-Systeme in vier Risikoklassen ein:
- Die meisten Anwendungen fallen in Kategorie 1 („Minimales Risiko“). Diese Klasse umfasst viele Produkte, die am Massenmarkt verfügbar sind, sie unterliegt keinen besonderen Anforderungen.
- Systeme wie Chatbots oder automatisierte Bewerbungsplattformen fallen in die Kategorie „Begrenztes Risiko“. Sie müssen bestimmte Transparenzpflichten erfüllen.
- KI im Bereich kritischer Infrastrukturen, im Gesundheitswesen und in der Justiz fallen unter „Hohes Risiko“ – sie sind streng kontrolliert und müssen transparent, dokumentiert und sicherheitsgeprüft sein.
- Komplett verboten sind Technologien wie Social Scoring und manipulative Systeme, die gegen Grundrechte verstoßen.
Das Gesetz wird voraussichtlich bis 2026 vollständig in Kraft treten. Unternehmen haben daher einen begrenzten Zeitraum, um ihre Systeme und Prozesse an die neuen Anforderungen anzupassen.
KI im Unternehmen: Integration problematisch
Wie bereit sind Unternehmen im DACH-Raum, den neuen Anforderungen zu begegnen? Ein Blick auf aktuelle Studien zeigt: KI ist längst kein Nischenthema mehr.
Laut der Bitkom-Umfrage setzen bereits 20 Prozent der deutschen Unternehmen KI aktiv ein. Besonders in den Bereichen Produktion, Logistik und Kundenservice zeigen sich deutliche Fortschritte. Ein weiterer Bericht zeigt, dass 37 Prozent der Unternehmen planen, ihre Investitionen in KI-Technologien im Jahr 2024 zu erhöhen. Dabei spielt vor allem der Wunsch nach Effizienzsteigerung und Kostensenkung eine zentrale Rolle.
Die größte Hürde bleibt jedoch die Integration von KI in bestehende Geschäftsprozesse. Laut Bitkom sehen 45 Prozent der Unternehmen mangelndes Know-how als Hauptproblem. Zudem bereiten Datenschutzanforderungen und die fehlende Interoperabilität zwischen verschiedenen Systemen Kopfzerbrechen.
Dennoch: 74 Prozent der Unternehmen erkennen die transformative Kraft der Technologie und planen langfristige Investitionen. Der EU AI Act könnte hier als Katalysator wirken, indem er Standards schafft, die Vertrauen und Akzeptanz fördern.
Compliance-Kosten: 15 Milliarden Euro pro Jahr
Für Unternehmen bedeutet der AI Act vor allem eins: zusätzlichen Aufwand. Besonders für Organisationen, deren KI-Anwendungen in die Kategorie „hohes Risiko“ fallen – etwa für Anwendungen in kritischer Infrastruktur, dem Gesundheitswesen und der Justiz – ergeben sich umfassende Pflichten:
- Technische Dokumentation: Unternehmen müssen detailliert nachweisen, wie ihre KI-Systeme entwickelt und getestet wurden.
- Transparenzanforderungen: Nutzer müssen darüber informiert werden, dass sie mit einer KI interagieren.
- Risikobewertung: Vor der Inbetriebnahme muss eine Risikoanalyse durchgeführt werden.
Ein Bericht des European Centre for International Political Economy (ECIPE) schätzt, dass die Einhaltung der neuen Vorschriften für europäische Unternehmen jährliche Kosten von 10 bis 15 Milliarden Euro verursachen könnte. Gleichzeitig bietet der Gesetzesrahmen jedoch gewisse Vorteile: Die Standardisierung der Regeln schafft einen Rahmen, in dem Unternehmen miteinander vorhersehbar und verlässlich kooperieren können, grenzüberschreitend und systemkompatibel. Die resultierende Qualität kann das Vertrauen von Kunden und Geschäftspartnern in KI-Lösungen stärken.
![]()
„Neben der Compliance sollte das Augenmerk auf der internen Sensibilisierung und Weiterbildung liegen. Die Schulung von Mitarbeitern ist dabei essenziell. IT-Manager sollten Teams nicht nur technisch, sondern auch rechtlich auf die neuen Anforderungen vorbereiten.“
Gerald Eid, Getronics
Jetzt handeln: Audits, Schulungen, Kooperationen
Was können Unternehmen heute tun, um sich optimal auf die neuen Rahmenbedingungen vorzubereiten? In jedem Fall lohnt sich eine proaktive Compliance-Strategie – im ersten Schritt durch einen internen Audit, bei dem IT-Entscheider erfassen, welche KI-Anwendungen im Unternehmen eingesetzt werden oder werden sollen, und ob und wie diese von den neuen Regelungen betroffen sein werden. Der Audit sollte zugleich die Einhaltung bestehender Datenschutz- und Sicherheitsrichtlinien überprüfen.
Neben der Compliance sollte das Augenmerk auf der internen Sensibilisierung und Weiterbildung liegen. Die Schulung von Mitarbeitern ist dabei essenziell. IT-Manager sollten Teams nicht nur technisch, sondern auch rechtlich auf die neuen Anforderungen vorbereiten und mit den bestehenden Anwendungen im Unternehmen vertraut machen.
Darüber hinaus gibt es spezialisierte Kenntnisse, die zur Einhaltung der Richtlinien nötig, trotz Weiterbildung im Unternehmen selbst aber nicht verfügbar sind; hier ist es wichtig, zuverlässige Partner zu finden, die über besagte Kenntnisse verfügen und im Rahmen einer Kooperation in die Compliance-Strategie eingebunden werden könnten – dazu zählen etwa Technologieanbieter, Juristen und Regulierungsbehörden.
Fazit: Innovation und Regulierung
Der EU AI Act stellt einen entscheidenden Schritt in der Regulierung künstlicher Intelligenz dar. Während die neuen Vorschriften für Unternehmen Herausforderungen mit sich bringen, bieten sie gleichzeitig die Chance, klare Standards zu setzen und das Vertrauen in KI-Technologien zu stärken.
Für IT-Manager und Entscheider bedeutet dies, jetzt zu handeln: Frühzeitige Anpassungen und Investitionen in konforme Technologien sind nicht nur notwendig, um Strafen zu vermeiden, sondern können langfristig auch Wettbewerbsvorteile schaffen. In einer digitalen Welt, die zunehmend von KI geprägt ist, bietet der EU AI Act die Möglichkeit, Innovation und Verantwortung in Einklang zu bringen.
Über den Autor:
Gerald Eid ist Regional Managing Director DACH bei Getronics.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.