pathdoc - stock.adobe.com

KI im Beschäftigtenkontext: Was ist erlaubt, was verboten?

Künstliche Intelligenz soll gegen den Fachkräftemangel helfen und die Beschäftigten entlasten. Doch Arbeitgeber müssen die Nutzung von KI begrenzen, wenn es um Beschäftigte geht.

Künstliche Intelligenz (KI) ist der Trend, der im Jahr 2024 die IT-Branche am stärksten prägen wird, davon sind rund drei Viertel der IT-Entscheiderinnen und -Entscheider überzeugt, so eine Umfrage des eco-Verbandes. Mit den LLMs (Large Language Models) wie ChatGPT können bereits heute 15 Prozent aller Arbeitsaufgaben schneller und bei gleicher Qualität erledigt werden, der Anteil könnte zukünftig auf 56 Prozent anwachsen.

KI soll dabei die knappen Fachkräfte entlasten: Das größte Potenzial generativer KI wird laut einer Bitkom-Umfrage in der Unterstützung bei Berichten, Übersetzungen oder sonstigen Texten gesehen (82 Prozent). Mit deutlichem Abstand dahinter folgen Aufgaben in Marketing und Kommunikation (59 Prozent), etwa bei der Bilderstellung, in der IT-Abteilung (58 Prozent), etwa für Code-Generierung, und bei Forschung und Entwicklung (50 Prozent), etwa zur Auswertung von Daten.

Doch KI unterstützt die Beschäftigten nicht nur, sie kann auch die Daten der Beschäftigten selbst auswerten, zum Beispiel in der Personalabteilung, etwa zur Kommunikation mit Bewerbern, wie dies 26 Prozent der befragten Unternehmen planen.

Wenn es aber um Beschäftigtendaten geht, sollten die Vorgaben des Datenschutzes nicht vergessen werden.

Beschäftigtendaten brauchen Schutz

„Ich empfehle verantwortlichen Stellen bereits heute Datenschutz bei der Technikgestaltung und in die Designs der KI-Anwendungen zu implementieren“, so der Landesbeauftragte für den Datenschutz und die Informationsfreiheit Baden-Württemberg. „Ansonsten kann es böse Überraschungen für verantwortliche Stellen geben, weil sie möglicherweise zu einem späteren Zeitpunkt, wenn die Anwendung bereits läuft, zeitaufwendig viele Ressourcen einsetzen müssen, um den datenschutzkonformen Einsatz herzustellen.“

So will der Landesdatenschutzbeauftragte im Bereich des Beschäftigtendatenschutzes insbesondere genauer darauf blicken, ob Beschäftigte am Arbeitsplatz durch KI-basierte Emotionserkennung unter Druck gesetzt werden. Nach AI Act der EU wäre mit der KI-Nutzung zur Emotionserkennung am Arbeitsplatz (außer zu medizinischen oder sicherheitstechnischen Zwecken wie Überwachung der Müdigkeit eines Piloten) ein unannehmbares Risiko verbunden.

Der Datenschutz fordert bei KI-Nutzung unter anderem Transparenz (Information der Betroffenen über Verwendung ihrer Daten, Prüfbarkeit im Sinne der Rechenschaftspflicht), Verlässlichkeit (Schutz vor absichtlicher Manipulation, Umgang mit Halluzinationen bei Sprachmodellen) und Fairness (Verhinderung unbeabsichtigter Diskriminierung oder Ungleichbehandlung durch die KI).

Entsprechend hat auch die Antidiskriminierungsstelle des Bundes bereits eine Untersuchung (PDF) zur Ungleichbehandlung durch algorithmische Entscheidungssysteme durchführen lassen.

Hohe Risiken durch KI im Beschäftigtenkontext

Der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit gibt konkrete Beispiele dafür, wie KI zu einem Risiko im Personalwesen werden kann: Auch ohne direkten Personenbezug könnten Informationen diskriminierend sein. Eine KI könnte, ohne Namen zu nennen, folgende Empfehlung geben: „Für die freie Stelle sollten bevorzugt männliche Brillenträger ausgewählt werden.“ Ein solches Ergebnis könnte auf einer unzulässigen Auswertung von Gesundheits- und Geschlechtsangaben beruhen.

Nach AI Act der EU würde der KI-Einsatz zur Analyse und Filterung von Bewerbungen sowie Bewertung von Bewerbern zu den Anwendungsfällen mit hohem Risiko zählen.

Bevor aber Hochrisiko-KI-Systeme in der EU in Verkehr gebracht oder anderweitig in Betrieb genommen werden dürfen, müssen die Anbieter ihr System einer Konformitätsbewertung unterziehen. Sie müssen nachweisen, dass ihr System den verbindlichen Anforderungen an vertrauenswürdige KI entspricht (zum Beispiel in Bezug auf Datenqualität, Dokumentation und Rückverfolgbarkeit, Transparenz, menschliche Aufsicht, Genauigkeit, Cybersicherheit und Robustheit). Diese Bewertung muss erneut durchgeführt werden, wenn das System selbst oder sein Zweck wesentlich verändert wird.

Thomas Fuchs, der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit, erklärte: „KI-Systeme gleichen in ihrer Entscheidungsfindung häufig einer Blackbox und bewerten Personen auf nicht nachvollziehbare Weise“. Deshalb sein Hinweis: „Man darf KI-Systemen nicht blind vertrauen. Das letzte Wort muss stets der Mensch haben, und die Betroffenen können dies einfordern. Entscheidungspersonen müssen tatsächlich in der Lage sein, die Vorschläge einer KI zu hinterfragen, und sie müssen die individuelle Situation der Betroffenen berücksichtigen. Dies erfordert Sachkunde, ausreichende Ressourcen und Einblicke in die Entscheidungsprozesse innerhalb der KI.“

Es zeigt sich: KI kann auch im Beschäftigtenkontext entlasten und unterstützen, es müssen aber die Vorgaben der DSGVO und in Zukunft des AI Actes beachtet werden. Dazu gehört es, dass man sich als menschlicher Entscheider auch mit den KI-Ergebnissen beschäftigten muss, auch und gerade wenn es um Beschäftigtendaten geht.

ComputerWeekly.de
Close