Chatbots: Was ist bei der Revolution im Kundenservice zu beachten?

Virtuelle Assistenten, die mit Kunden kommunizieren, sind im Kommen. Doch beim Einsatz dieser Lösungen gilt es, rechtliche Fallstricke zu beachten.

Es könnte sich eine Revolution im Kundenservice anbahnen – virtuelle Assistenten, die die Kommunikation mit Kunden übernehmen, sind im Kommen. Doch so viele Chancen diese innovativen Lösungen für Unternehmen auch bieten, gibt es beim Einsatz noch immer rechtliche Fallstricke. Hier ist der Gesetzgeber gefragt, bestehende Unsicherheit auszuräumen.

Den Kundendienst durch automatisierte Systeme zu ersetzen – also virtuelle Assistenten oder auch Chatbots – ist für viele Firmen ein verlockender Ansatz. Geht es nach den Anbietern, wird diese Technologie immer größere Teile der Kommunikation mit den Kunden übernehmen, denn sie verspricht hervorragende Einsparungseffekte im Kundenservice. Steigende Rechenleistungen und größere Datenspeicher haben in den letzten Jahren dazu geführt, dass die Systeme immer ausgereifter werden und Kunden mitunter nicht mehr erkennen, ob sie mit einem Menschen oder einem Computerprogramm über ein Chatsystem kommunizieren.

Rechtliche Rahmenbedingungen müssen Schritt halten

Doch inwieweit die rechtlichen Rahmenbedingungen mit dem technologischen Wandel der schlauen Assistenten Schritt halten ist fraglich. Bestimmte Rechtsfragen sind nach heutigem Stand noch nicht abschließend zu bewerten. Diese Fragen betreffen beispielsweise die Haftung – also Konstellationen, in denen virtuelle Assistenten fehlerhaft programmiert sind und es zu falschen Auskünften oder gar Schäden kommt.

Die Haftung autonom agierender Systeme, also letztlich auch virtueller Assistenten, ist ein in der Rechtswissenschaft kontrovers diskutiertes Thema. Im Kern geht es dabei einerseits um die Frage, ob und wem das fehlerhafte Funktionieren eines autonomen Systems zugerechnet werden kann.

Andererseits wird aber auch danach gefragt, wie denn der Nutzer überhaupt beweisen kann, dass ein virtueller Assistent fehlerhaft funktioniert hat. Letzteres ist zunächst auch ein tatsächliches Problem heutiger komplexer IT-Systeme. Denn wenn Assistenten eigenständig, auf Basis von Algorithmen, Erfahrungswerten und Unmengen an Daten Entscheidungen fällen, kann es sein, dass nicht einmal der Betreiber reproduzieren kann, ob und wieso ein virtueller Assistent fehlerhaft funktioniert hat.

„Inwieweit die rechtlichen Rahmenbedingungen mit dem technologischen Wandel der schlauen Assistenten Schritt halten, ist fraglich.“

 Dr. Nico Brunotte, CMS Hasche Sigle

 

Vor dem Hintergrund der Haftung für autonome Systeme werden auch Stimmen laut, für selbstständig agierende Computersysteme eine Versicherungspflicht einzufordern. Dies sieht das deutsche Recht schon heute beispielsweise für Fahrzeuge oder Anhänger im Straßenverkehr vor. Ob dies allerdings für im Kundenservice eingesetzte virtuelle Assistenten, die auf den ersten Blick einen relativ überschaubaren Schaden verursachen können, erscheint fraglich. Schließlich gibt das System lediglich Auskünfte, die heute ein Servicemitarbeiter am Telefon gibt.

EU sieht Handlungsbedarf bei Robotik und künstlicher Intelligenz

Auch auf europäischer Ebene wird bereits darüber nachgedacht, wie mit den Risiken und Chancen der künstlichen Intelligenz umgegangen werden soll und beispielsweise welche Sicherheitsstandards einzuhalten sind.

Die Abgeordneten des Europäischen Parlamentes legten Anfang des Jahres einen Bericht über zivilrechtliche Regelungen zur Robotik vor. Sie forderten die Europäische Kommission im Rahmen einer Entschließung dazu auf, in der Europäischen Gesetzgebung im Bereich Robotik und künstliche Intelligenz umfassender tätig zu werden. Auch ethische Fragen stehen im Fokus der Abgeordneten. Sie forderten einen freiwilligen ethischen Verhaltenskodex für Entwickler, so dass Design und Nutzung von Robotern auch mit der Menschwürde im Einklang steht.

Onlineshops: Hinweise für Händler

Parallel zu diesen Themen, die mitunter nach Science-Fiction anmuten, stellen sich schon heute beim Einsatz ganz praktische Probleme. Richtet sich ein Onlineshop an Verbraucher, hat der Betreiber beispielsweise Informationspflichten vor unmittelbarer Abgabe der Bestellung zu erfüllen. Schon heute sind Ausnahmen für die sogenannte individuelle Kommunikation vorgesehen. Bestellt der Verbraucher also direkt über eine versendete E-Mail, greifen Ausnahmen.

Mehr zum Thema Chatbots:

KI ermöglicht Chatbots die Interaktion mit Menschen auf Augenhöhe

Wofür sich KI-Chatbots in Verkauf und Marketing einsetzen lassen

KI-Chatbots ziehen in Unternehmen schneller ein als man denkt

Der Gesetzgeber hatte als Beispiel für eine solche individuelle Kommunikation auch Chats im Auge. Ob damit aber auch die Fälle erfasst sein sollen, bei denen gar kein menschlicher Gegenpart mit dem Kunden über den Chat kommuniziert – also virtuelle Assistenten den Kundendienstmitarbeiter ersetzen – ist fraglich. Man könnte argumentieren, dass der virtuelle Assistent keine individuelle, sondern eine technisch vorgegebene Kommunikation darstellt. Andererseits könnte es auch praktisch schwierig werden, wenn in einem Chat-Fenster der virtuelle Assistent zunächst vor Finalisierung der Bestellung die Pflichtangaben in einem kleinen Textfenster darstellt. Hier ist am Ende des Tages auch der Gesetzgeber gefragt, klarstellende Regelungen zu schaffen, die mit dem technologischen Wandel Schritt halten. 

Über den Autor:
Dr. Nico Brunotte, LL.M. (Cambridge) ist Rechtsanwalt bei CMS in Deutschland und berät zu Rechtsfragen rund um Zukunftstechnologien und digitale Geschäftsmodelle.

Folgen Sie SearchSecurity.de auch auf Twitter, Google+, Xing und Facebook!

Erfahren Sie mehr über Datenschutz und Compliance

- GOOGLE-ANZEIGEN

ComputerWeekly.de

Close