Blick in ein Callcenter
exklusiv

Umstrittener KI-Einsatz im Callcenter Der Algorithmus hört mit

Stand: 04.10.2023 05:10 Uhr

Viele Unternehmen nutzen Künstliche Intelligenz zur Auswertung von Kundengesprächen. Solche Software kann auch Emotionen erkennen, zeigen BR-Recherchen. Datenschutzexperten sehen das kritisch.

Von Rebecca Ciesielski, Sammy Khamis und Simon Wörz, BR

Es gibt einen Satz, den die meisten Menschen in Deutschland so oder so ähnlich von Telefon-Hotlines kennen: "Zur Prüfung und Verbesserung unserer Servicequalität, würden wir den Anruf gerne aufzeichnen."

Was viele Anruferinnen und Anrufer nicht wissen: Einzelne Callcenter werten mithilfe Künstlicher Intelligenz (KI) am Telefon ihre Emotionen aus - anhand der Stimme.

So verfügt einer der weltweit größten Callcenter-Betreiber, Teleperformance, über eine KI-Software, die unter anderem die Emotionen der Anrufenden und der Callcenter-Agentinnen und Agenten erkennen soll. Wie schnell sprechen sie? Klingen sie aufgeregt oder ängstlich? Drohen Kundinnen und Kunden mit Vertragskündigungen oder Klagen? Das alles soll die KI auswerten, wie interne Dokumente des Unternehmens belegen.

In Deutschland telefonieren knapp Zweitausend Agentinnen und Agenten für Teleperformance, unter anderem im Auftrag von Energieversorgern. Aus den Unterlagen geht hervor, dass Kundinnen und Kunden von Teleperformance die Software für ihre deutschsprachigen Hotlines nutzen können. Unklar ist, wie viele Gespräche das Unternehmen mit der KI-Software analysiert. Der Konzern wollte sich auf Anfrage des BR hierzu nicht äußern.

Analyse von Kundenemotionen in Echtzeit

Das Callcenter-Unternehmen 11880 geht hingegen offen mit dem Einsatz von KI zur Emotionserkennung um. Zu den Auftraggebern von 11880 gehören Wohnungsbaugesellschaften, Autohäuser und Leihanbieter von Elektrorollern. Für sie bearbeitet das Unternehmen Kundenbeschwerden.

Dabei analysiert die KI in Echtzeit Sprachmelodie, Intensität, Rhythmus und Klang. Insgesamt würden mehr als 6.000 Parameter der Stimme analysiert, um daraus Emotionen zu errechnen, so Jörn Hausmann, Manager bei 11880. Die Software soll dadurch Gefühle wie Wut, Ärger, aber auch Freundlichkeit erkennen.

Hausmann betont, für die Agentinnen und Agenten sei die KI-Software zur Emotionsanalyse eine Unterstützung, ihr Einsatz durch den Betriebsrat genehmigt und von einem Datenschützer geprüft.

Während laufender Gespräche sehen die Callcenter-Agentinnen und Agenten auf ihrem Bildschirm Smileys, die die Stimmung der Unterhaltung anzeigen. Ein Smiley zeigt die Emotionen des Anrufers, ein weiteres die des Callcenter-Agenten. Auch dessen Emotionen werden ununterbrochen getrackt und ausgewertet. So soll sichergestellt werden, dass die Agentinnen und Agenten freundlich bleiben und die Kundinnen und Kunden im besten Fall zufriedener auflegen. Dieses Vorgehen ist nicht unumstritten.

Bandansage "rechtlich problematisch"

In der Bandansage des Unternehmens ist nur von einer Auswertung "zur Prüfung und Verbesserung unserer Servicequalität" die Rede. Bandansagen dieser Art nennt Rechtsprofessorin Lena Rudkowski von der Universität Gießen "rechtlich problematisch", weil Anruferinnen und Anrufer nicht wissen könnten, wie das Gespräch ausgewertet werde. Emotionserkennung sei etwas, "womit der Kunde nicht rechnen muss".

Über Emotions-KI werden Anruferinnen und Anrufer nicht aufgeklärt, bestätigt 11880-Manager Jörn Hausmann. Eine Einwilligung zur Auswertung sei dafür nicht notwendig: "Hier wird nichts gespeichert und keine Kundenprofile daraus abgeleitet", sagt Hausmann. Das heißt: Selbst wenn Kundinnen und Kunden der Aufzeichnung widersprechen, werden Emotionen ausgewertet.

Jurist Wedde: Emotionserkennung unzulässig

Der Rechtsprofessor Peter Wedde von der Frankfurt University of Applied Sciences hält Emotionsanalyse in Callcentern für rechtlich unzulässig. Von den eigenen Mitarbeitern dürften Arbeitgeber nur die Daten verarbeiten, die unbedingt notwendig seien, sagt Wedde. Die Analyse von Emotionen lasse "weitgehende Einblicke in die Persönlichkeit zu". Im weitesten Sinne handele es sich laut Wedde um Gesundheitsdaten, deren Verarbeitung extrem strengen Voraussetzungen unterliege.

Für Juristin Rudkowski von der Universität Gießen ist fraglich, ob im Falle einer ständigen Echtzeitanalyse, die Teamleiter einsehen könnten, nicht eine Totalüberwachung der Callcenter-Agenten vorliege. Arbeitgeber dürften ihre Arbeitnehmer "nicht lückenlos während der gesamten Arbeitszeit überwachen und sie unter erheblichen psychischen Anpassungsdruck setzen", betont Rudkowski.

KI am Arbeitsplatz - keine eindeutigen Regeln

Knapp 160.000 Menschen arbeiten in Deutschland in einem Callcenter. Wie viele Callcenter Künstliche Intelligenz zur Sprach- oder Emotionsanalyse verwenden, ist unklar. Branchenkenner schätzen, dass zwischen zehn und dreißig Prozent der Callcenter in Deutschland Telefonate mit KI auswerten.

Bislang fehlt in Deutschland eine gesetzliche Regulierung von künstlicher Intelligenz - auch am Arbeitsplatz. Die Bundesregierung arbeitet momentan an einem neuen Beschäftigtendatenschutzgesetz, das auch den Einsatz von KI betreffen soll, schreibt das Bundesarbeitsministerium auf BR-Anfrage.

EU-Abgeordneter: Emotions-KI "pseudowissenschaftlich"

Auf Ebene der EU soll der AI Act in Zukunft den Einsatz von Künstlicher Intelligenz grundlegend regeln. Im Juni beschloss das EU-Parlament mit großer Mehrheit seine Position zu dem Gesetzesentwurf. Die Parlamentsposition sieht vor, dass Emotionserkennung mittels Stimm-KI am Arbeitsplatz, im Bildungsbereich und zur Strafverfolgung verboten werden soll.

Sergey Lagodinsky, Abgeordneter für Bündnis 90/ Die Grünen im Europaparlament, nennt den Einsatz von KI zur Emotionserkennung "pseudowissenschaftlich". Im BR-Interview sagt Lagodinsky. "Jeder Mensch hat das Recht auf Innenleben und darauf, seine Emotionen nicht zu teilen."

Auch der Europäische Datenschutzbeauftragte Wojciech Wiewiórowski bezeichnet den Einsatz von KI zur Emotionserkennung als "äußerst unerwünscht". Eine Ausnahme seien allerdings Gesundheits- und Forschungszwecke.

Debatte über Verbot von Emotionserkennung

Einzelne Abgeordnete der konservativen Europäischen Volkspartei (EVP) rücken indes von strikten Verboten im AI Act ab. Angelika Niebler (CSU) sagte im BR-Interview, Emotionserkennung am Arbeitsplatz sei ein Thema, bei dem man "Chancen und Risiken sorgfältig abwägen" müsse.

Aktuell verhandeln Kommission, Rat und EU-Parlament noch über die endgültigen Inhalte des AI Acts. Die Verhandlungen sollen bis zum Ende dieses Jahres abgeschlossen sein.

Simon Wörz, BR, tagesschau, 04.10.2023 10:41 Uhr

Das ARD-Radiofeature "Abgehört: Das Geschäft mit KI-Stimmanalyse" ist ab sofort abrufbar in ARD-Audiothek.

Dieses Thema im Programm: Über dieses Thema berichtete BR24 am 04. Oktober 2023 um 06:51 Uhr.