Logo Tiktok | AFP
Exklusiv

Wortfilter TikTok schränkt Meinungsfreiheit ein

Stand: 05.10.2022 06:00 Uhr

Die chinesische Videoplattform TikTok setzt in Deutschland systematisch Wortfilter ein. Mindestens 20 Wörter verhindern, dass Kommentare öffentlich erscheinen, wie eine neue Recherche zeigt. Die Nutzer erfahren davon nichts.

Von Svea Eckert, Catharina Felke, NDR, und Oskar Vitlif, tagesschau

Kurze Videos von Gesangs- und Tanzeinlagen haben die Social-Media-App TikTok berühmt gemacht. Heute sind auf der Plattform Nachrichtenclips zu aktuellen Ereignissen gleichermaßen präsent wie Kochvideos oder Aufnahmen über den Angriffskrieg gegen die Ukraine. Das Unternehmen hat damit Erfolg. In Deutschland nutzt bereits die Hälfte der 12- bis 19-Jährigen TikTok regelmäßig, bei den 20- bis 29-Jährigen ist es knapp ein Drittel.

Recherchen von NDR, WDR und tagesschau legen nun offen, dass der Konzern offenbar mindestens 20 Wörter über automatisierte Filter zurückhält. Kommentare, die einen dieser Begriffe enthalten, erschienen in mindestens vier Versuchen von unterschiedlichen Testaccounts nicht öffentlich unter den Videos. Getestet wurden insgesamt 70 Wörter und Wortkombinationen.

Da TikTok für den Kommentarbereich bestimmte Einstellungen vorgibt, wurden diese für den Testlauf nicht verändert. Unter den Wörtern, die von TikTok offenbar blockiert werden, finden sich "Nazi", "Sklaven" und "Gas", aber auch "LGBTQ" und "schwul".

Bei TikTok im September 2022 blockierte Wörter

Cannabis
Crack
Drogen
Gas
gay
Heroin
Heterosexuelle
homo
Kokain
LGBTQ
LGBTQI
LSD
Nazi
Porno
Pornografie
Prostitution
schwul
Sex
Sexarbeit
Sklaven

Konfrontiert mit den Ergebnissen, erklärte eine Sprecherin von TikTok, man setze Technologien ein, die "proaktiv nach Kommentaren suchen, die gegen unsere Richtlinien verstoßen oder die ein Spam-Verhalten darstellen". Sie räumte Fehler ein: "In diesem Fall wurden Kommentare, die nicht gegen unsere Community-Richtlinien verstießen, fälschlicherweise als potenziell schädlich gekennzeichnet."

TikTok werde seine automatisierten Systeme weiter trainieren. Außerdem werde man ausgewählten Forschenden noch in diesem Herbst Zugang zu der Moderationssystem-API geben, teilte der Konzern mit.

Nutzer erfuhren nichts von Sperrungen

Die Videoplattform machte im Test den Nutzern gegenüber kein einziges Mal transparent, ob und warum ein Kommentar nicht erschien. Stattdessen erweckte die App den Eindruck, ihre Kommentare seien öffentlich. Shadow-banning nennt man diese Methode. TikTok-Nutzer können sich daher nicht gänzlich sicher sein, ob der eigene Kommentar auch für andere Menschen sichtbar ist.

TikTok vermutet, dass die große Anzahl geposteter Kommentare in relativ kurzer Zeit dazu geführt haben könnte, dass einige dieser Kommentare als Spam eingestuft worden seien. 

TikTok erklärte des weiteren, man prüfe die Transparenz von Kommentaren und verstehe die Bedenken - insbesondere jene der LGBTQ+ Community, die gesellschaftlich immer noch Hassreden und Mobbing ausgesetzt sei. TikTok wolle Kommentare nuancierter moderieren und eine einladende Community-Umgebung fördern.

Suche nach offenen Gesprächen

Die Verwendung von Wortfiltern, um Hassrede zu verhindern und User zu schützen, greift nach Erfahrung von TikToker Maximilian Pichlmeier nicht. "Hass sucht sich leider immer einen Weg auf solchen Plattformen". Pichlmeier beschäftigt sich auf seinem Account mit der LGBTIQ-Community und sucht offen das Gespräch.

Das gehe am besten über die Kommentarfunktion, auch um Menschen, die homophobe Äußerungen unter seine Videos setzen, etwas entgegenzusetzen. "Wenn dann das Wort 'schwul' oder 'homosexuell' vorkommt und ich das selber benutze, aber der Kommentar der anderen Person nicht angezeigt wird, kann keine Diskussion stattfinden. Wie soll man da zusammenfinden, wenn die jeweilige Realität eine ganz andere ist?"

Fehlende Transparenz

Es ist nicht das erste Mal, dass die Moderationspraxis auf der Videoplattform auffällt. Bereits im Februar 2022 hatten Recherchen von NDR, WDR und tagesschau gezeigt, dass die Social-Media-App die Meinungsfreiheit ihrer Nutzerinnen und Nutzer in Deutschland durch einen Wortfilter einschränkt.

So wurden Kommentare mit Begriffen aus der LGBTIQ-Community wie "queer" oder "gay" ebenso wenig veröffentlicht wie solche, die "Auschwitz" oder "Nationalsozialismus" enthielten. In dem Experiment wurden von den insgesamt 100 getesteten Wörtern 19 nicht zugelassen. TikTok räumte daraufhin Fehler ein und kündigte an, das eigene Vorgehen gründlich zu überprüfen und seine Strategie zu überdenken. 

Tatsächlich können Wörter wie "homosexuell" oder der Name der chinesischen Tennisspielerin Peng Shuai jetzt offenbar wieder in den Kommentaren verwendet werden. Bemerkenswert ist jedoch, dass TikTok Begriffe erneut blockiert hat, nachdem diese infolge der Recherche im Februar zunächst wieder kommentierbar waren. Dazu gehören Wörter wie "LGBTQI", "gay" oder "Heterosexuelle".

Automatisierte Wortfilter sind billiger

"Das ist grundsätzlich problematisch", sagt Christian Stöcker, Medienwissenschafter an der Hochschule für Angewandte Wissenschaften Hamburg und Leiter des Studiengangs "Digitale Kommunikation". Er nimmt Plattformen wie TikTok in die Verantwortung. "Da findet öffentlicher Diskurs statt, aber solange wir nicht wissen, wie TikTok genau moderiert, mit welchen Werkzeugen und mit welcher Arbeitskraft, ist das ein Problem."

Stöcker sieht in der Moderation von Inhalten auch eine Kostenfrage. Eine Software oder automatisierte Wortfilter seien eben wesentlich billiger, als viele Menschen für die Moderation von Kommentaren einzustellen. Das liege eher im Interesse der Unternehmen.

"Klimawandel" und "Klimakrise" sind unerwünscht

Neben den zuvor identifizierten 19 Begriffen wurden auch Wörter getestet, die dem TikTok-Team der tagesschau oder TikTok-Nutzern aufgefallen waren. Darunter finden sich beispielsweise Wörter im Kontext des russischen Angriffskriegs auf die Ukraine sowie Drogen.

Kommentare mit Begriffen wie "Kokain", "Cannabis" und "Crack" wurden in den Testläufen offenbar immer herausgefiltert. "Crystal Meth" und "Ecstasy" hingegen waren teilweise zugelassen. Ein klares Muster war in keinem Fall zu erkennen. Während in einigen Testläufen ein Account unter einem Video ein Wort kommentieren konnte, erschien dasselbe Wort beim gleichen Account unter einem anderen Video nicht.

Aber auch Wörter, die nicht aus möglichen Jugendschutzvorgaben zurückgehalten wurden, waren manchmal nicht sichtbar. So führten die Begriffe "Klimakrise" und "Klimawandel" in den meisten Fällen dazu, dass ein Kommentar nicht veröffentlicht wurde. Außerdem filtert TikTok offenbar einige Wörter aus dem Kontext des Ukraine-Kriegs heraus. Dazu zählen Wörter wie "Ukraine", "Spezialoperation", "Kampfjets", "Völkerrecht" oder auch "Truppen".

Subtiles Ausblenden

Caja Thimm ist Professorin für Medienwissenschaft und Intermedialität an der Universität Bonn und sieht in dem beschriebenen Vorgang eine Unterdrückung von Themen mit dramatischer Konsequenz. Agenda Cutting heißt das in der Kommunikationsforschung. "Zunächst erscheint das subtil, indem ich einfach zentrale Begriffe nicht zulasse, aber wenn es funktioniert, diskutiert man über diese Themen nicht mehr und das heißt dann auch, dass die Menschen, die über diese Themen diskutieren wollen, unter Umständen TikTok verlassen." Thimm sagt, es sei "höchst problematisch", wenn der Konzern beginne, seine Nutzergruppen subtil zu sortieren.

TikTok hat nach eigenen Angaben mehr als eine Milliarde Nutzer weltweit. In Deutschland sollen es 20 Millionen sein. Die Videoplattform wird von dem chinesischen Internet- und Technologieunternehmen ByteDance betrieben, an dem auch die chinesische Regierung beteiligt ist. Dort läuft das Videoportal unter dem Namen Douyin.

Bei TikTok im September 2022 teilweise blockierte Wörter

Alkohol, Angriff, Anlass, Armee, Auschwitz, Bodentruppen, Corona, Crystal Meth, Ecstasy, Energie, Entnazifizierung, ernähren, FLINTA*, getötet, homophob, homosexuell, Kampf, Kampfjets, kiffen, Klimakrise, Klimawandel, Krieg, kämpfen, Nationalsozialismus, Panzer, Peng Shuai, produzieren, queer, Rauchen, Risiko, Rohstoffe, Russen, Russland, Sauerstoff, saufen, Spezialoperation, symptomatisch, Terroristen, trans*, Truppen, Ukraine, Ukrainer, Völkerrecht, Warn-App, Wettkämpfe

Getestete Wörter

Alkohol, Angriff, Anlass, Armee, Auschwitz, Bodentruppen, Cannabis, Corona, Crack, Crystal, Meth, Drogen, Ecstasy, Energie, Entnazifizierung, ernähren, FLINTA, FLINTA*, Gas, gay, getötet, Heroin, Heterosexuelle, homo, homophob, homosexuell, international, Kampf, Kampfjets, kiffen, Klimakrise, Klimawandel, Kokain, Krieg, kämpfen, LGBTQ, LGBTQI, LSD, Nachrichtenagenturen, Nationalsozialismus, Nazi, Panzer, Peng Shuai, Porno, Pornografie, produzieren, Prostitution, queer, Rauchen, Risiko, Rohstoffe, Russen, Russland, Sauerstoff, saufen, schwul, Sex, Sexarbeit, Sklaven, Spezialoperation, symptomatisch, Terroristen, trans*, Truppen, Ukraine, Ukrainer, US-College, Völkerrecht, Warn-App, Wettkampf, Wettkämpfe

Eine frühere Version des Textes hat das Testszenario der Recherche nicht näher beschrieben. Nach der Veröffentlichung meldete sich TikTok erneut und wies auf die nun im Text ergänzte Möglichkeit hin, das Testszenario könne dazu geführt haben, dass manche Kommentare fälschlicherweise als Spam eingestuft worden seien.

Über dieses Thema berichtete MDR Aktuell am 05. Oktober 2022 um 10:50 Uhr.