Schriftzug und Logo des Internetkonzerns Facebook | AFP
Exklusiv

Neue Enthüllungen Was Facebook nicht in den Griff bekommt

Stand: 25.10.2021 13:59 Uhr

Interne Dokumente, die NDR, WDR und SZ vorliegen, zeigen anhaltende Probleme bei Facebook: polarisierende Algorithmen, Schwächen bei Moderation insbesondere außerhalb der USA und wenig Zuspruch bei jüngeren Nutzern.

Von Svea Eckert, Lena Kampf und Georg Mascolo, WDR/NDR

Es sind mehr als Tausend interne Dokumente, Chats zwischen Mitarbeitern und Untersuchungen von Facebook, die die Whistleblowerin Frances Haugen dem US-Kongress zur Verfügung gestellt hat. Die Datenspezialistin Haugen arbeitete 2019 bis 2021 als Produktmanagerin bei Facebook im Civic Integrity Team, das Strategien entwickeln sollte, um die Nutzer vor Falschinformationen vor der US-Wahl zu schützen.

Anfang Oktober sagte Haugen als Zeugin vor dem US-Kongress aus, heute tritt sie vor dem britischen Parlament auf. Die Whistleblowerin wird inzwischen von einem größeren Team von Anwälten beraten, darunter solche, die der Demokratischen Partei nahestehen.

Frances Haugen im US-Senat | EPA

Whistleblowerin Haugen machte auf die Probleme Aufmerksam. Bild: EPA

Ein europäisches Medienkonsortium hat die Dokumente gemeinsam mit NDR, WDR und "Süddeutscher Zeitung" (SZ) weiter ausgewertet. Dabei enthüllen sich neue Details aus dem Innenleben des Konzerns. Facebook selbst bezeichnet die geleakten Dokumente als unvollständig, aus dem Kontext gerissen und nicht mehr aktuell. Das sind die zentralen neuen Erkenntnisse: 

1. Facebook weiß selbst, wie schnell Nutzer abdriften

In Testläufen mit fiktiven Nutzern demonstrieren interne Facebook-Forscher eindrücklich, wie schnell Nutzern gefährliche Inhalte von Facebook vorgeschlagen werden. "Carol Smith" und "Karen Jones" werden im Sommer 2019 bei Facebook angemeldet, sie sind 41 Jahre alt. Sie stammen aus einer Kleinstadt im Südosten der USA und haben sogar dieselben Interessen auf Facebook angegeben: Elternschaft. Christentum. Doch Carol unterstützt Donald Trump und Karen ist Fan von Bernie Sanders.

Eine Handvoll Likes reichten aus, bis ihnen nach wenigen Tagen extrem hasserfüllte, misogyne und abwertende Inhalte auf der Plattform angezeigt werden. "Carol" werden auch Seiten von QAnon, einer Verschwörungserzählung, vorgeschlagen.

Das Fazit der Facebook-Forscher: Die Inhalte, die "in erster Linie unseren eigenen Empfehlungssystemen" folgten, nahmen in "extrem kurzer Zeit ziemlich besorgniserregende, polarisierende Züge an". Das Experiment wiederholen die Forscher auch in Indien, mit dem Ergebnis, dass es nur wenige Tage dauerte, bis sich die Empfehlungen in einen endlosen Strom aus Hass und Hetze gegen Muslime verwandelten.

2. Die künstliche Intelligenz ist schlechter, als Facebook behauptet

Zehntausende Menschen sichten im Auftrag von Facebook problematische Inhalte. Diese sogenannten Content-Moderatoren kommen mit dem Löschen oft nicht hinterher. Von Facebook heißt es: Man wolle auf Menschen und auf Maschinen setzen. Facebook-Chef Mark Zuckerberg preist seit Jahren die großen Fortschritte, die Facebooks Systeme machten, wenn es darum geht, Hassrede, Gräuelvideos oder terroristische Inhalte zu erkennen.

Manche von Facebooks Angestellten misstrauen diesem Heilsversprechen. "Wir werden vermutlich niemals ein Modell haben, das auch nur die Mehrheit der Integritätsverletzungen erkennt, vor allem in sensiblen Bereichen", schrieb ein Forscher 2019. Er spricht von einer Erkennungsrate von zwei Prozent, eine andere interne Studie nennt drei bis fünf Prozent. Facebook verweist darauf, dass es immer unwahrscheinlicher werde, dass Nutzer auf der Plattform Hassrede überhaupt sehen Diese Metrik sei relevanter als die Erkennungsrate.

3. Außerhalb der USA sieht es noch schlechter aus

Beispiel Arabisch: Obwohl mehr als 220 Millionen Nutzer arabisch sprechen und damit die drittgrößte Gruppe auf den Plattformen stellen, fehlen akut Moderatoren für die verschiedenen Länder. In einer internen Studie wird kritisiert, dass die Moderatoren vor allem aus Marokko und Syrien kommen, die aber Inhalte beispielsweise aus dem Jemen oder der Golfregion nicht wirklich einordnen können.

Dabei macht der interne Bericht deutlich, dass Facebook selbst fast jedes einzelne Land, in dem hauptsächlich arabisch gesprochen wird als "Hochrisikoland" einschätzt. Auch die Entwicklung von künstlicher Intelligenz, die Hass und Hetze aufspüren soll, bevor die Inhalte Nutzern gezeigt werden, ist in anderen Sprachen teuer und sehr mangelhaft. Auf arabisch können die Algorithmen beispielsweise nicht zwischen Koranzitaten und tatsächlichen Aufrufen zu Gewalt differenzieren. Facebook sagt, dass sich 15.000 Moderatoren für mehr als 70 Sprachen der Welt mit den Inhalten beschäftigen - darunter auch arabisch in Jemen, Libyen, Saudi-Arabien und Irak.

4. Facebook verliert bei jungen Nutzern

In einer Vielzahl von Diagrammen und Tabellen zeigen interne Auswertungen, dass die junge Zielgruppe abwandert. Facebook gilt den meisten längst als Plattform ihrer Eltern, auch Instagram wird zunehmend "uncool". Nun soll gegengesteuert werden: Bislang gibt es mit dem Messenger Kids nur ein Produkt für Kinder, offiziell gilt für alle anderen Apps ein Mindestalter von 13 Jahren. In der Realität kann Facebook aber ohnehin kaum kontrollieren, wer sich anmeldet. Deshalb sollte eine Kinder-Version von Instagram entstehen, die nach der Kritik nun pausiert.

Profite an erster Stelle

Die Dokumente kommentiert Whistleblowerin Frances Haugen im Interview: "Ich habe immer wieder gesehen, wie Facebook damit umgeht, wenn es einen Konflikt zwischen Profit und Sicherheit gibt." Facebook löse diese Konflikte regelmäßig zugunsten seines Profits. Dabei gebe es bereits Lösungen, die Hass und Hetze stärker eindämmen würden, so Haugen. Am Ende entscheide fast immer die Marketing-Abteilung. Und die würde immer auf Wachstum setzen.

Dem Eindruck widerspricht Facebook auf Anfrage von NDR, WDR und SZ: "Die Anzahl von Hassreden ist seit drei Quartalen in Folge zurückgegangen, seit wir mit der Berichterstattung darüber begonnen haben. Dies ist auf Verbesserungen bei der proaktiven Erkennung von Hassreden und Änderungen im Ranking im News Feed zurückzuführen."

Die sogenannten #FacebookFiles, über die zuerst das "Wall Street Journal" berichtet hatte, wurden Journalisten teilweise geschwärzt und anonymisiert von einem Mitarbeiter des US-Kongresses zur Verfügung gestellt. In Europa haben die "Süddeutsche Zeitung", NDR und WDR gemeinsam mit "Le Monde" aus Frankreich, dem Verlag Tamedia aus der Schweiz, der dänischen Zeitung "Berlingske," dem belgischen Magazin "Knack", sowie der Investigativ-Plattform OCCRP die Daten ausgewertet.

Über dieses Thema berichtete das Kulturmagazin "SWR2 am Morgen" am 05. Oktober 2021 um 06:00 Uhr.