Facebook-Seite zu Corona

Corona in sozialen Medien Facebook verstärkt Kampf gegen Fake News

Stand: 16.04.2020 15:00 Uhr

Facebook gibt heute neue Funktionen zur Eindämmung von Fake News bekannt und reagiert damit nach SWR-Recherchen auch auf Kritik von Netzaktivisten. Experten warnen vor politischer Einflussnahme.

Von Marilina Görz und Marcel Kolvenbach, SWR

Facebook ergreift neue Maßnahmen im Kampf gegen Fake News. In Zukunft werde auf der Timeline von Accounts, die schädliche Falschinformationen über Covid-19 verbreiten, zusätzliche Warnhinweise veröffentlicht, erklärte der für Integrität des Unternehmens zuständige Manager Guy Rosen heute gegenüber der Presse.

Das Unternehmen von Mark Zuckerberg reagiert damit nach SWR-Recherchen auch auf Kritik von Netzaktivisten. Zwar habe Facebook nach eigenen Angaben bisher mehr als zwei Milliarden Menschen auf die offiziellen Informationsseiten der WHO und anderer etablierter Gesundheitsorganisationen geleitet. Dennoch waren die bisherigen Vorkehrungen gegen Falschinformationen nach Ansichten der Nichtregierungsorganisation AVAAZ nur mäßig erfolgreich.

Richtigstellung oft sehr spät

Logos von Facebook und WhatsApp | Bildquelle: dpa
galerie

Über soziale Medien werden viele Falschinformationen zu Corona verbreitet.

Das geht aus zwei Studien hervor, die dem SWR vorliegen. In der ersten Studie analysierten die Netzaktivisten von Avaaz eine Stichprobe von über 100 Fehlinformationen auf Facebook zum Coronavirus in sechs Sprachen. Diese Beiträge wurden 1,7 Millionen Mal geteilt und schätzungsweise 117 Millionen Mal angesehen, obwohl sie von unabhängigen Faktenprüfern widerlegt wurden.

Es könne bis zu 22 Tage dauern, bis Facebook für Coronavirus-Fehlinformationen eine Warnung anzeigt, behaupten die Netzaktivisten. Erhebliche Verzögerungen habe es auch dann gegeben, wenn die Partner von Facebook die schädlichen Fehlinformationen rasch gemeldet hätten.

Den Wissenschafter und Social-Media Experten Pascal Jürgens von der Universität Mainz überraschen die Ergebnisse der Studie nicht. "Dass Facebook so lange braucht, um so weit verbreitete Fake News zu erkennen, ist allerdings wirklich problematisch. Die Verbreitung in sozialen Medien verläuft viel schneller, deshalb muss eine Markierung viel schneller erfolgen, um wirksam zu sein", erklärte Jürgens gegenüber dem SWR.

Widerlegungen zeigen Wirkung

Avaaz gab eine zweite Studie bei der George Washington University und der Ohio State University in Auftrag, die zeigen sollte, welche Maßnahmen besonders erfolgreich zur Eindämmung von Falschnachrichten sind. Die Studie belegt: Wenn Facebook-Nutzern, die Fehlinformationen ausgesetzt waren, jedes Mal Richtigstellungen von unabhängigen Faktenprüfern angezeigt werden, geht der Glaube an Desinformationen drastisch zurück - um durchschnittlich fast die Hälfte (49,4 Prozent) und bis zu 61 Prozent.

Fehlinformationen können Leben kosten

Fadi Quran, Kampagnendirektor bei Avaaz, erklärte dazu ebenfalls heute und zeitgleich mit der Ankündigung von Facebook: " Facebook hat selbst einen Impfstoff gegen die Infodemie in der Hand - einen Impfstoff der, wie Studien jetzt zeigen, den Glauben an Fehlinformationen halbieren kann."

Gegen Fehlinformationen rund um das Coronavirus vorzugehen, könne jetzt gerade Leben retten, aber nur der erste Schritt sein. "Menschen, die der Gefahr von Fehlinformationen zu Masern, Fehlinformationen von Impfgegnern oder politischen Fehlinformationen ausgesetzt sind, verdienen ebenfalls Schutz. Wir bei Avaaz erwarten daher von Facebook die vollständige Umsetzung von 'Correct the Record' in den nächsten Monaten."

Neue Maßnahmen bei Facebook

Genau das will Facebook jetzt umsetzen: "Wir zeigen im Newsfeed denjenigen Nutzern, die auf Covid-19-bezogene Beiträge reagiert haben, beispielsweise mittels "Gefällt mir" oder einer anderen Reaktion bzw. eines Kommentars, neue Informationen an, sofern wir den ursprünglichen Beitrag mittlerweile als schädliche Fehlinformation eingestuft und entfernt haben. Diese Meldungen verweisen die Menschen auf Klarstellungen der WHO zu Covid-19-Mythen" erklärte das Unternehmen heute in einem Statement.

Social-Media Experte Jürgens begrüßt die geplanten Schritte von Facebook im Kampf gegen die Verbreitung bekannter Falschmeldungen, warnt aber auch vor zu hohen Erwartungen: "Die Ergebnisse zeigen, dass Korrekturen von Fake News wichtig sind, aber auch, dass sie die schädliche Wirkung nicht ganz wieder gut machen können."

Wer überprüft die Behauptungen?

Bisher völlig ungeklärt aus Sicht der Wissenschaft und politisch hoch umstritten sei vor allem die Frage, wer zwischen Fake und Wahrheit unterscheiden solle. "Facebook hat diese Aufgabe bisher an externe Organisationen abgegeben, aber gleichzeitig erklärt, dass politische Werbung nicht geprüft wird. Sie übertragen damit die Verantwortung an Politiker und Parteien, die diese Verantwortung nicht immer gewissenhaft genug wahrnehmen."

Ein ganz anderer, vielversprechender Weg zum Schutz der Verbraucher vor Falschinformationen sei nach Ansicht der Cybersicherheitsbehörde des Bundes die technische Erkennung von Social Bots, die für die massenhafte Verbreitung gezielter Desinformationskampagnen zuständig sind.

BSI: Nutzer über Mechanismen aufklären

Joachim Wagner, Sprecher des Bundesamts für Sicherheit in der Informationstechnik, erklärte auf Anfrage gegenüber dem SWR, die Behörde setzte im Kampf gegen Fake News vor allem darauf, Nutzerinnen und Nutzer über die Funktion von Fake Accounts und Bots in Messenger-Diensten aufzuklären. Meist seien es diese automatisierten Accounts, verbunden mit den entsprechenden Algorithmen, die Falschnachrichten massenhaft im Netz verbreiten, nicht der einzelne User, der dem Post auf den Leim geht.

Über dieses Thema berichtete Deutschlandfunk am 16. April 2020 um 17:30 Uhr.

Darstellung: