Das Logo des sozialen Mediums Twitter ist auf dem Display eines Smartphones zu sehen. | Bildquelle: dpa

Soziale Netzwerke Das Problem mit den Social Bots

Stand: 22.04.2020 14:58 Uhr

Immer wieder werden Analysen veröffentlicht, wonach ein relevanter Teil von politischen Inhalten in den sozialen Netzwerken durch Social Bots verbreitet werde. Doch viele Fragen bleiben dabei offen.

Von Patrick Gensing, ARD-faktenfinder

Neue technische Möglichkeiten sind faszinierend - und können auch große Sorgen auslösen. Beim Thema Desinformation geht es dabei oft um zwei Phänomene, deren Relevanz bisweilen überschätzt wird. Zum einen Deep Fakes, manipulierte Videos, die durch "künstliche Intelligenz" weiterentwickelt werden. Sicherlich bergen solche komplexen Fälschungen eine Gefahr für die Zukunft - bislang spielen sie bei Fakes zu aktuellen Ereignissen aber kaum eine nennenswerte Rolle. Viel einfacher und effektiver ist es, alte Fotos aus ihrem Kontext zu lösen und mit einer neuen Botschaft erneut zu verbreiten.

Gefahr für die Demokratie?

Ein anderes viel diskutiertes Thema sind sogenannte Social Bots. Es handelt sich um Konten in sozialen Netzwerken, die durch Programme gesteuert werden und sich als reale Personen ausgeben. Es gibt auch Service Bots, die automatisiert auf Anfragen antworten - aber nicht vorgeben, eine reale Person zu sein. Der Begriff Social Bot wird oft als Oberbegriff verwendet für verschiedene Phänomene - wie beispielsweise Fake-Profile, die zwar unter falschem Namen auftreten und massenhaft retweeten, deswegen aber nicht unbedingt automatisiert agieren.

Die Relevanz von Social Bots ist umstritten. Von einer Gefahr für die Demokratie war sogar die Rede. Dabei sind automatisierte Konten nur ein Instrument von vielen, die für Kampagnen zur Desinformation eingesetzt werden können. Das tatsächliche Problem sind die Netzwerke realer Personen, die solche koordinierten Attacken planen und ausführen.

Bot or not?

Eine Schwierigkeit besteht darin, Social Bots zu identifizieren. So gibt es vor allem auf Twitter Konten, die einfach Inhalte bestimmter anderer Accounts retweeten; dabei handelt es sich ganz offensichtlich um automatisierte Accounts. Allerdings versuchen diese gar nicht erst, wie ein Mensch zu kommunizieren. Es handelt sich um simple Bots, die Reichweite und Relevanz simulieren sollen.

Auffällig sind zudem Konten, die massenhaft retweeten - offenkundig automatisiert - gleichzeitig aber auch kommunizieren. Diese Konten scheinen teilweise von realen Personen gepflegt zu werden. Außerdem haben in den vergangenen Jahren sogenannte "Sockenpuppen" eine große Rolle gespielt, um Themen zu setzen und Kampagnen in den sozialen Netzwerken umzusetzen. Dabei handelt es sich wiederum um mehrere Konten, die von einer Person gesteuert werden und koordiniert agieren.

Kritik an Studien

Verschiedene Untersuchungen haben für sich in Anspruch genommen, das Aufkommen von Social Bots messen zu können. Doch die Methodik blieb oft unklar oder fragwürdig. So sorgt auch eine aktuelle Analyse für Diskussionen. Die Studie will Unterschiede im Verhalten von Menschen und Bots während einer Online-Sitzung auf Twitter erkannt haben. Aus diesen Differenzen habe man einen Algorithmus entwickelt, der besser zwischen realen Personen sowie automatisierten Konten unterscheiden könne. Die Studie ist im Fachmagazin "Frontiers in Physics" erschienen und stammt von renommierten Forschern aus Italien und Brasilien.

Die Expertin Lena Frischlich von der Ludwig-Maximilians-Universität München sieht die Ergebnisse allerdings skeptisch: "Wie bei vielen Studien im Forschungsbereich wird auch bei der aktuellen Studie nicht vollkommen klar, was eigentlich mit Social Bots gemeint ist und entsprechend gemessen wird." Die Autoren definierten Social Bots als Accounts, die durch Software beziehungsweise "künstliche Intelligenz" statt durch Menschen gesteuert würden. "Tatsächlich könnte es sein", meint Frischlich, "dass die Bot-Entwicklung in den letzten Jahren große Sprünge gemacht hat".

Welche Datensätze der Studie genau zugrunde liegen, bleibt teilweise unklar. Ein Datensatz stammt aus dem französischen Wahlkampf im Jahr 2017. Frischlich sieht das kritisch: "Unsere Studien zeigen, dass bis Oktober 2018 ein Großteil des frei verfügbaren Programmiercodes für Social Bots eher simplere Funktionen - zum Beispiel Links teilen oder Liken - ermöglichte und ausgeklügelte Machine-Learning Algorithmen eher selten waren."

Es sei wenig hilfreich, sich am Verhalten alter Bots zu orientieren, meinen auch die Forscher Adrian Rauchfleisch von der National Taiwan University (NTU) in Taipeh sowie Jonas Kaiser von der Harvard University. "Je älter also die Datenbasis, desto schlechter die Resultate", meinen die Forscher - und verweisen darauf, dass Bots permanent angepasst werden, um einer Sperrung von Twitter zu entgehen. Auch "Pseudo-User", die teilweise auch menschlich betrieben werden - sogenannte Cyborgs, oder Accounts, die nur von Menschen zu Manipulationszwecken gesteuert werden, bleiben weiterhin wahrscheinlich unerkannt", meinen die Experten.

Botometer umstritten

Kritisch sehen sie zudem, dass die neue Untersuchung in wesentlichen Teilen auf Tools wie Botometer basiert. Solche Programme sollen helfen, Bots von realen Personen zu unterscheiden, sind aber bezüglich ihrer Genauigkeit umstritten. "Kürzlich konnten wir zeigen, dass Botometer nur unzuverlässig zwischen Bot und Mensch unterscheiden kann", sagen Rauchfleisch und Kaiser. "So werden viele Menschen als Bots und Bots als Menschen kategorisiert." Diese Unzuverlässigkeit sei noch größer, wenn die Sprache der Tweets nicht Englisch sei.

Letztendlich nütze es ohnehin nur bedingt, Bots zu identifizieren. Frischlich meint, die Frage "bot or not" sei "fast egal". Wichtiger sei es, "hoch aktive Pseudo-User zu erkennen, die ähnliche Inhalte in großer Zahl im Netz verbreiten und damit den Diskurs verzerren - ob es nun Menschen sind oder nicht".

Darstellung: