Das haben manche immer schon geahnt: Für die USA „und den militärisch-industriellen Komplex“ lohne es sich, „einen Krieg mit Russland in Europa anzuzetteln“. Das war ebenso auf Facebook zu lesen wie „Ich habe für jeden Flüchtling eine Kugel“. Viele solche Äußerungen sind in sozialen Netzwerken zu finden. Wenn Facebook, Twitter und Co. als Spiegelbild der Gesellschaft gelten, dann besteht diese aus lauter Spinnern und Hetzern.

Für die ansteigende Flut an Verschwörungstheorien und Hasskommentaren im Netz kann es aber auch eine ganz andere Erklärung geben: Sie stammen gar nicht von echten Menschen. Soziale Roboter, sogenannte Social Bots, verfassen die Texte automatisch. Gesteuert werden sie von bestimmten Interessengruppen oder Unternehmen, oder auch von der Terrororganisation IS.

Das Unheimliche daran: Die Maschinen reagieren mit ihren Kommentaren und Parolen auf aktuelle Ereignisse und greifen aktiv in Debatten ein, indem sie die Texte in Foren und auf den bekanntesten sozialen Plattformen veröffentlichen.

10.000 Twitter-Accounts für 350 Dollar

Ganz sicher ist sich Simon Hegelich bei dem Tweet „Putin plant Krieg gegen die Ukraine noch diesen Monat!“ Der sei höchstwahrscheinlich maschinenproduziert, sagt der 39-jährige Dozent an der Universität Siegen. Hegelich und weitere Forscher wollen in dem Projekt Social Media Forensic (SoMeFo) herausfinden, wie verbreitet das Phänomen ist und wie man Kommentare im Netz als Beiträge entlarven kann, die ein Computer, ein Social Bot verfasst hat. Als dringend notwendig stuft auch das Bundesministerium für Bildung und Forschung so eine Analyse ein und fördert deshalb das Projekt.

Die Social Bots sind zu einem wachsenden Ärgernis geworden: „Die Anzahl an Bots, die in sozialen Netzwerken aktiv sind, nimmt definitiv zu. Zumal das technisch leicht zu realisieren ist und der Einsatz nicht viel kostet: 10.000 gefälschte Twitter-Accounts gibt es schon für 350 Dollar“, sagt Hegelich.

Und das Programm dahinter ist flexibel einsetzbar: „Eines der großen Probleme von Social Bots ist deren Skalierbarkeit. Ist ein Bot für einen Account entwickelt, lässt er sich – mit wenigen Anpassungen – auch für weitere Accounts einsetzen.“

Social Bots machen auch Fehler

Wozu solche Bots in der Lage sind, kann Hegelich am Beispiel einer Software zeigen, die vermutlich ukrainische Ultranationalisten einsetzen: Höchstwahrscheinlich lassen sich ihnen 15.000 Twitter-Profile zuschreiben – die bis zu 60.000 Tweets pro Tag absetzen.

Und die Programme gehen dabei sehr geschickt vor: „Social Bots verhalten sich wie menschliche Nutzer: Sie bekommen mit, wenn ihr Thema bei Twitter gerade hochkocht, und schreiben Texte, die sich darauf beziehen. Die Software kann mit eigenen Kommentaren auch direkt auf Tweets anderer Nutzer antworten, denen sie folgt. Denn auch dazu sind Bots in der Lage: Sie werden automatisch Follower bestimmter Nutzer“, sagt Politikwissenschaftler Hegelich.

Sprachlich sind die Texte von akzeptabler Qualität, sie machen nicht mehr oder weniger Fehler als menschliche Nutzer, die sich in sozialen Netzwerken äußern. Um möglichst seriös zu klingen, kopieren sie zum Teil ganze Sätze aus Lexika oder von Webseiten wissenschaftlicher Institute.

Auch sonst wissen Social Bots ihr Maschinenwesen gut zu verbergen, wie Hegelich anhand der ukrainischen Twitter-Software festgestellt hat: „Die meiste Zeit setzt die Software Tweets mit Sportnews und Links auf illegale Download-Websites ab – das soll ihre Glaubwürdigkeit erhöhen, dass dahinter echte Menschen stecken. Nur ab und an streut der Bot Tweets mit politischen Aussagen ein.“

Metadaten können Social Bots entlarven

Die Wissenschaftler um Projektleiter Hegelich, dessen Forschungskolleg der Universität Siegen mit Forschern des Leibniz-Instituts für Sozialwissenschaften GESIS und der Cologne Business School kooperiert, entwickeln derzeit komplexe Algorithmen, um hinter die Maske der angeblich echten Twitterer und Facebook-Nutzer zu sehen. Zum einen analysieren sie die sogenannten Metadaten.

Daran ist in einigen Fällen zu sehen, dass die Tweets gar nicht vom russischen Facebook-Pendant VK kommen, wie es vorgegaukelt wird, sondern von einem Server, auf dem sich keine echten Menschen anmelden müssen. „Wir entwickeln außerdem gerade einen Algorithmus, der anhand des Profilbilds erkennt, ob es sich um einen menschlichen Nutzer oder einen Social Bot handelt. Die Trefferquote liegt bereits bei über 80 Prozent“, sagt Hegelich.

Tatsächlich haben Betreiber der Bots ein Problem: Für ihre Tausende oder gar Zehntausende gefälschten Twitter-Profile fehlen ihnen ausreichend Fotos realer Menschen. Daher greifen sie auf Comicbilder zurück oder auf Aufnahmen, die sie sich automatisch aus dem Internet zusammensuchen. Das aber kann die Analyse-Software der Wissenschaftler leicht nachvollziehen.

Eine weitere Methode des Entlarvens ist das Datamining, bei dem große Datenbestände mithilfe statistischer Methoden untersucht werden. Ein Ergebnis: Menschliche Twitterer sind vor allem unter der Woche aktiv, Bots – zumindest die schlecht programmierten – sind am Wochenende ebenso rege.

Social-Bot-Betreiber passen Tarnung ständig an

Doch die Social-Bot-Betreiber steuern gegen: Sie lassen ihre Maschinen ebenfalls vermehrt montags bis freitags Kommentare absetzen, und künftig werden sie wohl auch echt aussehende Fotos per Software erschaffen. Oder existierende Bilder werden derart verfremdet, dass keine Software mehr auf ein Original schließen kann. Außerdem greifen die Bot-Betreiber massenhaft auf Datensätze tatsächlich lebender Menschen zu, um sich in deren Namen als Nutzer anzumelden. Die Datensätze gibt es für wenig Geld im Netz zu kaufen.

Ein anderes Beispiel für das Hase-und-Igel-Spiel: Twitter hat Bots daran identifizieren können, dass sie deutlich mehr Nutzern folgen als andere ihnen. Daraufhin haben die Betreiber die Software so umprogrammiert, dass sich die Bots gegenseitig folgen. Danach war das Verhältnis ausgewogen, Twitter fiel die Maskerade nicht mehr auf.

Solche Tricksereien machen den sozialen Netzwerken zu schaffen, schließlich sollen sich die Mitglieder sowie die Unternehmen, die auf den Plattformen werben, darauf verlassen dürfen, dass sie es mit echten Menschen zu tun haben. Daher sperren sie verdächtige Profile und schicken Anfragen, die nur ein Mensch beantworten kann. Erst wenn das geschehen ist, wird die Blockade aufgehoben.

Doch selbst darauf haben sich die Social-Bot-Betreiber eingestellt: Sie haben echte Menschen angestellt, die diese Nachfragen beantworten können. Nach der Entsperrung übernimmt wieder die Software. Hier ist nicht mehr der Computer das Werkzeug, hier wird der Mensch zum Handlanger der Maschine.

Social Bots verzerren Stimmungsbild

Wozu der Irrsinn? In einigen Fällen steckt nüchternes Geschäftsinteresse dahinter. Manche Betreiber wollen durch gezielte Falschinformationen Konkurrenten diskreditieren. Dass schon Börsenkurse durch Twitter-Bots manipuliert worden sind, „ist wahrscheinlich, aber kaum nachzuweisen“, sagt Hegelich. Der IS will mit seinen Tweets Kämpfer rekrutieren und dürfte dazu die Social-Bot-Technik massiv einsetzen.

Von vielen Tausend Bots ist die Rede. Die 5.500 Twitter-Accounts des IS, die die Hackergruppe Anonymous schon attackiert hat, machen da lediglich einen Bruchteil aus. Und auch das ist möglich: Während eines Wahlkampfs in Mexiko, so Hegelich, hätten „ganz offensichtlich“ einige Kandidaten Bots eingesetzt, um Mitbewerbern zu schaden.

Dass Ähnliches schon jetzt oder in Zukunft auch in Deutschland vorkommt, ist wahrscheinlich, konkrete Beispiele aber benennt Hegelich nicht. Für Soziologen und Politikwissenschaftler bringt der massive Einsatz der Manipulationstechnik ein weiteres Problem: „Je mehr Social Bots aktiv sind, desto unsicherer sind unsere Erkenntnisse darüber, welche Themen und Meinungen in sozialen Netzwerken eine bedeutende Rolle spielen. Wir wissen dann nicht, ob sich die Menschen zum Beispiel grundsätzlich vermehrt negativ über Flüchtlinge äußern – oder ob das von einer Software stammt“, sagt Hegelich.

Das könne für Meinungsbildung durchaus entscheidend sein. „Würden die Bots nur anderen Bots folgen, könnte man das als ein Hintergrundrauschen des Webs abtun. Doch zu den Followern gehören auch ganz reale Menschen, die die vom Computer erstellten Texte an ihre Kontakte weiterleiten. Die wiederum schenken den Inhalten großes Vertrauen, da sie ja von einem Bekannten stammen“, gibt Hegelich zu bedenken. „Dadurch könnte es sein, dass ganze Peergroups, also Bezugsgruppen ähnlichen Alters, von einer Meinung infiziert werden.“ Einer Meinung, die allerdings kein Mensch formuliert hat, sondern eine Maschine.

Dieser Text erschien zuerst bei Die Welt.

Bild: Gettyimages/Westend61