© unsplash / Simon Zhu

Social-Media-Manipulation erkennen, Folge 1

Die betrügerischen Fake-Accounts, die dich wütend machen sollen

etwa 10 Min. Lesedauer

Alle Folgen von „Social-Media-Manipulation“:


Denkst du auch manchmal bei einem Account, der häufig in deiner Timeline auftaucht: Irgendetwas stimmt hier nicht. Hat wenig Follower, folgt aber vielen, lebt in irgendeiner großen Stadt, postet fast nichts Persönliches, ist aber bei politisch kontroversen Themen immer ganz vorne mit dabei.

Hör auf dein Bauchgefühl und gehe der Sache auf den Grund. Gerade wenn es dich in den Fingern juckt, du dem Typ gerne mal deine Meinung sagen möchtest oder seine Postings im Prinzip gut findest. Denn es könnte sich gar nicht um einen echten Menschen handeln, sondern um einen sogenannten Fake-Account – ein gefälschtes Social-Media-Profil.

Dass ausgerechnet die KR-Reporterin für Gesundheit über dieses Thema schreibt, hat zwei Gründe. Der erste hat damit zu tun, dass ich in London lebe. So kam es dazu, dass ich am Abend des 20. März 2018 in einem kleinen Raum im Obergeschoss der britischen Journalisten-Vereinigung „Frontline Club“ in der Nähe des Bahnhofs Paddington saß. Es waren circa 100 Menschen da, die meisten wohl Journalisten. Wir saßen dicht gedrängt in einem Raum, der schätzungsweise für 60 Leute ausgelegt ist und hatten das Gefühl, live dabei zu sein, wenn Geschichte geschrieben wird. Auf dem Podium sprach Christopher Wylie, der Cambridge-Analytica-Whistleblower, und erzählte Details zu der Story, die zwei Tage zuvor im Observer erschienen war und in den darauffolgenden Tagen die Facebook-Aktie zum Einstürzen brachte.

Ich werde nie vergessen, wie ich mich gefühlt habe an diesem Abend. Schon monatelang hatte ich auf Twitter gesehen, wie die federführende Journalistin Carole Cadwalladr diese Artikelserie vorbereitet hatte – es lag in der Luft. Diese Geschichte geht seitdem um die Welt, und das Thema falsche Informationen und Desinformationskampagnen lässt mich nicht mehr los. Ich sehe, wie groß das Problem auch im Gesundheitsbereich ist. Das ist der zweite Grund, weshalb mich dieses Phänomen interessiert.

Forscher gehen davon aus, dass auf Twitter 15 Prozent aller englischsprachigen Accounts Fake sind und auf Facebook 10 Prozent. Diese Accounts gibt es nicht deshalb, weil gelangweilte IT-Entwickler vermeintlich so gerne ferngesteuerte Social-Media-Profile betreiben. Sie erfüllen einen anderen Zweck. Sie sollen dich dazu verleiten, ihre Themen und Ansichten zu verbreiten – auch wenn du das selbst eigentlich gar nicht willst. Das gelingt ihnen dann besonders gut, wenn du wütend wirst.

In diesem und den nächsten Texten beschreibe ich, warum diese Falle so gut funktioniert und welche Möglichkeiten du hast, Fake-Accounts zu erkennen, um nicht selbst in diese Falle zu tappen.

Leider gibt es dabei nicht den einen Schnellcheck, der dich zuverlässig warnt. Aber ein paar aufschlussreiche Indizien gibt es schon. Kommen mehrere davon zusammen, ist es wahrscheinlich ein Fake-Account.

Bevor wir uns in die Details stürzen und ich dir in den nächsten Texten Fragen zeige, mit denen du leichter erkennen kannst, ob du es mit einem Menschen oder einer Maschine zu tun hast, sollten wir uns zuerst die Mechanismen anschauen, mit denen Fake-Accounts versuchen, Einfluss zu nehmen. Wer die versteht, kann leichter verdächtige Accounts erkennen und überprüfen. Dabei gilt aber: Nicht alle Fake-Accounts schaden der Debattenkultur. Die problematische Gattung heißt Trollbots.

So funktioniert das Trollbot-Ökosystem

Viele der bei Triggerworten ausschwärmenden Accounts, die man früher Trolle nannte, sind nicht echt. Das heißt, dahinter steckt entweder gar kein Mensch, sondern ein maschinell betriebener Account: ein Bot. Oder ein Mensch, der unzählige Accounts dieser Art betreibt. In diesem Fall sind die Accounts manchmal halbautomatisch, das heißt, sie posten zu bestimmten Zeiten mithilfe eines Algorithmus, und in anderen Zeiten sitzt ein Mensch am Desktop. Sie versuchen, den Aufmerksamkeitsgrad, den du genießt (beziehungsweise über den du fluchst) auszunutzen, um ihre eigene Agenda zu verbreiten. Sehr häufig ist diese Agenda politisch rechts – jedoch nicht immer –, besteht aus irreführender oder falscher Information (Misinformation) und ist Teil einer Desinformationskampagne.

Bots sind nicht per se problematisch. Es gibt viele Anwendungen, in denen sie sinnvolle Aufgaben erfüllen oder den Service eines Unternehmens verbessern können. Gregor Weichbrodt beschreibt hier, was man über Bots wissen muss, über die bösen – und die guten.

Warum nutzen vor allem solche Akteure gefälschte Accounts? Weil sie sonst keine Öffentlichkeit bekommen würden. Bevor es Social Media gab, mussten sie sich mühsam an den „Gatekeepern“ (Torwächtern) der traditionellen Medien vorbei arbeiten, um Aufmerksamkeit auf ihre Themen und Sichtweisen zu legen. Jetzt können sie einfach eine der effektivsten Werbeplattformen nutzen, die es jemals gab, um jede Zielgruppe anzusprechen, die sie sich vorstellen können. Es wäre nicht übertrieben zu sagen, dass sie dadurch oft viel effektiver sind als die alten Medien. Mehr darüber erfahrt ihr auch in diesem Podcast (Danke an Sebastian Esser für den Tipp).

Philip Kreißel, Mitautor der Studie Hass auf Knopfdruck sagt: „Die rechten Troll-Accounts sind um ein Vielfaches aktiver als normale Social-Media-Nutzer und suggerieren dadurch, dass man es mit einer gigantischen Bewegung zu tun habe. Das ist besonders dann problematisch, wenn Medien und Politiker diese Stimmungen aufgreifen.“ Dann entsteht ein sogenannter Feedback-Loop: ein sich selbst nährender Kreislauf, der Postings aus dem Internet in die herkömmlichen Medien hebt und von dort wieder zurück auf die sozialen Plattformen. So kann der Eindruck entstehen, eine Nachricht sei relevant, obwohl sie es gar nicht ist.

Dieses Video erklärt (auf Englisch) sehr gut das Problem des Feedback-Loops.

Die Trollbots heizen die Debatte auf

Früher hieß der Rat „Don’t feed the Troll!“ (Füttere den Troll nicht!). Doch was sollst du damit anfangen, wenn du erstens nicht so leicht erkennst, wann es sich um einen unechten Account handelt, und wann ein echter Mensch dahintersteckt? Und wenn du zweitens so überrannt wirst, dass du dich wehren willst? Ja, dich wehren musst, um nicht den Verstand zu verlieren?

Warum ist das Ziel der Trollbots, dich wütend zu machen? Das hat zwei Gründe, die sich gegenseitig verstärken.

  1. Menschen posten, teilen, liken mehr in sozialen Netzwerken, wenn sie starke Gefühle zu einem bestimmten Thema haben. Wer sich über etwas sehr freut oder extrem aufregt, will anderen davon erzählen. Viele Menschen haben sich dabei angewöhnt, viel schneller, öfter und lauter über Dinge zu reden, die wir kritisieren. Über Schönes zu reden, wird ja gerne schnell mal als oberflächlich und weltfremd hingestellt. Wer hingegen Kritik übt, gilt als jemand, der die Dinge gut durchschaut. Deshalb wird kritischen Menschen erst einmal unterstellt, sie durchschauten das gut, was sie kritisieren. Das führt dazu, dass wir uns weniger stark zurückhalten, unseren Unmut in die Welt zu posaunen, wenn wir uns über etwas aufregen. Und das ist auch der Grund, warum es in sozialen Medien häufiger um Missstände geht, schlimme Erfahrungen und Dinge die uns aufregen, statt um Positives und Stimmungsmacher.

Viele gute Nachrichten findest du übrigens in der KR-Facebook-Gruppe „Lösungen hat die Welt“.

  1. Wenn du mit starken Gefühlen bei Facebook oder Twitter postest, setzt du mehr Postings ab, als wenn dich das Thema kalt lässt. Der Algorithmus sozialer Netzwerke ist so konstruiert, dass die Themen, die viel Aufmerksamkeit erregen, noch mehr Menschen vorgesetzt werden: Sie erscheinen in den Twitter-Trends oder werden öfter in deinen Facebook-Newsfeed gespült. Welche Themen dir angezeigt werden, hängt auch davon ab, was deine Freunde machen. Allerdings bewertet der Algorithmus nicht, sortiert nicht automatisch moralisch zweifelhafte oder strafbare Inhalte aus. Er verstärkt das, was erfolgreich ist, weil es den Traffic hochtreibt. Denn soziale Plattformen sind Wirtschaftsunternehmen, die Geld verdienen müssen. Viel Traffic heißt: Erfolgreich! Trollbots erfüllen in dieser Logik eine wichtige Funktion: Sie schaffen es besser als richtige Menschen, viel Traffic zu erzeugen.

Warum der Medienkreislauf vor allem durch Angst und Wut am Laufen gehalten wird, erklärt KR-Autor Tobias Rose-Stockwell in diesem Text ausführlich.

Die Trollbots bedienen sich orchestrierter Aktionen

Ben Nimmo, ein amerikanischer Wissenschaftler, der zu den Themen strategische Kommunikation forscht und das Digital Forensic Research Lab des Atlantic Council leitet, teilt die Fake-Accounts, die Teil einer Desinformationskampagne sind, in drei Gruppen ein: Schäfer, Schäferhunde und Schafe.

  • Schäfer sind sehr aktive Accounts mit einer hohen Zahl an Followern, meistens echte Menschen. Sie stoßen die Kampagne an, indem sie ein Thema vorgeben, das es bis in die Trends schaffen soll, oder indem sie einen Ziel-Account markieren, der attackiert werden soll.

  • Schäferhunde sind auch meistens echte Menschen, die das Narrativ verbreiten helfen und den Eindruck erwecken sollen, dass es sich um eine echte Bewegung handelt und nicht um eine künstlich erzeugte Aufregung.

  • Sobald ein gewisses Maß an Aufmerksamkeit erreicht ist, werden die Schafe reingetrieben: Das sind Bots, die jetzt im großen Stil liken und teilen. Oft haben sie nur wenige Follower, noch dazu sind diese Follower oft wiederum Bots. Deshalb wird ihr Einfluss auch gerne unterschätzt. Ihre Macht besteht darin, dass sie viele sind – oft Tausende –, und dass sie ein riesiges Netzwerk bilden, sodass sie den Eindruck erwecken können, ein Thema sei relevant. Die Algorithmen von Twitter und Facebook lassen sich dadurch allemal beeindrucken.

Ein Beispiel für solch eine orchestrierte Aktion sind die Attacken von „Reconquista Germanica“. Mithilfe von Hashtags wie #Merkelmussweg und #TraudichDeutschland haben sie sehr erfolgreich im Bundestagswahlkampf 2017 Stimmung gemacht. Hier beschreibt der Faktenfinder der Tagesschau, wie das Netzwerk dabei vorgegangen ist. Man erkennt dabei sehr gut die Struktur, in der Meinungsführer die Themen anstoßen und die Welle mithilfe von halbautomatisierten Accounts und Bots ins Rollen bringen.

Jonathan Albright, der leitende Forscher am Tow Center for Digital Journalism der Universität Columbia, hat festgestellt, dass sich Fake-Accounts im Netz wie Unternehmen verhalten: Sie tracken, welche Postings Aufmerksamkeit bekommen, um daran anzuknüpfen, sie nutzen Management-Tools, um ihre eigenen Postings vorzuplanen, und Analyse-Tools, die bei Spammern beliebt sind. Er sagt: „Sie sehen die Geschichten, die in den Trends ganz oben sind, sie kriegen mit, worüber sich die Leute aufregen, und nutzen das, um ihr eigenes politisches Narrativ zu framen.“ (Frame = Einordnung in ein Deutungsraster.)

Tools zum Erkennen von Fake-Accounts liefern manchmal falsche Ergebnisse

Zwar gibt es einige Online-Tools, die dir beim Aufspüren von Fake-Accounts gute Dienste leisten können, aber sie liefern nicht immer eindeutige Ergebnisse. Welche Kriterien sie für ihre Bewertung nutzen, ist nicht transparent. So hält mich beispielsweise der OpenSource-Bot-Checker {TweetBotOrNot} mit einer Wahrscheinlichkeit von 91 Prozent für einen Bot.

Aber der Bot-Checker BotSentinel ermittelt dafür nur eine Wahrscheinlichkeit von 3 Prozent.

Die Website Scot or Bot, die auf Initiative des schottischen Europa-Abgeordneten Alyn Smith entstanden ist, listet neben diesen beiden Tools noch vier weitere auf – darunter das des deutschen Twitter-Analysten Luca Hammer – und empfiehlt, mehrere zu nutzen, um die Echtheit eines Accounts zu überprüfen.

Erste Hilfe finden und die Strategie der Plattformen durchschauen

Wenn du auf einen Fake-Account stößt, solltest du ihn melden, damit ihn die Plattformen überprüfen können. Zumindest Twitter bezieht in seine Analysen auch mit ein, wie oft ein Account von anderen Nutzern geblockt wird. Wenn du also einen Fake-Account dort entdeckt hast, blocke ihn. Das hilft.

Twitter und Facebook müssen nach dem Netzwerk-Durchsetzungsgesetz auch selbst dafür sorgen, dass auf ihren Plattformen keine strafrechtlich relevanten Inhalte stehen. Sie versuchen dies durch Algorithmen hinzubekommen. Aber da sie mit ähnlichen Kriterien arbeiten wie du, wenn du diese Liste benutzt, kannst du dir sicher vorstellen, wie fehleranfällig diese automatisierten Systeme sind.

Wichtig ist, dass wir alle unser Posting-Verhalten überprüfen: Langsamer twittern, weniger schnell Leuten folgen, nicht über jedes Stöckchen springen, das hingehalten wird, den Inhalt prüfen, bevor wir ihn verbreiten. Solches Verhalten zählt zu einer „gesunden“ Gesprächskultur. Da ist es nicht so tragisch, wenn man mal nicht einer Meinung ist. Streit gehört schließlich dazu. Aber es gibt auch Kriterien für guten Streit, und die beherrschen die Fake-Accounts alle nicht. Das ist das, was Menschen auszeichnet: respektvoller Umgang miteinander – online und offline.


Hier geht es zu Folge 2 meiner Serie: 10 Fragen, mit denen du einen Fake-Account auf Twitter erkennst.

Desinformationskampagnen und Misinformation sind auch ein großes Problem bei Medizin- und Gesundheitsthemen.

Redaktion: Rico Grimm; Schlussredaktion: Vera Fröhlich; Fotoredaktion: Martin Gommel.