© Getty Images / StudioM1

Diese Denkfehler spalten unsere Gesellschaft

Autorinnen des Artikels
etwa 15 Min. Lesedauer

Einer der besten Sätze, die ich in letzter Zeit gehört habe, ist: „Wir brauchen Menschen, die die Welt verstehen – und sich selbst.“ Gesagt hat ihn der Neurowissenschaftler und Philosoph Sam Harris in seinem Podcast. Ich finde, das ist eine wunderbare Aussage. Weil sie etwas Bedeutsames auf den Punkt bringt. Es ist offensichtlich wichtig, die Strukturen der Welt zu verstehen, also wirtschaftliche und politische Zusammenhänge etwa. Deswegen nehmen diese Themen auch sehr viel Platz in unserer Wahrnehmung ein. Die inneren Strukturen der Menschen hingegen, wie also zum Beispiel unser Denken funktioniert und warum wir die Welt so sehen, wie wir es tun, finden weniger Beachtung. Zumindest, solange wir okay funktionieren, also nicht gerade unter einer psychischen Krankheit leiden.

Ich pauschalisiere, zugegeben. Das tue ich, weil ich etwas Wucht hinter meine nächsten Sätze bringen möchte. Denn ich glaube wirklich, dass uns selbst zu verstehen nicht optional ist. Das ist kein nettes Hobby für Selbstverwirklicher:innen mit zu viel Zeit und zu wenig echten Problemen. Sondern eine der wichtigsten Aufgaben, die wir uns vornehmen können. Weil eben nicht nur unser persönliches Glück davon abhängt, sondern auch die Frage, wie wir als Menschen miteinander klarkommen und als Gesellschaften funktionieren.

Jeder, der diese Zeilen liest und nicht die letzten zehn Jahre ohne Internetanschluss im Wald gelebt hat (eine schöne Vorstellung), weiß, dass unser Denken Schwachstellen hat und empfänglich für Falschinformationen und Manipulation ist. Diese Schwachstellen haben nicht nur Leute, die glauben, dass wir von geheimen Mächten hinter Politik und Medien regiert werden oder einander auf Telegram fragwürdige Belege für die „Plandemie“ schicken. Diese Denkfehler machen wir alle, auch du und ich. Und es ist wichtig, sie zu kennen, weil sie dazu beitragen, dass selbst Freund:innen bei wichtigen Themen nicht mehr zueinander finden und Gesellschaften sich spalten. Sie waren Mitschuld daran, dass im Jahr 1956 Menschen in einem Chicagoer Vorgarten auf Aliens warteten (dazu komme ich noch), und sich auch 2021 Corona-Leugner:innen von Fakten kaum überzeugen lassen.

Wir würgen schlechtes Essen runter und schicken Soldat:innen in sinnlose Kriege

Deswegen geht es in diesem Text um vier dieser Schwachstellen, ich nenne sie meine Lieblinge unter den Denkfallen. Der Fachbegriff ist weniger zärtlich, er lautet „kognitive Fehler“. Diese Fehler passieren ständig, wenn wir Informationen verarbeiten. Das ist deswegen so relevant, weil die Welt von Menschen in vieler Hinsicht aus Informationen besteht. „Die natürliche Umgebung des Menschen, wie das Meer für Delfine oder das Eis für Eisbären, besteht aus Informationen, die von anderen zur Verfügung gestellt werden“, schreibt der Psychologe Pascal Boyer in „Minds Make Societies: How Cognition Explains the World Humans Create“. Kognitive Fehler (man spricht auch von Verzerrungen) sind Abkürzungen, die das Gehirn nimmt, damit wir komplexe Informationen schnell verarbeiten können. Das ist nicht immer schlecht, weil sie uns zum Beispiel helfen, wenn wir vor einem Regal mit dreißig Joghurtsorten stehen: Wir müssen sie nicht alle einzeln betrachten, sondern können uns an den erinnern, der beim letzten Mal geschmeckt hat. Aber sie können auch auf eine sehr problematische Weise dafür sorgen, dass wir die Realität verzerrt wahrnehmen, was wiederum unser Verhalten beeinflusst.

Aus dem „Dorsch“, Lexikon der Psychologie:
kognitive Fehler (kogn. F.) [engl. cognitive bias/error/fallacy], [EM, FSE, KOG, SOZ, WIR], kogn. F. liegen vor, wenn aufgrund der Informationsverarbeitung (Wahrnehmung, Aufmerksamkeit, Emotionen, Motivation, Handlungsregulation, Verhaltenskontrolle) Eigenschaften der zu verarbeitenden Information systemat. verzerrt verstanden bzw. mental repräsentiert werden, und diese ggf. fehlerhafte oder suboptimale Entscheidungen oder Handlungen forcieren. Kogn. F. werden insbes. in Bezug auf Wahrnehmung (insbes. Personwahrnehmung), diagn. Aspekte (Beurteilungsfehler, response set), Denken (Gedankenfehler, Rationalität), Entscheidungen (Entscheidungsheuristiken, Entscheiden unter Unsicherheit, Heuristik, heuristische Regeln) und Verhaltenssteuerung systemat. beforscht.

Ich nenne diese vier Fehler nicht deswegen meine Lieblinge, weil sie niedlich sind – sie richten sogar sehr viel Schaden in der Welt an – sondern weil so vieles klarer wird, wenn man sie kennt. Ich habe mich beim Verstehen dieser Denkfallen nicht nur oft selbst ertappt gefühlt, ich habe auch verstanden, warum es so schwierig sein kann, bei wichtigen Themen unserer Zeit zueinander zu finden.

Andere Effekte sind bedeutsamer wie das Sunk-Cost-Thinking: Es sorgt dafür, dass wir den Teller im Restaurant leer essen, auch wenn das Essen nicht schmeckt, weil wir nun mal dafür bezahlt haben. Aber auch dafür, dass Politiker:innen Soldat:innen in einen bereits hoffnungslosen Krieg schicken. Der Endowment-Effekt wiederum – die Tatsache, dass Menschen Besitz überproportional wichtig finden – ist ein besonderes Merkmal von Menschen in westlichen Kulturen, wie ich auch in diesem Text beschrieben habe.

Der Wahrheitseffekt: Je öfter wir eine Information hören, desto eher glauben wir sie

Wie hieß nochmal der knielange Rock, den schottische Männer manchmal tragen? Die Forscherin Lisa Fazio von der Vanderbilt University in Nashville
fand heraus, dass selbst Menschen, die den Kilt korrekt benannt hatten, an der Bezeichnung zweifelten, wenn man ihnen mehrmals sagte, der Kilt hieße in Wirklichkeit Sari. Das ist der Wahrheitseffekt. Je öfter Menschen eine bestimmte Information hören, desto eher sind sie geneigt, sie für wahr zu halten.

Forscher:innen untersuchen den Wahrheitseffekt seit Jahrzehnten. In Experimenten werden Teilnehmer:innen dabei oft Aussagen gezeigt, die sie als falsch oder wahr bewerten sollen (die erste große solche Studie gab es 1977). Einige Zeit später wiederholen sie die Aufgabe. Dabei bekommen die Teilnehmer:innen sowohl neue Aussagen zu sehen, als auch solche, die im Test davor bereits vorkamen. Immer wieder hat sich gezeigt, dass Teilnehmer:innen Falschaussagen, die sie schon einmal gesehen hatten, eher für wahr hielten. Und zwar selbst dann, wenn sie anderslautendes korrektes Wissen hatten, wie diese Studie gezeigt hat.

Das gilt nicht nur für Schottenröcke. Populistische Politiker:innen behaupten immer wieder Dinge, die offensichtlich falsch sind, und das hat Methode. Je öfter wir etwa hören, dass alle Geflüchteten potenziell gefährliche Straftäter:innen sind, desto plausibler scheint es. Sprache beeinflusst, welche Meinung Menschen sich bilden und wie sie handeln, wie mein Kollege Bent Freiwald in diesem Text beschreibt. Wir gewöhnen uns an eine Geschichte, und das erzeugt die Illusion von Wahrheit. Das gilt selbst für Dinge, die wir für unwahrscheinlich halten. „Viel Wasser trinken hilft gegen Coronaviren“ und ähnliche Mythen verbreiten sich nach genau diesem Prinzip.

Unter allen Menschen wird nur ein kleiner Teil straffällig, das gilt auch für Geflüchtete. Aber sie bekommen eine große öffentliche Aufmerksamkeit. Zwar stimmt es, dass Zuwanderer:innen laut Bundeskriminalamt häufiger mit Straftaten auffallen („Zuwanderer:innen“ sind in diesem Kontext vor allem Geflüchtete und Asylbewerber:innen). Den größten Anteil machen dabei Vermögens- und Fälschungsdelikte aus, gefolgt von sogenannten Rohheitsdelikten wie Körperverletzung und Raub und Straftaten gegen die persönliche Freiheit. Bei letzterem sind Zuwanderer:innen übrigens auch in jedem zweiten Fall die Opfer.

Die Gründe für den höheren Anteil von Straftäter:innen sind vielfältig und haben zum Beispiel mit einer unterschiedlichen Alters- und Geschlechtszusammensetzung zu tun. Auch belastende Lebensumstände und -erfahrungen und unsichere Zukunftsaussichten tragen dazu bei, dass Menschen anfälliger für Straftaten werden. Ausländische Straftäter:innen tauchen außerdem häufiger in der Statistik auf, weil sie häufiger angezeigt werden. Weitere Hintergründe und Statistiken zu diesem Thema findest du in diesem Faktencheck und, mit etwas aktuelleren Zahlen, in diesem Bericht des BKA.

Soziale Medien sind der perfekte Nährboden für den Wahrheitseffekt, weil er davon abhängt, dass Informationen immer wieder wiederholt und verteilt werden. Wusstest du etwa, dass Trumps Ex-Vizepräsident Mike Pence von sich selbst sagt, eine Umerziehungstherapie habe ihn von seiner Homosexualität „geheilt “und seine Ehe gerettet? Hoffentlich nicht, denn das ist komplett falsch. In dieser Studie sollten die Teilnehmer:innen Überschriften als wahr oder falsch beurteilen, die wie Facebook-Posts aussahen. Die Forscher:innen stellten fest: Wenn die Teilnehmer:innen eine Überschrift schon einmal gesehen hatten, nahmen sie eher an, dass der Inhalt stimmte, inklusive der über Mike Pences Ehe.

Warnlabel, wie sie Twitter und Facebook in letzter Zeit zunehmend an Falschmeldungen heften, haben leider nur eine geringe Wirkungen. Laut dieser Studie empfinden Teilnehmer:innen selbst mit Warnhinweisen versehene Meldungen als „wahrer“, wenn sie diese mehrmals zu sehen bekommen. Der Schaden, den der Anblick einer Falschmeldung anrichtet, ist also größer als das, was die Korrektur reparieren kann.

Wenn die Teilnehmer:innen eine Fake-Überschrift schon gesehen hatten, stieg der Anteil derer, die sie für wahr hielten, von 5 auf 10 Prozent. Das klingt nicht viel, aber wenn man das auf eine Bevölkerung hochrechnet, sind das Millionen von Menschen. Das ist bedeutsam, erst recht, wenn es nicht um die Ehe eines US-Vizepräsidenten geht sondern, sagen wir, um Falschmeldungen über die Nebenwirkungen von Impfungen.

Einen Lichtblick hat die Sache doch: Vollkommenen Blödsinn akzeptierte niemand in der Studie. Die Aussage „Die Erde ist ein Quadrat“ fand auch bei Wiederholung keine Zustimmung.

Übrigens sind wir alle anfällig für den Wahrheitseffekt, auch wenn wir uns für besonders rational halten. Forscher:innen fanden heraus, dass die Wirkung des Wahrheitseffekts nichts mit unterschiedlichen kognitiven Stilen zu tun, es ist also egal, ob Personen eher zu analytischem oder intuitivem Denken neigen. Mehr dazu hier.

Der Negativitäts-Effekt – oder warum wir eine Vorliebe für schlechte Nachrichten haben

Ich muss dir kaum erzählen, dass der größte Teil der Meldungen in den Nachrichten negativ ist. Daran sind wir gewöhnt. Warum eigentlich? Es gibt eine einfache Erklärung. Und zwar nicht, dass Medienmacher:innen furchtbare Pessimist:innen sind. Sondern, dass Menschen generell auf negative Reize stärker achten. Wir haben also keinen ausgewogenen Blick auf die Welt, sondern schauen besonders stark auf ihre Schatten. Das ist der Negativitäts-Effekt.

Diese Übersichtsarbeit von 2009 ist ein guter Beleg für den Negativitäts-Effekt.

Möglicherweise gibt es evolutionäre Gründe dafür, dass wir auf negative Reize stärker reagieren: Als Menschen in der Wildnis überleben mussten, war es wichtiger, schnell auf Gefahren zu reagieren, als in der Betrachtung eines schönen Sonnenuntergang zu versinken. Aus Survival-Sicht ist der Negativitätseffekt also nützlich. Im Leben von modernen Menschen, die ihr Mittagessen nicht im Wald jagen, sorgt er für Probleme. Hinter dem Büroschrank lautert eher selten ein Tiger. Die verstärkte Aufmerksamkeit für negative Dinge sorgt stattdessen heute dafür, dass wir uns an die Kritik von Kolleg:innen stärker erinnern als an Komplimente, dass wir aus einer hässlichen Trennung mehr Schlüsse über die Liebe ziehen als aus den schönen Zeiten davor – und natürlich dafür, dass wir schlimme Nachrichten gieriger anklicken als freundliche Meldungen.

Das ist ein Effekt, der sich außerdem noch selbst verstärkt: Denn je mehr Aufmerksamkeit wir einer Erfahrung oder einem Reiz geben, desto wahrscheinlicher erinnern wir uns daran und handeln danach. Und es ist schwer, die negative Wirkung zu kontern. Der Psychologe Jonathan Haidt schreibt in seinem Buch „The Happiness Hypothesis“, dass wir in einer Beziehungen mindestens fünf gute, konstruktive Dinge tun müssen, um den Schaden einer destruktiven Handlung wiedergutzumachen.

Der Negativitäts-Effekt wirkt übrigens kulturübergreifend: Diese Studie hat Teilnehmer:innen aus siebzehn Ländern Videos gezeigt und ihre Reaktionen gemessen. Immer war die Wirkung der negativen Nachrichten stärker. Schade, oder? Meine Kollegin Esther Göbel hat eine ganze Serie darüber geschrieben, dass die Welt besser ist, als wir meinen.

Der Bestätigungsfehler – oder warum du immer Recht hast

Ich habe vergangene Woche mal in mein Jahreshoroskop geschaut: Uranus bestimmt offenbar die wichtigen Themen dieses Jahr für mich und „der ist ja immer für Wirbel gut“, steht da. Das Wochenende danach war definitiv eine Achterbahnfahrt der Gefühle. War vielleicht Uranus, der Schlingel, Schuld daran? Ich lese außerdem, Skorpione wie ich seien „sehr intensiv und wollen das Leben hautnah spüren“. Trifft natürlich auch total zu.

Das ist ein gutes Beispiel für einen Bestätigungsfehler: Er bringt uns dazu, Informationen stärker wahrzunehmen oder zu suchen, die bestätigen, was wir ohnehin vermuten. Informationen wiederum, die nicht zu der Vermutung passen, übersehen oder ignorieren wir. Wenn ich also von mir denke (oder denken möchte), dass ich ein intensiv lebender Mensch bin, werde ich mein Horoskop erstaunlich zutreffend finden. Womöglich sogar dann, wenn ich eigentlich nicht daran glaube.

Eine klassische Bestätigungsfehler-Studie stammt von Forscher:innen der Universität Stanford im Jahr 1979. Die Forscher:innen brachten zwei Gruppen von Teilnehmer:innen zusammen: Eine, die für die Todesstrafe und eine, die dagegen war. Beide Gruppen lasen zwei Studien. Eine davon bestätigte die abschreckende Wirkung der Todesstrafe, die andere widerlegte sie. Die Forscher:innen fanden heraus, dass die die Befürworter und Gegner der Todesstrafe die Studien, die ihren Standpunkt bestätigten, höher bewerteten als die Studien, die ihren Standpunkt nicht bestätigten. Offenbar, folgerten die Autor:innen „können Menschen mit gegensätzlichen Ansichten jeweils Unterstützung für diese Ansichten in demselben Korpus von Beweisen finden.“

Das ist kein echtes Problem, solange wir über Sternzeichen reden. In politischen Diskussionen aber wird aus diesem kleinen, feinen Denkfehler ein Spalter. Er sorgt dafür, dass Expert:innen weiße Haare kriegen und lässt Kommentarspalten zu brodelnden Schlünden werden. Denn der Bestätigungsfehler verhindert, dass Menschen ihre Überzeugungen im Lichte neuer Informationen ändern. Er sorgt dafür, dass in Diskussionen jede Seite auf ihrem Recht beharrt und nicht zulassen kann, dass die andere Seite mit irgendetwas Recht hat. Das hat – unter anderem – viele Corona-Debatten in den letzten Monaten so zermürbend gemacht.

Sagen wir, dein bester Freund hat Zweifel daran, dass Maskentragen sinnvoll ist. Selbst wenn du ihm die Fakten, die dafür sprechen, ganz klar darlegst, wird es schwer sein, ihn zu überzeugen, sofern er bereits eine feste Meinung hat. Denn der Bestätigungsfehler sorgt dafür, dass dein Freund die Informationen, die seiner Meinung widersprechen, gar nicht erst aufnimmt. Oder sich falsch daran erinnert. Der Bestätigungsfehler ist der Erzfeind der Fakten, denn seinetwegen könnt ihr beide die gleichen Informationen sehen und sie unterschiedlich wahrnehmen.

Übrigens: Um den Bestätigungsfehler zu verhindern, oder ihn zumindest zu entkräften, ist es beim wissenschaftlichen Arbeiten üblich, nicht einfach nur Beweise für eine Annahme zu suchen. Sondern nach Möglichkeiten, sie zu widerlegen.

Kognitive Dissonanz – oder warum Widersprüche wehtun

Um vier Uhr nachmittags am 17. Dezember 1954 sammelten sich die Gläubigen in Chicago, im Garten des Hauses von Dorothy Martin, auch Schwester Thedra genannt. Martin hatte prophezeit, dass die Welt bald in einer Flut untergehen würde. Zum Glück würden aber Aliens sie selbst und ihre Anhänger:innen vorher abholen, das hätten sie ihr versprochen. Als sich jedoch an jenem Nachmittag nach zehn Minuten keine fliegende Untertasse zeigte, ging Martin abrupt zurück ins Haus. Der Rest der Gruppe folgte allmählich. Aber nicht, um zu hinterfragen, ob Martin überhaupt mit Aliens kommunizieren konnte. Sondern um Gründe zu finden, warum die Außerirdischen den Termin verpasst hatten.

Die Geschichte um Martin und ihren Kult hat der Sozialpsychologe Leon Festinger in dem Buch „When Prophecy Fails“ beschrieben. Festinger hat darin den wahrscheinlich berühmtesten kognitiven Fehler aufgezeigt, die „kognitive Dissonanz“. Es ist das Unbehagen, das Menschen fühlen, wenn neue Informationen mit bereits vorhandenen in Konflikt geraten. In diesem Zustand können Menschen zwei Dinge tun: Sie können ihre Überzeugungen ändern und an die Realität anpassen. Oder sie können die neuen Informationen so interpretieren, dass sie bei ihrer ursprünglichen Überzeugen bleiben können.

Nehmen wir die Anhänger:innen des QAnon-Verschwörungskults, die noch am Tag von Joe Bidens Amtseinsführung darauf warteten, dass Ex-Präsident Donald Trump Massenverhaftungen und militärische Tribunale für führende Demokrat:innen anordnen würde. Als das nicht passierte, passten manche Verschwörer:innen ihre Ideen einfach an: Sie glauben nun, dass Trump einfach hinter den Kulissen weiterregiert.

„Ein Mensch mit Überzeugungen lässt sich nur schwer ändern“, schrieb Festinger. „Sagen Sie ihm, dass Sie anderer Meinung sind, und er wendet sich ab. Zeigen Sie ihm Fakten oder Zahlen und er stellt Ihre Quellen in Frage. Appellieren Sie an die Logik, und er sieht Ihren Standpunkt nicht ein... Angenommen, ihm werden Beweise vorgelegt, eindeutige und unbestreitbare Beweise, dass sein Glaube falsch ist: Was wird passieren? Der Einzelne wird häufig nicht nur unerschüttert, sondern sogar noch überzeugter von der Wahrheit seiner Überzeugungen sein als je zuvor.“

Geschrieben hat er das 1956. Kognitive Dissonanz war also schon vor fast 70 Jahren ein Problem, ganz ohne Internet. Das kann man alarmierend finden – oder auch beruhigend (je nachdem, was man ohnehin schon denkt).

Wir sind nicht alle verkappte Querdenker:innen

Diese vier Fehler zu kennen, macht mich demütig. Ich stelle seitdem meine eigene Perspektive öfter infrage. Aber können wir uns die Fehler vielleicht auch abgewöhnen? Der Nobelpreisträger Daniel Kahnemann ist da eher pessimistisch. Am Ende seines berühmten Buchs „Thinking, Fast and Slow“ (Deutsch: „Schnelles Denken, langsames Denken“) schreibt der Psychologe: „Wir alle hätten gerne eine Warnglocke, die immer dann läutet, wenn wir im Begriff sind, einen schwerwiegenden Fehler zu begehen, aber eine solche Glocke gibt es nicht (...) Die Stimme der Vernunft mag viel leiser sein als die laute und deutliche Stimme einer fehlerhaften Intuition. “

Besonders kluge und informierte Menschen sind dagegen übrigens nicht besser gefeit. Sie sind allerdings besser darin, ihre verzerrte Wahrnehmung schlau zu belegen.

Das heißt aber nicht, dass wir alle verkappte Querdenker:innen sind. Es macht auch einen Unterschied, ob man unbewusst seine Meinung immer wieder bestätigt, oder glaubt, dass führende Politiker:innen Echsenmenschen sind. Ob man die Dinge etwas verzerrt wahrnimmt, oder in einer komplett ausgedachten Realität lebt, in der alle Fakten des Lebens wandelbar sind. Wie Angela Merkel in dieser Rede sagte: „Ich habe mich in der DDR für das Physikstudium entschieden (...), weil ich ganz sicher war, dass man vieles außer Kraft setzen kann, aber die Schwerkraft nicht, die Lichtgeschwindigkeit nicht und andere Fakten auch nicht.”

Das effektivste Mittel gegen Denkfehler, glaubt Kahneman übrigens, kommt von außen: Denn andere können unsere Fehler leichter wahrnehmen als wir selbst. Ein guter Grund also, öfter mal andere um Rat zu fragen. Erst recht dann, wenn man eine Verabredung mit Aliens hat.


Redaktion: Bent Freiwald; Schlussredaktion: Belinda Grasnick; Bildredaktion: Till Rimmele; Audio: Iris Hochberger.

Prompt headline