Was Rationalität (nicht) ist

Rationalität – ein Beispiel

Am 26. Dezember 1983 meldete das sowjetische Frühwarnsystem für nukleare Raketenangriffe den Abschuss einer Rakete von den USA aus. Kurz darauf gab das System an, dass vier weitere Raketen unterwegs seien. Stanislav Petrov, der einzige diensthabende Offizier auf der Überwachungsstation, war mit einer schwierigen Entscheidung konfrontiert: Sollte er dem Protokoll entsprechend Alarm auslösen und die Nachricht eines Raketenangriffs direkt an die höchsten Militärkommandeure weiterleiten, wodurch mit einiger Wahrscheinlichkeit ein nuklearer Vergeltungsschlag ausgelöst würde?

Petrov, der seine Entscheidung innerhalb von wenigen Minuten treffen musste, entschied sich, den Vorfall als Fehlalarm zu klassifizieren – obschon es keine technischen Anzeichen dafür gab. Er folgerte für sich, dass ein Angriff der USA höchstwahrscheinlich aus hunderten von Raketen bestehen würde, genügend vielen, um einen möglichen Gegenschlag der Sowjetunion im Kern zu ersticken. Er berücksichtigte zusätzlich, dass das Frühwarnsystem relativ neu war und dadurch fehleranfällig sein könnte.

In der Tat: Das Warnsystem, das eigentlich Interkontinentalraketen in der Atmosphäre aufspüren sollte, reagierte auf Sonnenlicht, das von hochgelegenen Wolken reflektiert wurde. Petrov behielt Recht, und er hatte mit seiner Einschätzung nicht bloß Glück. Er bewahrte einen kühlen Kopf und bemerkte korrekt, dass die Wahrscheinlichkeit, dass ein nuklearer Erstschlag der Amerikaner nur aus wenigen Raketen bestehen würde, sehr gering ist, und dass es vergleichsweise viel wahrscheinlicher ist, dass etwas mit dem neuen Warnsystem nicht wie beabsichtigt funktionierte. Es ist gut möglich, dass Petrovs Rationalität an diesem Tag hunderte Millionen von Leben gerettet hatte.

Missverständnisse: Was Rationalität nicht ist

Richtig verstanden wirkt Rationalität immer zum Vorteil einer Person. Es ist wichtig zu betonen, dass mit dieser Auffassung von Rationalität etwas ganz anderes gemeint ist als das, was die stereotype “rationale Figur” in bekannten Fernsehserien verkörpert.

Man nehme etwa Mr. Spock von Star Trek, der wertend ist, sich nie auf Intuitionen verlässt und dessen emotionaler Zustand immer gleich bleibt: neutral. Oder Sheldon Cooper von The Big Bang Theory, der zugegebenermaßen häufig emotional reagiert, aber scheinbar unfähig ist, Entscheidungen zu fällen, ohne dabei einer komplizierten Berechnung nachzugehen.

Bedeutet rational zu sein etwa, dass man konstant alle Emotionen unterdrücken sollte, wie Spock? Oder dass es nicht erlaubt ist, Intuitionen zu berücksichtigen und Entscheidungen spontan zu fällen? Glücklicherweise folgt weder das eine, noch das andere. Es gibt keine allgemeingültige Regel dazu, wie schnell oder langsam rationale Entscheidungen gefällt werden sollten, oder zu welchem Ausmaß Emotionen das Resultat beeinflussen dürfen. Es kommt immer auf die Situation an, und auf das spezifische Ziel einer Person.

Weil Zeit und Ressourcen limitiert sind, kann es manchmal sehr schlecht für jemanden sein, zu viel Zeit für eine einzige Entscheidung aufzuwenden. Ähnlich verhält es sich mit Emotionen, die uns zwar manchmal in die Irre führen, aber häufig auch nützlich sind. Und für die meisten Menschen – wenn nicht gar für alle – machen zumindest gewisse Emotionen einen wichtigen Aspekt des idealen Lebens aus, von dem man sich auf keinen Fall trennen möchte.

Ein weiteres Missverständnis besteht darin, dass Rationalität mit effizientem Egoismus gleichgesetzt wird. Dies ist unsinnig: Wenn vereinfachte Modelle in der Ökonomie oder der Spieltheorie davon ausgehen, dass Menschen rational sind und diejenigen Optionen wählen, die ihnen den höchsten Nutzen (engl. “utility”) bringen, dann ist “Nutzen” nicht als persönliches Wohlergehen definiert, sondern als die Summe all dessen, was einer Person im Leben wichtig ist – was durchaus auch das Wohlergehen anderer beinhalten kann.

Rationalität ist für alle

Als rationale Person ist es einem erlaubt, Emotionen zu haben/zu zeigen, nett zu sein, Intuitionen zu berücksichtigen und schwer zu quantifizierende Dinge wie Liebe und Glück zu schätzen. Es wäre wahrscheinlich für das Erreichen der meisten Ziele völlig irrational, sich stets kalt zu verhalten, sich nie auf Intuitionen zu verlassen oder sich nur auf quantifizierbare Dinge wie das Geld auf dem Bankkonto zu fokussieren.

Rationalität ist “Ziel-neutral”: Es geht beim rational Sein ums bestmögliche Erreichen eines vorgegebenen Ziels (was auch immer das sein mag). Per definitionem hat jeder ein Interesse daran, rationaler zu werden, weil jeder das eigene Ziel so gut wie möglich erreichen möchte.

Epistemische und instrumentelle Rationalität

Es lassen sich zwei Arten von Rationalität unterscheiden: Epistemische und instrumentelle Rationalität. In der epistemischen Rationalität geht es darum, das treffendste Weltmodell (d.h. wahre Glaubensinhalte) zu finden. Sie beschäftigt sich mit der Frage “Warum glaube ich das, was ich glaube? Sind die Gründe dazu stimmig?”

Instrumentelle Rationalität hingegen liegt zusätzlich auch in der Anwendung und Ausführung dessen, was man weiß. Instrumentell rational zu sein bedeutet, so zu handeln, dass das eigene Ziel bestmöglich erreicht wird. Die zwei Formen der Rationalität sind eng verbunden: Epistemische Rationalität lässt sich als eine Unterform der instrumentellen Rationalität klassifizieren, die auf das Ziel hin angewandt wird, möglichst wahre Überzeugungen zu erlangen. Ähnlich kann die instrumentelle Rationalität als Unterform der epistemischen Rationalität gesehen werden: Bei ihr geht es darum, wahre Überzeugungen darüber zu erlangen, welche Handlungen und Mittel am besten zur eigenen Zielerreichung führen.

Optimale Entscheidungsfindung

Womöglich rührt das Missverständnis, dass Rationalität beispielsweise mit dem roboterhaften Mr. Spock verbunden ist, daher, dass wir uns unrealistische Ziele setzen. Das normative Rationalitätsmodell beschreibt die ideale Art und Weise, Entscheidungen zu treffen. In diesem normativen Rationalitätsmodell spielen Intuitionen keine direkte Rolle. Menschen sind aber weit vom idealen Denken entfernt – deswegen wäre es töricht, die gleichen Entscheidungsprozesse zu verwenden, die ein idealer Denker verwenden würde. Nichtsdestotrotz kann es sinnvoll sein, normative Modelle zu studieren: Sie geben uns ein Verständnis davon, worin Verbesserungen am eigenen Denkprozess bestehen könnten. Das ideale Vorgehen bei der Entscheidungsfindung folgt den Gesetzen der Logik, der Bayesianischen Wahrscheinlichkeitstheorie und der Theorie der rationalen Entscheidung (engl. “rational choice theory”).

  • Logik: Ein rationaler Akteur vermeidet widersprüchliche Überzeugungen und trifft die richtigen Schlüsse aus der zur Verfügung stehenden Information.
  • Bayesianische Wahrscheinlichkeitstheorie: Die Überzeugungen eines rationalen Akteurs sind nie absolut (“Schwarz-Weiß-Denken”), sondern sie kommen mit einer zugehörigen Wahrscheinlichkeit – wie überzeugt man ist, dass die eigene Überzeugung der Wahrheit entspricht. Glaubensgrade sind kohärent und werden dem Bayestheorem nach angepasst, wann immer neue relevante Information hinzukommt.
  • Theorie der rationalen Entscheidung: Ein rationaler Akteur wählt diejenige Option, die in der Erwartung den höchsten Grad an Zielerfüllung (“Nutzen”) mit sich bringt.

Menschen: Systematisch irrational

Es sollte keine Überraschung sein, dass Menschen nicht immer rational entscheiden. Unser Gehirn ist zwar riesig für ein Tier unserer Größe, aber trotzdem fehlt uns die Intelligenz und die Rechenleistung, um basierend auf der verfügbaren Information stets die besten Entscheidungen zu treffen.

Soweit ist die Angelegenheit trivial. Viel interessanter ist hingegen eine Tatsache, die erst in den 1970ern erkannt wurde: Menschen sind nicht bloß irrational, sondern wir sind häufig systematisch irrational. Wir machen die gleiche Art von Fehler wieder und wieder in ähnlichen Situationen. Diese systematischen Abweichungen vom optimalen Denkprozess werden kognitive Verzerrungen (engl. “cognitive biases”) genannt. Einige Beispiele beinhalten:

  • Status quo bias: Wir tendieren dazu, den aktuellen Stand der Dinge zu bevorzugen, selbst wenn wir gute Gründe für spezifische Änderungen hätten. Dies führt zu einer unnötigen Trägheit, durch die uns große Vorteile entgehen.
  • Confirmation bias: Wir tendieren dazu, Evidenz stärker zu gewichten, wenn sie unsere aktuellen Überzeugungen stützt. Zusätzlich verbringen wir mehr Zeit mit der Suche nach Argumenten, die unsere Überzeugungen stützen, als wir Zeit in die Suche nach Gegenargumenten investieren. Dies führt dazu, dass wir unsere Ansichten viel seltener ändern, als wir es rationalerweise tun sollten.
  • Scope insensitivity: Ab einem gewissen Punkt können wir große Zahlen intuitiv nicht mehr gebührend voneinander unterscheiden. Etwas, das Millionen von Menschen betrifft, fühlt sich nicht annähernd tausendmal so wichtig an als etwas, das tausend Menschen betrifft. Dies kann zu gravierenden Fehlern beim Priorisieren führen.

Die vollständige Liste aller kognitiven Verzerrungen ist bedeutend länger.

Die Entdeckung der kognitiven Verzerrungen war revolutionär, weil sie aufzeigte, wie beim menschlichen Denken ein einfach zu realisierendes Verbesserungspotenzial vorhanden ist. Wenn wir auf eine zufällige Art irrational wären, dann hätten wir es schwierig, irgendwas daran zu verbessern – um Fortschritte zu machen, müssten wir das gesamte Gehirn neu entwerfen! Wenn wir jedoch auf vorhersehbare Weise irrational sind, dann können wir lernen, unter welchen Bedingungen die menschliche Entscheidungsfindung genau schief läuft und so Methoden entwickeln, mit denen wir die regelhaften Abweichungen korrigieren können.

Die kognitive Wissenschaft der Rationalität befindet sich noch in den Kinderschuhen, aber es bleibt zu hoffen, dass bald der Tag kommt, an dem das Wissen über kognitive Verzerrungen, und wie wir sie umgehen können, an jeder Bildungsinstitution gelehrt wird.

Warum wir kognitive Verzerrungen haben

Wir haben kognitive Verzerrungen, weil wir noch immer mit steinzeitlichen Gehirnen herumlaufen. Damit wir bei einer Entscheidung nicht ewig lange überlegen, macht sich unser Denkapparat Abkürzungen zunutze, sogenannte Heuristiken, die uns bei Entscheidungen intuitiv in eine bestimmte Richtung leiten. Unsere Heuristiken sind darauf kalibriert, in der Umwelt unserer Vorfahren zum erfolgreichen Weitergeben der Gene beizutragen. Wer etwas glaubte, das sich von den Überzeugungen der Gruppe unterschied, riskierte es etwa, sozial gemieden oder gar ausgeschlossen zu werden. Unser Denken wurde nicht zum Finden möglichst wahrer Überzeugungen selektioniert, sondern dafür, Überzeugungen zu finden, die sich in Bezug auf den Fortpflanzungserfolg auszahlen. Für die eigenen Ziele, die wir uns setzen, kann dies jedoch oft schädlich sein. Die Diskrepanz zwischen den (metaphorischen) Zielen unserer Gene und unseren persönlichen (durchaus realen) Zielen ist ein Grund für die Existenz der kognitiven Verzerrungen.

Der zweite Grund besteht darin, dass sich die Umwelt, in der wir leben, im Vergleich zur Umwelt unserer Vorfahren drastisch verändert hat, so dass einst zielführende Heuristiken in der neuen Umgebung nun irreführend sind. Unsere intuitive Einschätzung von exponentiellem Wachstum oder von Katastrophenszenarien mit geringen Eintreffwahrscheinlichkeiten sind schockierend schlecht, weil Prozesse und Szenarien dieser Art in unserer evolutionären Vergangenheit nicht häufig genug erlebt wurden. Unsere Vorfahren lebten in Kleingruppen, nicht in einer globalisierten Welt, in der wir präzise Daten zu allem Möglichen zur Verfügung haben, und in der wir das Leben von Menschen auf anderen Kontinenten – oder dasjenige zukünftiger Generationen – signifikant beeinflussen können.

Mit den vorhandenen Mitteln das Beste machen

Mit unserer Anfälligkeit auf kognitive Verzerrungen befinden wir uns zwar in einer suboptimalen Ausgangslage, was jedoch kein Grund zur Entmutigung ist: Rationalität ist vollkommen pragmatisch. Trotz kognitiven Verzerrungen, intellektueller Defizite und persönlichen Schwächen geht es um den Versuch, das Beste aus einer Situation zu machen. Welche Handlungsstrategien aus diesem Versuch resultieren, kann sich von Person zu Person unterscheiden: Selbst wenn zwei Personen das gleiche Ziel haben, können sich die jeweiligen besten Strategien unterscheiden, je nach Fähigkeiten, Charaktereigenschaften und motivierenden Interessen einer Person.

Wenn wir uns beim Versuch, rationaler zu sein, zu hohe Vorgaben setzen oder uns mit unerreichbaren Vorbildern vergleichen, dann kann sich dies entmutigend und damit kontraproduktiv auswirken. Es ist deshalb sehr wichtig, in unseren Erwartungen an die eigene Rationalität auch persönliche Eigenheiten einzubeziehen und sich bewusst Zeit zum Entspannen und Genießen nehmen, selbst dann, wenn es in den persönlichen Lebenszielen nicht (nur) ums Entspannen und Genießen geht.


Philosophie und sozioökonomische Anwendung

 Zentrale Elemente des Effektiven Altruismus

Weiterführende Texte


UNTERSTÜTZEN SIE UNS

Mitglied werden


Mit Ihrer Mitgliedschaft tragen Sie nachhaltig zu unseren Projekten, Aktivitäten und unentgeltlichen Angeboten bei und engagieren sich so möglichst effektiv und langfristig für eine bessere Welt.

Mitglied werden

Spenden


Unsere Projekte stehen und fallen mit Ihrer Unterstützung: Wir finanzieren uns ausschließlich über Privatspenden EA-interessierter Personen. Über 700 Personen unterstützen unsere Projekte bereits finanziell.

Spenden

Mitarbeiten


Bewerben Sie sich auf eine unserer Vakanzen, um sich unserem jungen und dynamischen Team anzuschließen. Wir sind laufend auf der Suche nach neuen Mitarbeiter/innen, Praktikant/innen und Freiwilligen.

Jetzt bewerben