Wie wir moralische Entscheidungen fällen

Lucius Caviola und Adriano Mannino, 13. Januar 2014

Stellen wir uns folgendes Dilemma vor1: Eine Straßenbahn rast unkontrolliert auf fünf an ein Gleis gefesselte Personen zu. Du stehst auf einer Brücke, unter der die Straßenbahn durchfahren wird. Neben dir – so will es der Zufall – steht ein schwerer Mann. Wenn du ihn von der Brücke stößt und dadurch tötest, bringst du die Straßenbahn zum Stoppen und rettest somit die fünf Personen. Eine andere Möglichkeit, die Bahn zu stoppen, gibt es leider nicht. Würdest du den Mann runterstoßen?

Wenn man im moralpsychologischen Experiment Testpersonen diese Frage stellt, antworten die meisten mit Nein (rund 70 %).

Moralphilosophisch ist die Frage umstritten. Seit Jahrhunderten streiten sich Philosophen/innen darüber, ob es gerechtfertigt (und/oder geboten) sein kann, jemanden zu schädigen, um dadurch mehr anderen zu helfen, d. h. insgesamt mehr Gutes zu bewirken. Das Brückenbeispiel illustriert und isoliert demnach einen wichtigen Aspekt der moralphilosophischen Unterscheidung zwischen Utilitarismus (z. B. Bentham, Mill) und Deontologie (z. B. Kant). Der Utilitarismus legt den Fokus auf die Konsequenzen einer Handlung und folgt der Annahme, dass eine Entscheidung dann richtig ist, wenn sie das Wohlergehen aller maximiert. Die Deontologie hingegen schreibt meist mehrere Regeln vor, nach denen sich jedes Verhalten zu richten hat, wie etwa das Tötungs- oder Instrumentalisierungsverbot, ganz ungeachtet der Konsequenzen insgesamt. Folglich würden Utilitaristen/innen – im Gegensatz zu Deontologen/innen – im obigen Brückenbeispiel den Mann von der Brücke stoßen und die Schädigung dieser einen Person in Kauf nehmen, um Schaden von den fünf anderen Personen abzuwenden.

Ein zweites Dilemma: Stell dir vor, du stehst an einer Weiche. Die Straßenbahn rast wieder unkontrolliert auf fünf gefesselte Personen zu. Falls du nicht handelst, werden diese Personen überfahren und getötet werden. Falls du jedoch die Weiche umstellst, verändert die Straßenbahn ihren Kurs und rast lediglich auf eine Person zu. Diese wird dadurch getötet. Würdest du die Weiche umstellen?

Bei dieser Frage antworten die meisten Personen mit Ja (rund 90 %).

Philosophisch sind diese Resultate ziemlich interessant. Denn in beiden Situationen sind die auf dem Spiel stehenden Konsequenzen identisch: entweder eine Person stirbt – oder fünf sterben. Ein Unterschied könnte darin liegen, dass im Brückenbeispiel eine Person instrumentalisiert wird, d. h. als kausal notwendiges Mittel zum guten Zweck verwendet wird, wohingegen im Weichenbeispiel die Person lediglich einen „Kollateralschaden“ erleidet: Die Schädigung dieser Person ist kausal nicht notwendig, um die fünf zu retten. Ist die Frage nach der Instrumentalisierung also der Grund, weshalb sich die Leute in den beiden Dilemmata unterschiedlich entscheiden? (Das Tötungsverbot würde nicht genügen, denn auch im Weichenbeispiel wird eine Person aktiv getötet.)

Diese Hypothese scheint zweifelhaft, wie das folgendermaßen modifizierte Weichendilemma zeigt („Schlaufendilemma“):

Hier ist die Situation identisch mit der obigen, abgesehen von einem zusätzlichen Weichenstück, das die Straßenbahn in einer Schlaufe wieder auf die fünf führen würde, wenn sie vom einen Opfer nicht aufgehalten wird. Kann ein zusätzliches Weichenstück wirklich dazu führen, dass die moralische Beurteilung komplett anders ausfällt? Das müsste hier der Fall sein, wenn die Instrumentalisierung ausschlaggebend ist.

In einem weiteren Experiment wurden Personen mit einem modifizierten Brückendilemma konfrontiert. In diesem Dilemma muss der schwere Mann nicht physisch von der Brücke gestoßen werden, sondern kann per Knopfdruck durch eine Falltür auf die Schienen befördert werden. Interessanterweise stimmen hier plötzlich doppelt so viele Personen (rund 60 %) der Tötung des Mannes zu wie im Standard-Brückendilemma, obwohl auch auch hier eine Person instrumentalisierend getötet wird, um mehrere andere zu retten. Es scheint daher, dass insbesondere das Vorhandensein eines physischen Eingriffs entscheidend dafür ist, ob unsere unreflektierten moralischen Intuitionen und Impulse eine Handlung als gerechtfertigt betrachten oder nicht. Einer Person in die Augen zu schauen und sie mit den eigenen Händen vor einen Zug zu stoßen, löst bei uns eine starke emotionale Aversion aus. Die Betätigung eines Schalters (dessen Mechanismus ohne direkten physischen Kontakt auskommt) hingegen tut dies in einem viel geringeren Ausmaß. Interessant wäre es, die Parameter „räumliche Distanz“ und „physischer Kontakt“ experimentell auch noch zu trennen und die Reaktionen der Menschen zu testen: Die Öffnung der Falltüre berührt den Mann ja nicht. Macht es einen Unterschied, ob wir sie aus der Ferne oder in der unmittelbaren Nähe öffnen? Und was, wenn wir über einen 1000 m langen Stab verfügen, mit dem wir den Mann aus der Distanz runterstoßen? Oder über ein ferngesteuertes Auto, das wir aus weiter Distanz auf den Mann prallen lassen können? Über einen ferngesteuerten Computer/Roboter? Oder einen ferngesteuerten Bio-Roboter, d. h. einen Menschen, den wir so steuern, dass wir ihn anrufen und ihn damit beauftragen, den Mann runterzustoßen?

Im Lichte seiner experimentellen Erkenntnisse schlägt der Moralpsychologe Joshua Greene eine „Dual-Process“-Theorie vor, um unser moralisches Urteilen bzw. Entscheiden zu erklären. Greene geht davon aus, dass unser Gehirn über zwei konkurrierende moralische Entscheidungssysteme verfügt. Sind wir mit einer moralischen Entscheidungssituation konfrontiert, können wir uns entweder von unseren Bauchgefühlen, d. h. von automatischen, emotionalen Intuitionen, leiten lassen, oder aber versuchen, die Intuitionen als unmittelbare Reaktionen zurückzustellen und unseren Verstand bewusst und explizit einzusetzen, d. h. systematischer über die Situation nachzudenken.

Zahlreiche Studien scheinen die Dual-Process-Theorie zu stützen. Zum Beispiel konnte gezeigt werden, dass Hirnareale, die für die Verarbeitung von Emotionen zuständig sind, besonders aktiv sind, wenn wir über das Brückendilemma nachdenken, und weniger, wenn wir mit dem Weichendilemma konfrontiert sind. Ebenfalls konnte gezeigt werden, dass Leute sich eher deontologisch entscheiden, wenn sie unter Zeitdruck stehen oder wenn sie gestresst sind. Dies scheint darauf hinzudeuten, dass – zumindest im Brückenbeispiel – deontologische Urteile mit automatischen emotionalen Intuitionen assoziiert sind. Ist die emotionale Intuition zu stark, fällt es uns schwer, systematische ethische Kosten-Nutzen-Analysen bezüglich der zu erwartenden Konsequenzen durchzuführen.

Dies wirft eine wichtige normative Frage auf: Wie stark sollten wir unseren emotional vermittelten Intuitionen vertrauen? „Unmittelbar-emotional-intuitive Reaktion“ scheint nicht der zuverlässigste epistemische Prozess zu sein, d. h. kein Prozess, von dem wir erwarten können, dass er mit hoher Wahrscheinlichkeit die jeweils zutreffenden Antworten generiert bzw. „trackt“. Und in der Tat: Unsere Intuitionen scheinen inkonsistent und/oder ziemlich willkürlich zu sein. (Warum sollte zum Beispiel „physischer Kontakt“ oder „Nähe“ ethisch eine Rolle spielen und nicht vielmehr „Nicht-Kontakt“ und „Ferne“? Und wenn sie eine Rolle spielen, wie? Entsprechend welcher mathematischen Funktion variiert die ethische Beurteilung mit dem Kontakt oder der Nähe? Hier scheint komplette Willkür vorzuliegen.) Zudem stimmen sie oft nicht mit den Zielen überein, die unser Verstand bewusst identifizieren würde. Wenn wir die Dilemmata reflektierter betrachten und unsere Bauchgefühle nicht gleich für bare Münze nehmen, kommen wir vielleicht zum Schluss, dass es keine Rolle spielen sollte, wie genau nun die besten Konsequenzen herbeigeführt werden (Weiche, Hand, Falltüre, Schlaufe etc.), weil einzig relevant ist, wie es den betroffenen Individuen ergeht. Für die fünf geretteten Personen sowie für das eine Opfer spielt es schließlich keine Rolle, wie genau die Handlung erfolgt – ob per Knopfdruck oder durch einen Stoß – und ob gegebenenfalls kausale Abhängigkeiten (Instrumentalisierungen) vorliegen oder bloß „Kollateralschäden“. Für uns fühlt sich die eine Handlung vielleicht unangenehmer an als die andere. Doch wollen wir diesem Bauchgefühl wirklich folgen? Entspricht es wirklich unserem moralischen Ziel, unser eigenes Wohlbefinden bzw. unsere eigene Präferenz durch Befolgung unserer Bauchgefühle stärker zu gewichten als die Konsequenzen unserer Entscheidungen für das Leben und den Tod anderer? Untergräbt dies nicht das (Ziel-)Verständnis unserer moralischen Entscheidung als einer altruistischen?

Denn was ist für die Individuen relevant, die von unseren Entscheidungen betroffen sind? Oder: Was wäre für uns an ihrer Stelle relevant? Doch nur, dass wir mit möglichst hoher Wahrscheinlichkeit ohne Schaden bleiben. Welche Entscheidungsregel genügt dieser Bedingung? Nur die Regel, wonach dafür zu sorgen ist, dass die größte Anzahl Individuen ohne Schaden bleibt. A priori weiß ich nicht, in welcher Position ich mich befinden werde, ob ich (in den obigen Situationen) unter den fünf oder der eine sein werde, der – auf welche Art auch immer – zu Schaden kommt. Die Wahrscheinlichkeit beträgt demnach 5/6, dass ich unter den fünf, und 1/6, dass ich in der Position des anderen sein werde. Folglich ist meine Wahrscheinlichkeit, ohne Schaden zu bleiben, in jeder der obigen Situationen fünfmal höher, wenn utilitaristisch entschieden wird.

Altruistisch scheint nichts Besseres möglich zu sein, als dafür zu sorgen, dass jedes Individuum a priori eine möglichst hohe Wahrscheinlichkeit hat, von Schäden verschont zu bleiben. Denn das ist es, was für die von unseren Entscheidungen Betroffenen zählt. Wie die entsprechende Entscheidung konkret implementiert ist (Weiche, Hand, Falltüre, Schlaufe etc.), scheint – nachdem die Schäden für die betroffenen Individuen gezählt wurden – höchstens für uns relevant. Wenn wir entsprechende Präferenzen haben, dann hat die Erfüllung dieser Präferenzen für niemanden einen Wert außer für uns. Will heißen: Die Erfüllung dieser Präferenzen hat keinen altruistischen, sondern nur egoistischen Wert.

Falls diese Analyse (mit guter Wahrscheinlichkeit) zutrifft: Ist es nicht schockierend, dass uns unsere Intuitionen mehrheitlich suggerieren, dass annähernde Gewissheit darüber besteht, dass es „böse“ ist, den schweren Mann runterzustoßen?

1 Die im Text gemachten Äußerungen beziehen sich auf das Trolley-Gedankenexperiment und können nicht eins zu eins auf die (komplexere) Realität übertragen werden. Gedankenexperimente helfen uns jedoch dabei, herauszufinden, welche Ziele wir in der Welt verfolgen wollen.

Quellen

  1. Bentham, J. (1789). An Introduction to the Principles of Morals and Legislation.
  2. Greene, J. D. (2013). Moral tribes: emotion, reason, and the gap between us and them. New York: The Penguin Press.
  3. Greene, J. D., Morelli, S. A., Lowenberg, K., Nvstrom, L. E., & Cohen, J. D. (2008). Cognitive load selectively interferes with utilitarian moral judgment. Cognition, 107(3), 1144-1154. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2429958/
  4. Greene, J. D., Nystrom, L. E., Engell, A. D., Darley, J. M., & Cohen, J. D. (2004). The neural bases of cognitive conflict and control in moral judgment. Neuron, 44(2), 389-400. http://www.cell.com/neuron/abstract/S0896-6273(04)00634-8
  5. Greene, J.D., Cushman, F.A., Stewart. L.E., Lowenberg, K., Nystrom, L.E., and Cohen, J.D. (2009). Pushing moral buttons: The interaction between personal force and intention in moral judgment. Cognition, Vol. 111 (3), 364-371. http://www.sciencedirect.com/science/article/pii/S0010027709000420
  6. Kant, I. (1785). Grundlegung zur Metaphysik der Sitten.
  7. Mill, J. S. (1861). Utilitarianism.
  8. Paxton, J. M., Ungar, L., & Greene, J. D. (2012). Reflection and Reasoning in Moral Judgment. Cognitive Science, 36(1), 163-177. http://onlinelibrary.wiley.com/doi/10.1111/j.1551-6709.2011.01210.x/abstract
  9. Suter, R. S., & Hertwig, R. (2011). Time and moral judgment. Cognition, 119(3), 454-458. http://www.sciencedirect.com/science/article/pii/S0010027711000448
  10. Youssef, F. F., Dookeeram, K., Basdeo, V., Francis, E., Doman, M., Mamed, D., . . . Legall, G. (2012). Stress alters personal moral decision making. Psychoneuroendocrinology, 37(4), 491-498. http://www.psyneuen-journal.com/article/S0306-4530(11)00232-0/abstract

UNTERSTÜTZEN SIE UNS

Mitglied werden


Mit Ihrer Mitgliedschaft tragen Sie nachhaltig zu unseren Projekten, Aktivitäten und unentgeltlichen Angeboten bei und engagieren sich so möglichst effektiv und langfristig für eine bessere Welt.

Mitglied werden

Spenden


Unsere Projekte stehen und fallen mit Ihrer Unterstützung: Wir finanzieren uns ausschließlich über Privatspenden EA-interessierter Personen. Über 700 Personen unterstützen unsere Projekte bereits finanziell.

Spenden

Mitarbeiten


Bewerben Sie sich auf eine unserer Vakanzen, um sich unserem jungen und dynamischen Team anzuschließen. Wir sind laufend auf der Suche nach neuen Mitarbeiter/innen, Praktikant/innen und Freiwilligen.

Jetzt bewerben