Das größte Glück für die größte Zahl - Mills Rechnung geht nicht auf

Serie: Denkwege - Lesedauer: 4 Minuten

Einleitung

Stell dir vor, ein Algorithmus entscheidet, wer das letzte Beatmungsgerät bekommt. Die KI berechnet Überlebenschancen, Lebenserwartung, gesellschaftlichen Nutzen. Objektiv, unbestechlich, effizient. Aber ist das richtig?

Diese Frage ist nicht neu. Schon John Stuart Mill träumte Mitte des 19. Jahrhunderts von objektiver Moral durch Mathematik. "Das größte Glück für die größte Zahl" - seine Formel sollte ethische Dilemmata lösen. Doch Mills Utilitarismus hat gefährliche Schwächen, die wir verstehen müssen, um nicht Opfer einer seelenlosen Nutzenlogik zu werden.

Mills Vision und ihre Tücken

John Stuart Mill lebte im London der Industrialisierung, umgeben von sozialen Missständen und der Frage, wie eine Gesellschaft ohne religiöse Moral funktionieren könnte. Seine Antwort: Der Utilitarismus. Handlungen sind richtig, wenn sie Glück fördern, falsch, wenn sie Leid verursachen. Punkt.

Mill verfeinerte Jeremy Benthams ursprüngliche Idee, indem er zwischen höheren und niederen Freuden unterschied. "Es ist besser, ein unzufriedener Sokrates zu sein als ein zufriedenes Schwein", schrieb er. Bildung, Kunst und moralische Gefühle wogen für ihn schwerer als simple Vergnügungen.

Das klingt vernünftig. In der Praxis aber führt diese Logik zu erschreckenden Konsequenzen. Darf eine Demokratie die Rechte einer Minderheit beschneiden, wenn die Mehrheit davon profitiert? Ist Folter erlaubt, wenn sie Terroranschläge verhindert? Der Utilitarismus sagt: theoretisch ja. Und genau hier liegt das Problem.

Die vermeintlich objektive Nutzenrechnung ignoriert, dass Menschen keine Variablen in einer Gleichung sind. Jeder Mensch hat unveräußerliche Rechte und eine Würde, die nicht gegen kollektiven Nutzen aufgerechnet werden darf. Mills Philosophie liefert keine Antwort darauf, warum wir nicht einfach einen Algorithmus über Leben und Tod entscheiden lassen sollten - außer dass es vielleicht langfristig der Gesellschaft schadet. Aber ist das wirklich der einzige Grund?

Die Utilitarismus-Falle im Alltag erkennen

Die gute Nachricht: Wir müssen den Utilitarismus nicht komplett verwerfen. Folgenabwägung ist oft sinnvoll und notwendig. Die Kunst liegt darin, seine Grenzen zu kennen.

Im Berufsleben begegnet uns die Utilitarismus-Falle ständig. Soll der ineffiziente Kollege kurz vor der Rente noch entlassen werden, um das Team zu "optimieren"? Die reine Nutzenrechnung sagt ja. Aber Menschen sind mehr als Effizienzfaktoren. Die Frage ist nicht nur, was produktiver ist, sondern auch, was wir für eine Unternehmenskultur wollen. Ein Kompromiss könnte sein: Neue Aufgaben finden, die zu seinen Stärken passen, statt ihn zu ersetzen.

In persönlichen Beziehungen rationalisieren wir manchmal moralisch fragwürdige Entscheidungen. Die Affäre, die "niemandem schadet, solange keiner davon weiß". Die Notlüge, um Konflikte zu vermeiden. Hier hilft die Frage: Würde ich wollen, dass alle so handeln? Meist lautet die ehrliche Antwort: nein. Dennoch gibt es Grauzonen - die Notlüge, um jemanden vor traumatischen Nachrichten zu schützen, kann menschlich sein.

Bei gesellschaftlichen Fragen wird es besonders komplex. Klimaschutz versus individuelle Freiheit, Datenschutz versus Sicherheit, Wirtschaftswachstum versus Umweltschutz. Hier ist Folgenabwägung unverzichtbar. Aber wir müssen rote Linien ziehen: Totale Überwachung mag statistisch Verbrechen reduzieren, verletzt aber fundamental unser Recht auf Privatsphäre. Die Lösung liegt oft in der Balance: So viel Freiheit wie möglich, so viel Regulierung wie nötig.

Wo Mills Rechnung nicht aufgeht

Der Utilitarismus scheitert an drei zentralen Punkten: Erstens ist Glück nicht objektiv messbar - was dich glücklich macht, kann mich unglücklich machen. Zweitens führt Mehrheitslogik zur Tyrannei über Minderheiten. Drittens gibt es Dinge, die einfach falsch sind, egal welche Konsequenzen sie haben.

Trotzdem hatte Mill einen Punkt: Sture Prinzipientreue ohne Rücksicht auf Folgen kann genauso unmenschlich sein. Wer nie lügt, auch nicht um Leben zu retten, handelt vielleicht prinzipientreu, aber nicht unbedingt moralisch.

Die Lösung liegt nicht im Entweder-oder. Wir brauchen beide Perspektiven: Folgenabwägung für Pragmatismus und gute Entscheidungen, aber auch unverrückbare Prinzipien für Menschenwürde und Grundrechte. Die Kunst liegt darin, zu erkennen, wann welcher Ansatz angemessen ist.

Diskussionsfragen

  1. Wo ziehst du die Grenze zwischen sinnvoller Folgenabwägung und problematischer Nutzenrechnung?

  2. Sollten Algorithmen moralische Entscheidungen treffen dürfen?

  3. Wie gehst du mit Situationen um, in denen jede Entscheidung Nachteile hat?

  4. Kann eine Gesellschaft ohne gewisse utilitaristische Überlegungen funktionieren?

Zurück
Zurück

Wie würdest du die Welt gestalten? Rawls' Gedankenexperiment für faire Entscheidungen

Weiter
Weiter

"Werde, wer du bist" – Zwischen Selbstfindung und Selbsterschaffung