
Kann eine Rechenvorschrift moralisch sein?
Die Frage klingt seltsam. Aber sie stellt sich täglich, denn Algorithmen treffen längst Entscheidungen, die früher Menschen vorbehalten waren.
Nehmen wir selbstfahrende Autos. Ihr Code muss in Sekundenbruchteilen entscheiden: Weiche ich dem Fußgänger aus und gefährde die Insassen? Oder schütze ich die Passagiere? Philosophen haben solche Dilemmata jahrhundertelang diskutiert. Jetzt werden sie zu Software. Und irgendwo in diesen Codezeilen steckt eine Antwort auf die Frage: Welche Leben wiegen schwerer?
Oder nehmen wir Algorithmen, die über Kredite, Bewerbungen oder Bewährungsanträge mitentscheiden. Sie lernen aus historischen Daten. Dumm nur: Diese Daten spiegeln oft gesellschaftliche Ungleichheiten. Der Algorithmus übernimmt Vorurteile – und wendet sie dann scheinbar objektiv an.
Das Problem mit der Objektivität
Algorithmen wirken neutral. Sie folgen ja nur Regeln. Aber wer hat diese Regeln gemacht? Welche Daten zählen, welche Faktoren wie stark gewichtet werden – das alles legt jemand fest. Und damit fließen Werte ein, ob gewollt oder nicht.
Einige Forscher versuchen deshalb, Ethik explizit zu programmieren. Fairness, Transparenz, Nichtdiskriminierung – solche Prinzipien sollen messbar werden. Doch schon bei “Fairness” beginnt die Debatte: Alle gleich behandeln? Oder bewusst ausgleichen, um Benachteiligungen zu korrigieren?
Am Ende bleibt: Moralische Algorithmen gibt es nur durch moralische Menschen. Die Technik verstärkt, was wir hineinlegen. Im Guten wie im Schlechten.
Dieser Beiträge möchte zum gemeinsamen Nachdenken anregen. Und etwas tiefer in das Spannungsfeld Mensch & Maschine eintauchen.

