Moralrealismus als Widerstand gegen Beliebigkeit
Markus Gabriel ist bekannt für einen moralrealistischen Grundzug seines Denkens. Moralrealismus bedeutet, einfach gesagt: Es gibt moralische Wahrheiten, die nicht bloß Geschmack, Mode oder persönliche Vorliebe sind. Der Satz „Es ist falsch, unschuldige Menschen absichtlich zu quälen“ ist nach dieser Sicht nicht nur Ausdruck eines Gefühls. Er beschreibt etwas, das wirklich falsch ist.
Das ist wichtig in einer Zeit, in der viele Debatten in bloße Perspektiven zerfallen. Natürlich sehen Menschen die Welt unterschiedlich. Natürlich gibt es kulturelle Unterschiede, Grenzfälle und schwierige Abwägungen. Aber daraus folgt nicht, dass alles beliebig ist.
Gerade im Umgang mit KI zählt dieser Punkt. Wenn alles nur Perspektive wäre, könnten Konzerne sagen: Unser Wert ist Wachstum. Staaten könnten sagen: Unser Wert ist Kontrolle. Plattformen könnten sagen: Unser Wert ist Verweildauer. Nutzer könnten sagen: Unser Wert ist Bequemlichkeit. Und niemand könnte mehr ernsthaft widersprechen, außer mit einem Achselzucken.
Moralrealismus widerspricht diesem Achselzucken. Er sagt: Manche Dinge sind nicht nur unerwünscht, sondern falsch. Es ist falsch, Menschen systematisch zu manipulieren. Es ist falsch, Abhängigkeiten absichtlich zu verstärken. Es ist falsch, verletzliche Gruppen als Datenmaterial zu behandeln. Es ist falsch, Verantwortung hinter Maschinen zu verstecken.
Das ist kein moralischer Hochmut. Es ist Orientierung. Eine Gesellschaft, die keine gemeinsamen moralischen Maßstäbe mehr formulieren kann, wird anfällig für jede Macht, die schneller, lauter oder profitabler ist.
Der Mensch bleibt verantwortlich
Ein großes Missverständnis lautet: Wenn ein KI-System handelt, ist die Verantwortung unklar. In Wahrheit wird Verantwortung nicht unklar, sondern unbequemer. Sie verteilt sich auf Entwickler, Unternehmen, Betreiber, Gesetzgeber, Nutzer, Institutionen und Gesellschaften. Aber sie verschwindet nicht.
Wenn ein System diskriminiert, ist nicht „die KI“ schuld wie ein böser Geist im Gerät. Verantwortlich sind die Menschen und Strukturen, die Daten auswählen, Ziele setzen, Modelle trainieren, Systeme einsetzen, Risiken ignorieren, Kontrolle vernachlässigen oder Profit über Sorgfalt stellen. Eine Maschine kann Ursache sein. Verantwortung aber bleibt eine menschliche Kategorie.
Niemand sollte sich mit dem Satz herausreden dürfen, der Algorithmus habe es entschieden. Dieser Satz ist die neue Bürokratenformel der digitalen Welt. Früher hieß es: Das ist Vorschrift. Heute heißt es: Das hat das System so berechnet.
Eine humane KI-Kultur müsste diesen Satz grundsätzlich misstrauisch hören. Sie müsste fragen: Wer hat das System gebaut? Wer hat es gekauft? Wer kontrolliert es? Wer kann widersprechen? Wer erklärt die Entscheidung? Wer haftet? Wer hat die Macht, sie zu korrigieren?
Gerade in Verwaltung, Medizin, Bildung, Polizei, Personalwesen und Sozialstaat darf KI nicht zur Blackbox werden, in der menschliche Schicksale verschwinden. Menschen sind mehr als ihre Daten. Sie sind nicht nur Muster aus Vergangenheit. Sie sind auch Möglichkeit.
