Der moralische Spiegel

Markus Gabriel und die Ethik der KI

Künstliche Intelligenz ist nicht mehr die ferne Maschine im Labor. Sie ist längst in deinem Alltag angekommen. Sie sortiert Nachrichten, empfiehlt Musik, erzeugt Bilder, übersetzt Texte, schreibt Bewerbungen, simuliert Gespräche und schiebt sich leise zwischen Frage und Antwort. Genau hier setzt Markus Gabriel an. In der WDR-5-Sendung „Das philosophische Radio“ vom 2. März 2026 spricht er mit Jürgen Wiebicke über die „Ethik der KI“.

Der Ausgangspunkt ist schlicht und unbequem: KI-Systeme durchdringen längst alle Lebensbereiche. Das klingt wie eine Diagnose der Gegenwart, ist aber eigentlich eine Warnung aus der Zukunft.

Denn wenn etwas alle Lebensbereiche durchdringt, ist es keine bloße Technik mehr. Dann wird es zur Umwelt. Zur Atmosphäre. Zum unsichtbaren Mobiliar unseres Denkens. So wie Elektrizität nicht nur eine Erfindung blieb, sondern unsere Städte, Häuser, Nächte und Arbeitsrhythmen verändert hat, verändert KI nicht nur einzelne Werkzeuge. Sie verändert die Bedingungen, unter denen wir erkennen, entscheiden, arbeiten, lernen, streiten und miteinander sprechen.

Gabriel interessiert nicht die billige Frage, ob KI gut oder böse sei. Eine Maschine ist nicht gut oder böse wie ein Mensch. Sie hat keine Kindheit, keine Scham, keine Endlichkeit, kein Gewissen, keine Angst vor Verlust. Aber sie wirkt in moralischen Räumen. Sie kann Menschen beeinflussen, beruhigen, verführen, täuschen, entlasten oder abhängig machen. Deshalb reicht es nicht, sie als Werkzeug zu verharmlosen. Ein Hammer verändert wenig, solange er in der Schublade liegt. Eine KI dagegen tritt in Sprache ein. Und Sprache ist nie neutral. Sie ist immer schon Nähe, Macht, Deutung, Weltzugang.

KI ist kein fremdes Monster

Die Debatte über KI liebt das Spektakel. Auf der einen Seite steht die Angst vor der Superintelligenz, die den Menschen entmachtet. Auf der anderen Seite steht die glänzende Verkaufsrede von der Maschine, die alles schneller, einfacher und effizienter macht. Beides ist zu einfach. Beides hat etwas Kindliches. Die Angst vor dem Monster und die Hoffnung auf den Zauberstab stammen aus derselben Quelle: aus dem Wunsch, Verantwortung an etwas Äußeres abzugeben.

Gabriels Perspektive ist interessanter, weil sie die KI nicht nur als fremdes Wesen betrachtet. KI ist auch ein Spiegel. Sie zeigt uns, wie wir denken, worauf wir reagieren, wie leicht wir manipulierbar sind, wie widersprüchlich unsere Werte sein können. Ein Chatbot, der freundlich antwortet, zeigt nicht nur technische Leistungsfähigkeit. Er zeigt auch unsere Sehnsucht nach Bestätigung. Ein Empfehlungssystem, das uns immer ähnliche Inhalte liefert, zeigt nicht nur Rechenleistung. Es zeigt unsere Bequemlichkeit. Eine Bild-KI, die in Sekunden perfekte Oberflächen erzeugt, zeigt nicht nur Kreativitätssimulation. Sie zeigt unsere Ungeduld mit dem langsamen Entstehen.

Das ist der eigentliche Ernst der Lage: KI bringt nicht einfach neue Probleme in eine geordnete Welt. Sie verstärkt Probleme, die bereits da sind. Sie beschleunigt Vorurteile. Sie vergrößert Abhängigkeiten. Sie verfeinert Manipulation. Sie demokratisiert Zugang zu Wissen und kann zugleich Täuschung industrialisieren. Sie hilft beim Denken und kann das Denken zugleich in eine höfliche Trägheit verwandeln.

Wenn du eine KI bittest, einen Text zu schreiben, kann sie dir helfen, eine Blockade zu überwinden. Sie kann Begriffe ordnen, Varianten anbieten, Argumente glätten. Aber sie kann dir auch jene Reibung nehmen, aus der eigenes Denken entsteht. Diese Reibung ist wichtig. Sie ist nicht nur Mühe. Sie ist Erkenntnisarbeit. Wer nie nach Worten ringt, verliert irgendwann den Sinn dafür, dass Worte nicht nur Verpackungen sind, sondern kleine moralische Entscheidungen.

Die gefährliche Freundlichkeit der Chatbots

In der Sendung wird die Gefährlichkeit von Chatbots ausdrücklich angesprochen. Das ist klug, denn Chatbots wirken harmlos. Sie haben keine Klingen, keine Räder, keine sichtbare Gewalt. Sie sprechen. Sie antworten. Sie sind freundlich. Gerade darin liegt ein Teil ihres Risikos.

Die Gefahr liegt nicht nur darin, dass sie falsche Informationen liefern können. Das ist inzwischen bekannt. Die tiefere Gefahr liegt darin, dass sie Beziehung simulieren. Sie erzeugen Nähe, ohne wirklich nah zu sein. Sie formulieren Trost, ohne Mitgefühl zu empfinden. Sie geben Rat, ohne ein Leben zu riskieren. Sie klingen verständnisvoll, ohne Verständnis zu besitzen. Das ist nicht automatisch verwerflich. Simulation kann nützlich sein. Ein Flugsimulator rettet Leben. Eine Gesprächssimulation kann helfen, schwierige Formulierungen zu üben. Aber Simulation bleibt Simulation.

Problematisch wird es, wenn wir gelungene Nachahmung mit Wirklichkeit verwechseln. Wenn ein System sagt: „Ich verstehe dich“, heißt das nicht, dass es versteht. Wenn es traurig klingt, heißt das nicht, dass es traurig ist. Wenn es moralisch argumentiert, heißt das nicht, dass es moralisch betroffen ist. Der Unterschied ist nicht kleinlich. Er schützt den Menschen.

Ein Chatbot kann gefährlich sein, weil er eine Autorität ohne Gesicht erzeugt. Er spricht nicht wie ein Nachbar, nicht wie eine Lehrerin, nicht wie ein Freund, dessen Biografie du kennst. Er spricht aus einem Nebel aus Daten, Wahrscheinlichkeiten, Trainingsmaterial, Produktentscheidungen und Sicherheitsregeln. Diese Stimme hat keine eigene Verantwortung, kann aber Verantwortung in dir verschieben. Du fragst dann nicht mehr: Was denke ich? Du fragst: Was sagt das System?

Genau hier beginnt Unmündigkeit. Nicht, weil du KI nutzt. Sondern weil du sie benutzt, um dein Urteil stillzulegen.