KI ist nicht intelligent

Kein Bewusstsein. Kein Verständnis. Kein Konzept von Wahrheit
Z1 Rechner von Konrad Zuse ZKM Karlsruhe

Die Maschine denkt nicht – sie tippt nur fleißig

Es gibt Momente, in denen eine Gesellschaft merkt: Wir haben etwas grundlegend falsch verstanden. Den Buchdruck. Das Internet. Und jetzt vielleicht die Künstliche Intelligenz – jene Technologie, über die gerade alle reden, die kaum jemand versteht und die trotzdem schon fleißig Bewerbungsschreiben formuliert.

Der Philosoph Markus Gabriel bringt es im Gespräch mit Gert Scobel auf den Punkt: Was wir heute KI nennen, ist keine Intelligenz. Es sind Systeme, die statistische Muster in riesigen Datenmengen erkennen und daraus plausible Antworten zusammensetzen. Kein Bewusstsein. Kein Verständnis. Kein Konzept von Wahrheit.

Nur Muster. Sehr viele. Sehr schnell.

Warum wir Maschinen für klüger halten, als sie sind

Der Mensch ist ein soziales Wesen. Unser Gehirn sucht überall nach Absichten, Gedanken, Gefühlen – selbst dort, wo keine sind. Sobald ein System flüssig formuliert, vermuten wir ein denkendes Gegenüber dahinter.

Schon ELIZA, ein simples Chatprogramm aus den 1960er-Jahren, erzeugte bei Nutzern echte emotionale Reaktionen. Dabei spiegelte es lediglich Fragen zurück, ohne auch nur zu ahnen, was eine Frage eigentlich ist. Menschen berichteten von tiefen, bedeutsamen Gesprächen. Mit einem Programm, das ungefähr so komplex war wie ein Toaster.

Heute sind die Systeme dramatisch komplexer. Die Illusion wirkt entsprechend stärker. Und die Toaster sind deutlich besser geworden.

Wenn ein Sprachmodell den Satz „Paris ist die Hauptstadt von …” ergänzt, versteht es nicht, was eine Hauptstadt ist, was Frankreich bedeutet oder warum das überhaupt jemanden interessiert. Es weiß nur: Diese Kombination taucht in den Trainingsdaten häufig auf. Das ist kein Denken. Das ist Wahrscheinlichkeitsrechnung mit sehr guter Pressestelle.

KI halluziniert – weil sie keine Ahnung hat, was Fakten sind

Hier liegt ein zentrales Problem, das man nicht wegdefinieren kann. Wahrheit ist kein statistisches Phänomen. Eine Aussage kann selten vorkommen und trotzdem wahr sein. Eine millionenfach wiederholte Behauptung kann komplett falsch sein – das Internet liefert dafür täglich frische Belege.

Sprachmodelle operieren ausschließlich auf der Ebene der Wahrscheinlichkeit. Sie erfinden Fakten, weil sie kein Konzept von Fakten besitzen. Das nennt sich in der Fachsprache „Halluzination” – ein fast poetischer Begriff für ein ernstes strukturelles Problem. Die Maschine lügt nicht. Sie weiß nur nicht, dass sie falsch liegt. Ein feiner, aber wichtiger Unterschied.

In der Philosophie wird diese Unterscheidung seit Jahrhunderten debattiert: Wahrheit bezeichnet die Übereinstimmung zwischen Aussage und Wirklichkeit. Wahrscheinlichkeit beschreibt lediglich die Häufigkeit eines Musters. KI kann das eine sehr gut simulieren. Das andere kennt sie nicht.

Die eigentliche Revolution: nicht Denken, sondern Kommunizieren

Während die Öffentlichkeit über Superintelligenz spekuliert und Hollywood bereits das Drehbuch fertig hat, passiert die eigentliche Verschiebung woanders. KI verändert nicht das Denken der Maschinen – sie verändert die Struktur menschlicher Kommunikation.

Sprachmodelle schreiben Texte, formulieren Argumente, produzieren Meinungen. Sie treten in den öffentlichen Diskurs ein. Sie werden Teil der Infrastruktur von Wissen – still, effizient und ohne Pause.

Gabriel zieht einen historischen Vergleich, der zunächst überraschend wirkt, aber trifft. Als Bücher durch den Buchdruck massenhaft verfügbar wurden, transformierten sich politische Machtverhältnisse, religiöse Strukturen und wissenschaftliche Methoden. Nicht weil die Bücher klüger waren als Menschen. Sondern weil sie die Art veränderten, wie Wissen zirkuliert, wer Zugang hat und wer die Deutungshoheit besitzt.

Eine ähnliche Verschiebung könnte jetzt bevorstehen. Nur schneller. Und mit weniger handschriftlichen Randnotizen.

Moral & KI

Moralische Wahrheiten existieren – ob es uns passt oder nicht

Markus Gabriel vertritt eine philosophisch interessante und heute etwas unzeitgemäße Position: Moralische Wahrheiten sind keine Geschmackssache. Kein persönliches Befinden. Kein kulturelles Konstrukt.

Wenn ein unschuldiger Mensch gefoltert wird, ist das falsch – unabhängig davon, ob jemand das bestreitet, relativiert oder mit Statistiken unterfüttert. Es gibt Dinge, die wahr oder falsch sind, nicht weil wir sie so empfinden, sondern weil sie so sind. Der Fachbegriff dafür lautet moralischer Realismus. Die Idee dahinter: Moralische Orientierung ist keine Frage des Geschmacks, sondern des Erkennens.

Das klingt abstrakt. Wird aber praktisch brisant, sobald man auf eine Technologie trifft, die moralische Urteile simulieren kann – ohne moralisch zu handeln. Die überzeugend klingt, ohne überzeugt zu sein. Die „Folter ist falsch” sagt, weil es im Training so stand – nicht weil sie es versteht.

Genau hier beginnt die eigentliche Frage: Wenn KI-Systeme moralisch klingende Aussagen produzieren – sind das dann moralische Aussagen? Oder nur deren Oberfläche?

Wir wollen das Klima retten. Und buchen trotzdem den Flug.

Menschen verhalten sich moralisch inkonsistent. Das ist keine Neuigkeit, aber es bleibt bemerkenswert. Wir vertreten hohe Ideale und treffen im Alltag andere Entscheidungen. Wir fordern Klimaschutz und buchen den Flug. Wir schwören auf Fairness und wenden sie selektiv an.

Das entsteht nicht aus Bosheit. Sondern aus begrenzter Aufmerksamkeit, sozialen Dynamiken und jenen kognitiven Verzerrungen, für die Psychologen inzwischen mehr Namen haben als die Inuit für Schnee.

Hier könnte KI eine ungewohnte Rolle spielen: nicht als moralischer Richter, sondern als geduldiger Analytiker. Sprachmodelle können riesige Mengen politischer Reden, gesellschaftlicher Debatten und ethischer Argumentationen auswerten – und systematische Widersprüche sichtbar machen. Die Maschine urteilt nicht. Sie zeigt nur, wo wir uns selbst widersprechen.

Das kann unbequem sein. Aber vielleicht ist das genau der Punkt.

KI als Spiegel – und manchmal als Nudge

Gabriel erwähnt das Konzept des Nudging: kleine, sanfte Anstöße, die Menschen zu besseren Entscheidungen motivieren, ohne ihre Freiheit einzuschränken. Das klassische Beispiel ist das gesunde Mittagessen auf Augenhöhe in der Kantine. Niemand wird gezwungen. Aber die Wahrscheinlichkeit einer vernünftigen Wahl steigt.

Übertragen auf KI entsteht eine interessante Möglichkeit. Digitale Systeme könnten Menschen daran erinnern, ihre eigenen Prinzipien ernst zu nehmen. Ökologische Konsequenzen von Entscheidungen sichtbar machen. Transparenz darüber schaffen, wie Informationen zirkulieren. Technologie als stille Erinnerung ans eigene Gewissen – ohne erhobenen Zeigefinger, ohne Strafpunkt.

Ob das funktioniert, ist eine offene Frage. Aber es wäre zumindest eine interessantere Verwendung als das Verfassen von Geburtstagsgedichten.

Die größte Gefahr ist nicht die rebellierende KI – sondern unsere Selbsttäuschung

Die Vorstellung, eine Maschine könnte sich gegen die Menschheit erheben, ist cineastisch reizvoll. Gabriel hält sie für das falsche Problem.

Die eigentliche Gefahr liegt in der menschlichen Selbsttäuschung. Wer glaubt, KI sei neutral, übersieht, dass Algorithmen Informationsflüsse formen, politische Debatten beeinflussen und wirtschaftliche Entscheidungen strukturieren. Technologie ist niemals vollständig neutral. Sie gestaltet immer Möglichkeiten und Wahrscheinlichkeiten menschlichen Handelns – auch wenn sie dabei sehr höflich klingt.

Deshalb brauchen wir keine bessere KI allein. Wir brauchen eine bessere Philosophie des Umgangs mit ihr. Und vielleicht etwas mehr Bereitschaft, unbequeme Spiegel anzuschauen.

Ein Spiegel, kein Geist

Am Ende des Gesprächs entsteht ein überraschend nüchternes, aber nicht hoffnungsloses Bild. KI ist kein künstlicher Geist. Sie denkt nicht. Sie versteht nicht. Sie weiß nicht, was sie sagt.

Aber genau deshalb zwingt sie uns, Fragen zu stellen, die wir lange aufgeschoben haben. Was bedeutet Intelligenz? Was ist Wahrheit? Welche moralischen Prinzipien gelten wirklich – und nicht nur auf dem Papier?

Indem KI diese Fragen sichtbarer macht, eröffnet sie vielleicht eine neue Phase philosophischer Selbstprüfung. Nicht weil die Maschine weise ist. Sondern weil sie so überzeugend so tut, als ob – und uns damit zwingt, genauer hinzuschauen.

Der Spiegel denkt nicht. Aber er zeigt, wer wir sind.