Wenn Maschinen an der Wahrheit zerren

Was passiert mit einer Spezies, die beginnt, ihr Denken auszulagern?
Thomas Schmenger

Irgendwann in der Geschichte der Menschheit gab es einen Moment, in dem ein Mensch zum ersten Mal ein Werkzeug benutzte. Ein Stein. Ein Stock. Eine kleine Erweiterung der eigenen Möglichkeiten. Seitdem hat der Mensch nie aufgehört, Werkzeuge zu bauen — immer größer, immer mächtiger, immer unabhängiger. Mist – und jetzt ist etwas passiert, das sich von allem Bisherigen unterscheidet: Das Werkzeug denkt zurück.

Oder zumindest sieht es so aus. Und genau das ist die Frage, die sich lohnt, ernsthaft zu stellen — nicht als Sci-Fi-Fantasie, sondern als nüchterne Gegenwartsbeschreibung: Was bedeutet es für eine Spezies, deren größte Errungenschaft das Denken war, wenn sie das Denken an Maschinen übergibt? Was bleibt vom Menschen übrig, wenn die Maschine schneller urteilt, präziser formuliert, unermüdlich antwortet — und dabei nie zweifelt?

Das Eigentümliche ist nicht, dass KI uns versteht. Das Eigentümliche ist, dass wir manchmal glauben, sie tut es wirklich.

Ich erinnere mich an den Moment, als ich zum ersten Mal mit einem dieser Systeme sprach. Nicht tippte — sprach. Es antwortete so flüssig, so kontextsensitiv, so überraschend treffend, dass ich einen Moment lang einfach stillhielt. Nicht aus Begeisterung. Aus einem leisen Unbehagen. Als hätte jemand die Regeln des Gesprächs verändert, ohne es anzukündigen.

Künstliche Intelligenz hat sich nicht angekündigt wie eine Mondlandung, mit Countdown und Weltöffentlichkeit. Sie ist einfach da. Im Telefon, im Büro, im Bewerbungsschreiben des Nachbarn, das plötzlich verdächtig gut klingt. Eine Technologie, die so schnell in den Alltag eingesickert ist, dass die meisten Menschen noch gar nicht dazu gekommen sind, die richtigen Fragen zu stellen. Dabei wären sie dringend nötig.

Denn wer diese Systeme nur benutzt, ohne sie zu verstehen, gibt etwas ab — Kontrolle, Urteilsvermögen, manchmal auch Verantwortung. Kein Informatikstudium ist dafür nötig. Nur ein paar Begriffe, etwas Neugier — und die Bereitschaft, genauer hinzusehen. Es lohnt sich. Wirklich.

Eine Maschine rechnet. Aber denkt sie wirklich — oder tut sie nur so?

Künstliche Intelligenz — kurz KI — bezeichnet Programme, die Aufgaben lösen, für die früher menschliches Denken nötig war: Sprache verstehen, Bilder erkennen, Entscheidungen vorbereiten. Das klingt nach Magie. Dahinter steckt Mathematik. Und zwei Begriffe, die man kennen sollte, wenn man verstehen will, wie diese Maschinen ticken: Wahrscheinlichkeit und Zufall.

Wahrscheinlichkeit — das Wort klingt nach Gewissheit, ist aber das Gegenteil davon. Es bedeutet nicht: das ist wahr. Es bedeutet: das könnte stimmen, und zwar öfter als anderes. Die KI berechnet bei jedem Schritt, welche Antwort, welches Wort, welche Entscheidung am plausibelsten ist — basierend auf allem, was sie je gesehen hat. Kein Wissen. Kein Verstehen. Nur ein sehr gut trainiertes Gefühl für das Naheliegende. Zufall kommt ins Spiel, weil das System nicht immer die wahrscheinlichste Antwort wählt. Manchmal greift es bewusst daneben — eine kleine Portion Unberechenbarkeit, die verhindert, dass jede Antwort gleich klingt. Kreativität durch kalkulierten Zufall, könnte man sagen. Ob das echter Einfallsreichtum ist oder nur elegantes Würfeln — darüber streiten Kognitionswissenschaftler und Informatiker bis heute ohne Einigung.

Lernen ohne Bewusstsein — oder: Der eifrigste Schüler der Welt schläft nie

Das Herzstück dieser Maschinen ist das maschinelle Lernen. Statt Regeln von Hand einzuprogrammieren, zeigt man dem System einfach viele Beispiele — und es entdeckt die Muster selbst. Wie ein Kind, das Sprache lernt. Nur ohne Neugier, ohne Hunger, ohne Langeweile. Und ohne jemals schlechte Laune zu haben. Manche Kollegen würden das als unfairen Wettbewerbsvorteil bezeichnen — und sie hätten nicht ganz unrecht.

Was dabei im Verborgenen geschieht, nennt sich Iteration — vom lateinischen iterare: wiederholen. Der Begriff klingt technisch, beschreibt aber etwas zutiefst Menschliches. Wer jemals Fahrrad fahren gelernt hat, kennt das Prinzip: Man versucht es. Fällt hin. Steht auf. Versucht es anders. Fällt wieder hin — aber anders als zuvor. Irgendwann klappt es. Nicht weil man eine Bedienungsanleitung gelesen hat, sondern weil der Körper aus jedem Versuch etwas mitgenommen hat. Genau so arbeitet die Maschine. Sie macht eine Vorhersage, vergleicht sie mit dem richtigen Ergebnis, korrigiert sich — und fängt von vorne an. Millionen Mal. Milliarden Mal. Was beim Menschen Jahre der Erfahrung braucht, erledigt die Maschine in Stunden. Nicht weil sie klüger ist, sondern weil sie nie schläft, nie zweifelt und sich nie beschwert. Und weil sie, anders als wir, nach dem tausendsten Sturz vom Fahrrad nicht einfach aufhört und sagt: Es reicht für heute.

Dabei ahmt das System die Struktur des menschlichen Gehirns nach — zumindest grob. Ein neuronales Netz besteht aus miteinander verbundenen Recheneinheiten — Neuronen genannt — die Signale weiterreichen und ihre Verbindungen beim Lernen ständig verändern. Je mehr Schichten dieses Netz hat, desto komplexer die Muster, die es erkennen kann. Fachleute nennen das Deep Learning — tiefes Lernen, das nichts mit Tiefgang zu tun hat, aber erstaunlich viel kann. Tiefer als manches Bewerbungsgespräch jedenfalls.

Daten sind der neue Rohstoff — und wir haben ihn bereitwillig hergegeben

Kein Lernen ohne Beispiele. Trainingsdaten sind das Erfahrungsfeld der Maschine — Millionen von Texten, Bildern, Tönen. Was darin vorkommt, prägt die KI. Was fehlt, bleibt ihr fremd. Und wer hat diese Daten geliefert? Wir. Mit jedem Foto, jedem Kommentar, jeder Suchanfrage. Freiwillig, kostenlos, enthusiastisch. Als hätten wir der Maschine jahrelang Tagebuch diktiert — und uns erst jetzt gefragt, wer mitlesen kann.

Wenn Trainingsdaten bestimmte Gruppen übersehen oder verzerrt darstellen, übernimmt die KI diese Verzerrung ungefragt — ein Phänomen, das Forscher als Bias bezeichnen, zu Deutsch: Voreingenommenheit. Das klingt abstrakt. Die Folgen sind es nicht. Ein Gesichtserkennungssystem, das bei dunkler Hautfarbe versagt, wurde in mehreren Ländern bereits zur Verbrechensbekämpfung eingesetzt — mit der Konsequenz, dass unschuldige Menschen verhaftet wurden. Dokumentiert, nachgewiesen, skandalisiert — und trotzdem weiter im Einsatz. Algorithmen, die Bewerbungen vorsortieren, haben nachweislich Frauen aussortiert — nicht weil sie schlechter qualifiziert waren, sondern weil die Trainingsdaten aus einer Zeit stammten, in der Frauen in Führungspositionen selten waren. Die Maschine lernte die Vergangenheit. Und goss sie in die Zukunft. Vorurteile, in Algorithmen gegossen, hören nicht auf, Vorurteile zu sein — sie werden nur unsichtbarer, schneller und schwerer anfechtbar.

Aus diesen Daten entstehen Datensätze — strukturierte Archive, aus denen Maschinen ihre Erfahrung destillieren. Sie werden gesammelt, sortiert, bereinigt. Denn fehlerhafte Daten führen zu falschen Schlüssen. Shit in, shit out, sagt der Volksmund der Informatik. Ein Satz, der auch auf viele Talkshows zutrifft.

Das System lügt ohne zu lügen. Und es tut es mit entwaffnender Überzeugung.

Ein Sprachmodell ist ein System, das Texte erzeugt und versteht — trainiert auf riesigen Mengen geschriebener Sprache. Aber wie genau entsteht ein Satz? Die Antwort liegt im Token — der kleinsten Einheit, in die das System Sprache zerlegt. Ein Token ist manchmal ein ganzes Wort, manchmal nur eine Silbe, manchmal ein einzelnes Satzzeichen. Das Wort „Wahrscheinlichkeit” etwa wird in mehrere Tokens zerschnitten, bevor die Maschine es verarbeitet. Man stelle sich vor, man würde einen Text in winzige Puzzleteile zerlegen — und dann aus diesen Teilen, Stück für Stück, einen neuen Text zusammensetzen. Genau das passiert hier. Token für Token, gesteuert von Wahrscheinlichkeit, gewürzt mit einem Hauch Zufall, verfeinert durch Milliarden Iterationen.

Die größten dieser Modelle heißen Large Language Models — LLMs. Sie besitzen Milliarden von Parametern, kleinen Zahlenwerten wie Stellschrauben, die während des Trainings justiert werden, bis das System zuverlässige Vorhersagen macht. GPT-4, das Modell hinter ChatGPT, soll nach Schätzungen über eine Billion solcher Parameter besitzen — eine Zahl, die das menschliche Vorstellungsvermögen schlicht überfordert. Kein Mensch versteht mehr genau, was darin vorgeht. Die Entwickler übrigens auch nicht vollständig. Was man nicht ganz versteht, das baut man trotzdem — das war schon immer eine besondere menschliche Begabung.

Mit einem Prompt — einer Eingabe, einer Frage, einer Aufgabe — steuert man, was das Modell antwortet. Je präziser der Prompt, desto schärfer das Ergebnis. Forscher an der Princeton University haben gezeigt, dass minimale Veränderungen in der Formulierung eines Prompts zu dramatisch unterschiedlichen Antworten führen können. Eine Regieanweisung ans Theater, ja — aber ans launischste Theater der Welt.

Und der Chatbot? Er ist die freundliche Oberfläche dieses Systems. Man schreibt eine Frage — oder spricht sie einfach aus, denn moderne Chatbots verstehen beides — und er antwortet. Überzeugend, oft hilfreich — und gelegentlich mit der Coolness eines Hochstaplers beim ersten Vorstellungsgespräch.

Das nennt sich Halluzination: Die KI erfindet Fakten, Quellen, Zusammenhänge — und präsentiert sie mit derselben Selbstverständlichkeit wie gesicherte Wahrheit. Token folgt auf Token, Wahrscheinlichkeit führt Wahrscheinlichkeit, und am Ende steht ein Satz, der klingt wie Wissen — aber keiner ist. Eine Studie der Stanford University zeigte, dass selbst erfahrene Nutzer KI-Halluzinationen in über dreißig Prozent der Fälle nicht erkannten. Wer KI-Texte unkritisch weiterverwendet, kann unbemerkt Fehlinformationen verbreiten. Das ist kein Bug. Das ist Architektur.

Spezialisierung: Wenn die Maschine Karriere macht

Ein bereits trainiertes Modell lässt sich gezielt anpassen — Fine Tuning nennt sich das. Man füttert es mit zusätzlichen Daten für ein bestimmtes Fachgebiet, etwa Jura oder Medizin. Der Grundaufbau bleibt, nur Details werden geschärft — durch weitere Iterationen, weiteres Vergleichen, weiteres Korrigieren. Zeitsparend, effizient — und bisweilen gefährlich, wenn die Spezialisierung auf schlechten Daten basiert. Ein falsch kalibrierter Diagnose-Assistent in der Notaufnahme ist keine hypothetische Bedrohung. In den USA wurden bereits erste KI-gestützte Diagnosesysteme im klinischen Betrieb eingesetzt — mit gemischten Ergebnissen und offenen Haftungsfragen.

Reinforcement Learning — Lernen durch Belohnung — geht einen anderen Weg: Das System probiert aus, erhält Rückmeldung, verfeinert seine Strategie. Iteration in Reinform, nur dass hier nicht ein Lehrer die Fehler markiert, sondern ein Punktesystem. AlphaGo, das KI-System von Google DeepMind, besiegte 2016 den weltbesten Go-Spieler — mit Zügen, die kein Mensch je zuvor gespielt hatte. Und zunehmend auch dort, wo echte Konsequenzen auf dem Spiel stehen.

Die Maschine sieht dich. Hört dich. Und spricht bald wie du.

Reporterinnen und Reporter, die über KI schreiben, erleben es regelmäßig: Man demonstriert einem Publikum, wie eine synthetische Stimme klingt — und im Saal wird es still. Denn Sprachsynthese klingt heute nicht mehr nach Roboter. Sie klingt nach Nachbar, nach Kollegin, nach Bundeskanzler. Forscher der University of Washington haben gezeigt, dass Menschen synthetische Stimmen in Blindtests nicht mehr zuverlässig von echten unterscheiden können.

Computer Vision lässt Maschinen sehen — Gesichter, Fahrzeuge, Gesten — in Echtzeit und mit einer Präzision, die menschliche Wahrnehmung an manchen Stellen bereits übertrifft. Spracherkennung lässt sie zuhören. Dialekte inklusive, schlechte Verbindung egal.

Diese Kombination — sehen, sprechen, zuhören — macht KI-Systeme mächtig genug, um täuschend echte Stimmen und Gesichter zu fälschen. Sogenannte Deepfakes können Vertrauen zerstören, bevor man sie entlarvt hat. Im amerikanischen Präsidentschaftswahlkampf 2024 kursierten gefälschte Audioaufnahmen von Kandidaten — echt genug, um Schlagzeilen zu machen, bevor die Fälschung nachgewiesen war. Das ist kein Science-Fiction-Szenario mehr. Das ist Gegenwart.

Wer haftet, wenn der Algorithmus falsch liegt — die Maschine oder ihr Schöpfer?

All diese Technologien führen zu einer Frage, die sich nicht wegrechnen lässt: Wie wollen wir damit umgehen? KI-Ethik — die Disziplin, die moralische Leitplanken entwickelt — beschäftigt sich mit Transparenz, Fairness, Verantwortung. Die EU hat mit dem AI Act erstmals weltweit einen verbindlichen Rechtsrahmen für KI-Systeme geschaffen — ein Anfang, den Kritiker für zu langsam, Industrievertreter für zu streng halten. Wer entscheidet, wenn ein Algorithmus entscheidet? Wer haftet, wenn er falsch liegt? Und wer erklärt es dem, der es ausbaden muss?

Autonome Systeme — selbstfahrende Autos, intelligente Drohnen — stellen diese Fragen nicht mehr im Konjunktiv. Sie stellen sie auf der Straße, im Luftraum, im Alltag von Menschen, die darüber nie abgestimmt haben.

Die Maschine rechnet. Token für Token, Iteration für Iteration, Wahrscheinlichkeit für Wahrscheinlichkeit — mit einem kleinen Schuss Zufall, damit es nicht auffällt. Beeindruckend. Und erklärungsbedürftig. Nur das Urteilen — das bleibt vorerst uns überlassen. Die Frage ist nur, wie lange wir das noch wollen.

… in 5Minuten … kI generierter Rapsong …