Stell dir vor, du fragst einen sehr selbstbewussten Freund nach einer Wegbeschreibung – und statt zu sagen „Ich weiß es nicht“, gibt er dir mit fester Stimme eine genaue Route, die absolut überzeugend klingt, dich aber mitten in einen Acker führt.
Genau das passiert, wenn Künstliche Intelligenz halluziniert: Sie produziert Informationen, die es in der Realität gar nicht gibt, formuliert sie aber so flüssig, präzise und logisch klingend, dass man sie leicht für wahr hält.
Ein einfaches Beispiel:
Du fragst eine KI: „Wer hat den Roman ‘Der Sandmann’ von Thomas Mann geschrieben?“
Die richtige Antwort wäre: „Niemand, diesen Roman gibt es nicht. ‘Der Sandmann’ ist von E.T.A. Hoffmann.“
Eine halluzinierende KI könnte aber antworten: „‘Der Sandmann’ wurde 1921 von Thomas Mann veröffentlicht und gilt als eine seiner bedeutendsten Novellen.“ – völlig frei erfunden, aber überzeugend präsentiert.
Halluzinationen entstehen, weil die KI nicht wie ein Mensch nachprüft, ob etwas tatsächlich stimmt. Sie berechnet Wahrscheinlichkeiten für Wörter und Sätze und „erfindet“ dabei manchmal eine passende, aber falsche Ergänzung – ähnlich wie ein improvisierender Geschichtenerzähler.
Nehmen Halluzinationen im Lauf der Enwicklung ab?
Ja – aber nur teilweise und nicht in dem Ausmaß, wie es oft in Marketingbotschaften klingt.
Die großen Sprachmodelle (wie GPT-5 oder vergleichbare Systeme) neigen weniger zu bestimmten Arten von Halluzinationen als ihre Vorgänger, weil Training und Architektur gezielter auf Faktenprüfung, kontextbewusstes Zitieren und Konsistenzkontrollen ausgerichtet sind. Fortschritte entstehen vor allem durch:
Gezieltere Trainingsdaten – Auswahl qualitativ hochwertiger, geprüfter Quellen statt unsauberer Web-Scrapes.
Bessere Feinabstimmung – Einsatz von „Reinforcement Learning from Human Feedback“ (RLHF) und „Constitutional AI“, um unplausible oder falsche Antworten in späteren Trainingsphasen zu reduzieren.
Werkzeugintegration – Modelle werden zunehmend mit Such-, Rechen- oder Datenbankmodulen gekoppelt, um Fakten nachzuschlagen, anstatt sie zu raten.
Erweiterte Kontexte – Größere Eingabefenster reduzieren den Bedarf, fehlende Informationen zu „erfinden“.
Trotzdem verschwinden Halluzinationen nicht vollständig, weil:
Wahrscheinlichkeitsmodell statt Wissen – Das Modell generiert Wortfolgen nach Wahrscheinlichkeit, nicht nach Wahrheitsprüfung.
Lückenhafte Datenbasis – Selbst mit kuratierten Daten können unbekannte oder mehrdeutige Themen zu erfundenen Details führen.
Fehlerfortpflanzung – Wenn eine falsche Information in den Trainingsdaten mehrfach vorkommt, wird sie stabiler reproduziert.
In der Forschung wird eher von einer Verschiebung der Halluzinationen gesprochen: Weniger plumpe, offensichtliche Fehler – dafür subtilere, die plausibel klingen und schwerer zu entlarven sind. Studien wie Ji et al. 2023 („Survey of Hallucination in Natural Language Generation“) und Mallen et al. 2024 weisen darauf hin, dass die Reduktion von Halluzinationen aktuell mehr über Architektur- und Workflow-Tricks als über ein grundlegend „wahrheitsfähiges“ Modell geschieht.
