Die freundliche Maschine, der wir zu viel glauben
Es gibt eine merkwürdige neue Höflichkeit im Umgang mit künstlicher Intelligenz. Man fragt, die Maschine antwortet. Bestimmt, flüssig, ohne zu zögern. Und man nickt – obwohl man eigentlich gar nicht weiß, ob das stimmt.
Was eine epistemische Lücke ist – und warum sie gefährlich wird
Epistemisch heißt: das Wissen betreffend. Eine epistemische Lücke ist der blinde Fleck zwischen dem, was wir wissen könnten, und dem, was wir tatsächlich wissen. KI-Systeme haben diese Lücken ebenfalls. Nur sehen sie anders aus. Und das ist das Tückische. Ein Sprachmodell wurde auf riesigen Mengen menschlichen Textes trainiert. Es hat Muster gelernt, keine Wahrheiten. Es weiß nicht, ob seine Aussage korrekt ist – es generiert plausible Fortsetzungen. Der Text klingt souverän, weil Souveränität im Training belohnt wurde. Nicht Richtigkeit. Kurz gesagt: Die Maschine weiß nicht, was sie nicht weiß.
Das Vertrauensproblem
Menschen sind schlecht darin, Unsicherheit wahrzunehmen, wenn sie nicht explizit signalisiert wird. Wir lesen Kompetenz aus Sprache ab – aus Satzbau, Präzision, ruhigem Ton. KI-Systeme liefern all das, auch wenn der Inhalt falsch ist. Psychologen nennen diesen Effekt Fluency Bias: Wir halten glatte Aussagen für wahrer als holprige. Ein KI-Text ist fast immer glatt. In Experimenten zeigte sich: Menschen überschätzen die Zuverlässigkeit von KI-Antworten erheblich – besonders dann, wenn sie selbst wenig Vorwissen haben. Wer nicht weiß, was er nicht weiß, kann nicht erkennen, wenn die Maschine dasselbe Problem hat. Das ist keine Kritik an einzelnen Nutzern. Es ist eine strukturelle Falle.
Wenn die Lücke unsichtbar ist
Das Heimtückische: Ein Arzt, der unsicher ist, sagt „Das müsste ich nachschlagen.” Eine KI sagt es meistens nicht. Dabei gibt es verschiedene Arten von Lücken – Daten, die im Training fehlten; Ereignisse danach; Zusammenhänge, die nie explizit beschrieben wurden; und besonders heikel: Fragen ohne eindeutige Antwort, die das Modell trotzdem beantwortet. Wer fragt „Ist diese Vertragsklausel problematisch?” bekommt eine Antwort. Ob sie stimmt, ist eine andere Frage.
Vertrauen ist nicht das Gegenteil von Skepsis
KI-Systeme sind nützlich, oft außerordentlich nützlich. Aber die Grenzen sind unsichtbar – verborgen hinter einer Oberfläche, die nach Allwissenheit aussieht. Was bräuchte man stattdessen? Eine Haltung, die Philosophen epistemische Bescheidenheit nennen: die Gewohnheit innezuhalten und zu fragen – woher kommt diese Antwort? Was könnte hier fehlen? Ist das überprüfbar? Nicht Misstrauen. Bescheidenheit.
Die eigentliche Herausforderung
Mehr Antworten bedeuten nicht mehr Klarheit. Vielleicht ist das die eigentliche Aufgabe der nächsten Jahre: nicht bessere Maschinen zu bauen, sondern bessere Fragesteller zu werden. Menschen, die einer überzeugend klingenden Antwort gegenüber innehalten und sich fragen: Stimmt das wirklich? Und woher soll die Maschine das eigentlich wissen? Die Maschine selbst wird diese Frage nicht stellen. Das müssen wir schon selbst tun.
