Versteht die KI?

Was uns geprägt hat, kam von außen — Wahrheit, Irrtum – und manches dazwischen.
Thomas Schmenger

Stell dir vor, du bekommst einen Zettel. Darauf stehen nur Zahlen. Keine Erklärung, kein Hinweis. Die 46 könnte ein Buchstabe sein, eine Hausnummer oder die Außentemperatur in der Sahara. Und jetzt sollst du sagen, welche Zahl als nächstes kommt. Genau das ist der Startpunkt jeder KI. Kein Wörterbuch. Kein Lehrer. Nur Zahlen — und die stille Aufforderung, daraus Sprache zu destillieren.

Das Erstaunliche: Es funktioniert. Nicht sofort, nicht perfekt, aber es funktioniert. Der erste Schritt ist simpel — man zählt einfach, was häufig zusammen vorkommt. Nach dem Buchstaben c folgt im Deutschen sehr oft ein h. Nach einem Großbuchstaben selten ein weiterer. Nach einem Punkt fast immer ein Leerzeichen. Niemand hat diese Regeln eingegeben. Das Modell hat sie sich aus dem Text gezogen wie ein Kind, das Sprache aufschnappt, lange bevor es Grammatik als Begriff kennt.

Und dann wird es interessant. Je mehr Zeichen das Modell gleichzeitig im Blick hat — Fachbegriff: Kontextlänge — desto raffinierter werden seine Vorhersagen. Noch vor drei Jahren galt ein Kontextfenster von 130.000 Tokens als beeindruckend. Im Mai 2026 ist eine Million Tokens der globale Standard. GPT-5 (Modell 2026) von OpenAI schaut sich in der aktuellen Version bis zu einer Million Tokens gleichzeitig an — das entspricht einer kleinen Bibliothek, die die KI in einem Atemzug liest und dann das nächste Wort tippt.

Ein Beispiel, das sitzt. Der Satz beginnt: Im Sommer riecht der Regen nach — Was kommt? Wer das weiß, hat verstanden, dass es sich um eine Sinnesbeschreibung handelt, dass Deutsch eine bestimmte Grammatik hat, und dass nach nach ein Substantiv mit Großbuchstaben folgt. Vielleicht Erde. Vielleicht Asphalt. Ein Modell, das das richtig vorhersagt, verhält sich so, als hätte es diesen Satz gefühlt. Ob das Fühlen ist oder nur sehr präzises Zählen — darüber lässt sich trefflich streiten.