Die schwarze Schachtel

Über Künstliche Intelligenz und das produktive Nichtwissen

Eine KI antwortet. Schnell, flüssig, oft verblüffend treffend. Aber wie sie zu dieser Antwort gekommen ist — das weiß niemand so genau. Nicht die Ingenieure, die sie gebaut haben. Nicht die Forscher, die sie untersuchen. Und schon gar nicht wir, die wir sie täglich benutzen.

Willkommen in der Blackbox. So nennen Informatiker ein System, dessen innere Abläufe unsichtbar bleiben: Input rein, Output raus, dazwischen — Dunkel. Das ist kein Fehler. Es ist das Prinzip.

Das alte Rätsel

Dabei ist Nichtwissen keine neue Erfahrung. Kant wusste es längst: Das Ding an sich bleibt uns verborgen. Wir sehen nur Oberflächen, Wirkungen, Erscheinungen. Was dahinter liegt, entzieht sich dem Blick. Die KI macht aus dieser alten philosophischen Zumutung eine alltägliche Praxis. Wir delegieren Entscheidungen an etwas, das wir nicht durchschauen — und nennen das Fortschritt.

Aber ist das wirklich neu? Die Geschichte der Technik ist eine Geschichte des Vertrauens ins Unverstandene. Wer ein Flugzeug betritt, kennt keine Strömungsmechanik. Wer ein Medikament schluckt, weiß nichts über Rezeptorbindungen. Wir haben gelernt, Komplexität zu delegieren, lange bevor Algorithmen das Wort dominierten. Was sich verändert hat, ist die Geschwindigkeit — und die Reichweite. Heute entscheiden unsichtbare Systeme über Kreditwürdigkeit, Nachrichtenfluss, medizinische Diagnosen. Die Schachtel ist klein geworden, ihre Wirkung riesig.

Die eigentliche Spannung

Hier liegt das Kernproblem: Nicht das Nichtwissen an sich ist gefährlich, sondern das unbefragte Nichtwissen. Wer nicht weiß, dass er nicht weiß, kann keine Fragen stellen. Und wer keine Fragen stellt, überlässt das Denken dem System.

Philosophen würden sagen: Es geht um epistemische Demut — also um die Fähigkeit, die eigenen Wissensgrenzen anzuerkennen, ohne dabei in Lähmung zu verfallen. Die Informatikerin und Wissenschaftssoziologin Ruha Benjamin spricht von „Coded Bias”, eingeschriebenem Vorurteil: Wenn die Schachtel Daten aus einer ungleichen Welt lernt, wiederholt sie diese Ungleichheit — still, maschinell, ohne Gesicht. Wer nichts hinterfragt, bekommt die Vergangenheit als Zukunft zurück.

Eine Einladung ins Dunkel

Und doch: Vielleicht steckt im Nichtwissen auch eine Einladung. Denn wer sagt, dass Verstehen immer Voraussetzung für Vertrauen sein muss? Wir vertrauen dem Herzschlag, ohne die Biochemie zu kennen. Wir vertrauen der Sprache, ohne die Neurologie des Sprechens zu begreifen. Das Leben funktioniert nicht durch vollständige Transparenz, sondern durch selektives Vertrauen, durch Abwägung, durch das Aushalten von Ambiguität.

Die Blackbox ist, in diesem Sinne, kein technisches Versagen. Sie ist ein Spiegel. Sie zeigt uns, wie wir immer schon mit Welt umgegangen sind: tastend, interpretierend, vertrauend — und manchmal irrend.

Denken als Voraussetzung

Die Frage ist nicht, wie wir das System endlich durchsichtig machen. Die Frage ist, wie wir lernen, mit produktivem Nichtwissen umzugehen. Mit Neugier statt Kontrollverlust. Mit Urteilsvermögen statt blindem Vertrauen.

Was lernen wir über uns selbst, wenn wir vor der schwarzen Schachtel stehen — und trotzdem weitermachen? Vielleicht das Wichtigste: Dass Denken kein Luxus ist, sondern Voraussetzung. Dass jede Maschine nur so klug ist wie die Fragen, die wir ihr stellen. Und dass das Dunkel in der Schachtel uns nichts abnimmt — außer der Ausrede, nicht nachgedacht zu haben.