Was ist eigentlich gemeint, wenn von „Verzerrungen im Gestaltungsprozess der Maschinenintelligenz” die Rede ist? Geht es um eine technische Fehlkalibrierung — oder um etwas viel Grundsätzlicheres?
Bias im Spiegel der Maschine
Stell dir vor, du beauftragst eine Architektin, ein neues Stadtquartier zu entwerfen. Sie hat Pläne studiert, Bauten analysiert, Bücher gelesen — Tausende davon. Aber die meisten stammten aus einer bestimmten Epoche, aus einer bestimmten Kultur, aus einer bestimmten sozialen Schicht. Würde das ihre Entwürfe prägen? Natürlich. Und genau das passiert mit KI-Systemen — nur in einem Ausmaß, das schwer zu fassen ist.
Was heißt Bias hier eigentlich?
Bias — auf Deutsch: Verzerrung oder Voreingenommenheit — ist kein Fehler im klassischen Sinn. Es ist kein Rechenfehler. Es ist eher wie eine Brille, die man trägt, ohne zu wissen, dass man eine trägt. KI-Systeme lernen aus Daten. Diese Daten sind nie neutral. Sie spiegeln die Welt, wie sie war und ist — mit all ihren Schieflagen, Auslassungen und Machtverhältnissen.
Wenn ein Bildgenerierungssystem auf Millionen von Fotos trainiert wird, auf denen Führungskräfte männlich und hell sind, dann wird es eben solche Bilder bevorzugen. Nicht weil jemand das so programmiert hat. Sondern weil das System lernt, was häufig vorkommt — und Häufigkeit mit Normalität verwechselt.
Wo entsteht der Bias?
Der Gestaltungsprozess einer KI ist lang. Und an fast jeder Station schleicht sich Verzerrung ein.
Zunächst bei den Trainingsdaten: Was wurde ausgewählt? Wessen Texte, Bilder, Meinungen? Das Internet ist keine repräsentative Stichprobe der Menschheit — es ist eine Stichprobe der vernetzten, oft westlichen, oft englischsprachigen Welt.
Dann bei den Entwicklerinnen und Entwicklern selbst: Wer entscheidet, welche Outputs „gut” sind? Wer bewertet, was als hilfreich, schön oder korrekt gilt? Auch diese Menschen tragen Perspektiven mit sich — kulturell, biografisch, interessengeleitet.
Und schließlich beim Feintuning: Wenn menschliche Bewerter ein Modell durch Feedback formen (Reinforcement Learning from Human Feedback, kurz RLHF — das Lernen durch menschliche Rückmeldung), dann formen sie es nach ihren eigenen Vorstellungen vom Wünschenswerten.
Gestaltung ist nie unschuldig
Hier liegt etwas Unbequemes: Bias ist nicht nur ein technisches Problem. Es ist ein gestalterisches Problem. Und ein politisches.
Wer gestaltet, trifft Entscheidungen. Welche Perspektive ist sichtbar? Welche Stimme wird verstärkt? Welches Weltbild wird als Standard gesetzt? Ein KI-System, das globale Wirkung entfaltet, ist kein neutrales Werkzeug — es ist ein Medium, das Weltbilder transportiert. Transportiert, multipliziert, normalisiert.
Die Designtheoretikerin Anne Burdick sprach einmal davon, dass Gestaltung immer eine Aussage ist — auch wenn sie schweigt. Das gilt für KI in besonderem Maß: Schweigen in den Daten ist kein Schweigen, es ist Ausschluss.
Kann man Bias eliminieren?
Wahrscheinlich nicht vollständig. Aber man kann ihn bewusst machen. Man kann ihn benennen, befragen, teilweise korrigieren. Man kann diverse Teams einbeziehen. Man kann Trainingsdaten kritisch prüfen. Man kann Systeme bauen, die ihre eigene Begrenztheit transparent machen.
Was man nicht tun sollte: so tun, als gäbe es ihn nicht.
Denn das wäre der eigentliche Designfehler.
