Eine Frage, die in Gerichtssälen, Vorstandsetagen und Ethikkommissionen gerade heiß diskutiert wird. Und die Antwort ist komplizierter, als man zunächst denkt.
Nehmen wir einen konkreten Fall: Ein autonomes Auto bremst zu spät, ein Mensch wird verletzt. Wer haftet? Der Hersteller des Fahrzeugs? Der Programmierer, der den Algorithmus schrieb? Der Fahrer, der die Hände nicht am Lenkrad hatte? Oder vielleicht sogar die KI selbst?
Das deutsche Recht kennt bisher nur Menschen und juristische Personen als Verantwortungsträger. Eine Maschine kann nicht verklagt werden, keine Geldstrafe zahlen, nicht ins Gefängnis gehen. Sie ist ein Werkzeug – und für Werkzeuge haftet traditionell, wer sie einsetzt oder herstellt.
Die Grauzone wird größer
Doch hier beginnt das Problem: Moderne KI-Systeme lernen selbstständig, treffen Entscheidungen nach Mustern, die selbst ihre Entwickler nicht vollständig nachvollziehen können. Neuronale Netze – vereinfacht gesagt: künstliche Gehirne, die aus Erfahrung lernen – funktionieren oft wie eine Black Box. Man füttert sie mit Daten, sie liefern Ergebnisse, aber der Weg dazwischen bleibt im Dunkeln.
Ein Algorithmus lehnt einen Kreditantrag ab. Warum genau? Das System kann es oft nicht präzise erklären. Ein medizinisches Diagnoseprogramm übersieht einen Tumor. War es ein Fehler in den Trainingsdaten? In der Programmierung? Oder eine Kombination aus beidem, die niemand vorhersehen konnte?
Verantwortung als Staffellauf
In der Praxis entsteht eine Art Verantwortungskette: Der Programmierer schreibt den Code, das Unternehmen setzt ihn ein, der Nutzer trifft die finale Entscheidung – oder eben nicht. Jeder einzelne Schritt scheint kontrollierbar, aber in der Summe verschwimmt die Zuständigkeit.
Juristen versuchen gerade, neue Rahmen zu schaffen. Die EU-KI-Verordnung, die 2024 verabschiedet wurde, stuft KI-Systeme nach Risiko ein und fordert von Hochrisiko-Anwendungen besondere Sorgfaltspflichten. Hersteller müssen nachweisen, dass ihre Systeme sicher und transparent sind. Ein Anfang – aber kein Allheilmittel.
Die philosophische Dimension
Dahinter steckt eine grundsätzlichere Frage: Was bedeutet Verantwortung eigentlich, wenn nicht mehr ein Mensch direkt handelt, sondern ein System, das er in Gang gesetzt hat? Verantwortung setzt Schuldfähigkeit voraus – die Fähigkeit, zu verstehen, was man tut, und zwischen richtig und falsch zu unterscheiden. Eine Maschine hat das nicht.
Manche Philosophen argumentieren: Wer eine Technologie nutzt, deren Funktionsweise er nicht vollständig durchschaut, handelt fahrlässig. Andere sagen: Fortschritt ist immer mit Ungewissheit verbunden. Entscheidend sei, ob man angemessene Vorkehrungen getroffen hat.
Keine einfachen Antworten
Am Ende läuft es wohl auf einen gesellschaftlichen Aushandlungsprozess hinaus. Wie viel Unsicherheit sind wir bereit zu akzeptieren? Welche Aufgaben wollen wir Maschinen tatsächlich überlassen? Und welche Mechanismen – rechtlich, technisch, ethisch – brauchen wir, um die Kontrolle nicht zu verlieren?
Die Verantwortung bleibt beim Menschen. Die Frage ist nur: bei welchem genau? Und wie stellen wir sicher, dass diese Person die Macht hat, etwas zu ändern, wenn die Maschine irrt?
