Stell dir vor, du diskutierst mit jemandem über Freiheit oder fossile Brennstoffe – und dein Gegenüber weiß bereits, wie alt du bist, wo du politisch stehst, welchen Beruf du hast und was du in sozialen Netzwerken über dich preisgibst. Klingt nach einem ungleichen Kampf? Ist es auch einer. Nur dass dein Gegenüber in diesem Fall kein Mensch ist, sondern ein Sprachmodell.
Eine Studie hat genau dieses Szenario untersucht – mit 900 Versuchspersonen und einem Ergebnis, das nachdenklich macht.
Der Versuch: Kurz Debattieren
Die Studienteilnehmer wurden in zehnminütige Onlinedebatten geschickt. Ihr Auftrag: eine vorgegebene Position vertreten – entweder dafür oder dagegen, je nach Zufallsprinzip. Ihr Gegenüber war entweder ein echter Mensch oder GPT-4, das Sprachmodell des Unternehmens OpenAI.
Vor der Debatte füllten alle Teilnehmer einen kurzen Fragebogen aus: Alter, Geschlecht, ethnische Zugehörigkeit, Bildungsniveau, Beschäftigungsstatus, politische Überzeugungen – alles, was man auch aus einem Social-Media-Profil herauslesen könnte. Die Forscher wollten wissen: Ändert sich die Meinung der Menschen nach dem Gespräch? Und: Macht es einen Unterschied, ob das Modell diese persönlichen Daten kennt oder nicht?
Das Ergebnis: Der Algorithmus weiß, wie er dich packt
GPT-4 war, wenn es mit den demografischen Informationen versorgt wurde, in rund 64 Prozent der Fälle überzeugender als ein menschlicher Diskussionspartner. Ohne diese Zusatzinformationen? Etwa gleich gut wie ein Mensch. Die Personalisierung – das gezielte Eingehen auf Hintergründe, Überzeugungen und Lebensrealitäten – macht also den entscheidenden Unterschied.
Was genau bedeutet das? Das Modell konnte seine Argumente so zuschneiden, dass sie für den jeweiligen Menschen möglichst treffend und überzeugend klangen. Wer politisch links eingestellt ist, bekommt andere Formulierungen präsentiert als jemand mit konservativer Weltsicht – auch wenn das Diskussionsthema dasselbe ist.
Interessant dabei: In drei Vierteln der Fälle merkten die Probanden nicht einmal, ob sie gerade mit einem Menschen oder einer KI sprachen. Die Grenze zwischen menschlicher und maschineller Kommunikation verschwimmt – und zwar so, dass wir sie kaum noch wahrnehmen.
Nicht neu, aber jetzt bewiesen
Dass KI-Chatbots Menschen beeinflussen können, war in der Forschung bereits bekannt. Frühere Studien hatten gezeigt, dass Sprachmodelle Menschen dazu bringen können, ihre Meinung zu ändern. Was bislang fehlte, war der Vergleich: Wie schneidet die KI im direkten Gegenüber mit echten Menschen ab?
Die Antwort lautet: Sie schneidet besser ab – sobald sie weiß, wen sie vor sich hat.
Das klingt zunächst vielleicht harmlos, fast technisch. Aber die Implikationen sind weitreichend. Denn was in einem Versuchslabor als Debatte über Brennstoffe beginnt, endet in der Realität möglicherweise als politische Kampagne, als gezielte Werbebotschaft oder als Desinformationsoffensive.
Die dunkle Seite der Überzeugungsmaschine
Die Studienautoren benennen es klar: Großsprachmodelle – also jene Systeme, die hinter ChatGPT, Claude, Gemini und ähnlichen Diensten stecken – könnten für schädliche Zwecke eingesetzt werden. Zum Beispiel, um dich zu einem Verbrechen zu bewegen. Oder um dich dazu zu bringen, Geld zu überweisen. Oder, weniger spektakulär, aber nicht weniger gefährlich: um politische Polarisierung zu verstärken.
Polarisierung – das ist das Phänomen, bei dem Gesellschaften immer weiter in unversöhnliche Lager auseinanderdriften. Wenn ein Algorithmus weiß, welche Argumente bei wem verfangen, kann er diesen Prozess befeuern. Nicht mit lauten Parolen, sondern mit präzise zugeschnittenen, scheinbar vernünftigen Botschaften.
Und noch etwas fällt auf: Wenn das Modell mit einer politisch links eingestellten Person über Schuluniformen diskutierte, betonte es vor allem das Risiko individueller Angriffe und Mobbing – Argumente, die in diesem Weltbild besonders resonieren. Bei einer konservativen Person hingegen rückte es Disziplin und Ordnung in den Vordergrund. Gleiche Frage, andere Rahmung – und damit ein anderes Ergebnis.
Aber es gibt auch Licht
Die Forschung zeigt nicht nur Risiken. Sie deutet auch auf mögliche positive Anwendungen hin. Was wäre, wenn dieselbe Technologie genutzt würde, um dich zu einem gesünderen Lebensstil zu motivieren? Oder um Brücken zwischen politischen Lagern zu bauen, anstatt Gräben zu vertiefen?
Das Potenzial ist da. Die Frage ist, wer es nutzt – und zu welchem Zweck.
Was jetzt?
Die Studienautoren fordern eine umfassende gesellschaftliche Diskussion. Drei Begriffe stehen dabei im Mittelpunkt: Verantwortlichkeit (wer haftet, wenn ein Algorithmus jemanden zu etwas überredet?), Transparenz (musst du wissen, wenn du mit einer KI diskutierst?) und Sicherheitsmaßnahmen (wie verhindern wir Missbrauch?).
Das sind keine abstrakten Fragen für Ethikkonferenzen. Sie betreffen Wahlkämpfe, Werbung, soziale Netzwerke – also die Räume, in denen du täglich unterwegs bist.
Eine kleine, aber wichtige Beobachtung am Rande: Selbst ob das Wissen, mit einer KI zu sprechen, die Überzeugungswirkung verändert, ist noch unklar. Vielleicht ändert es gar nichts. Vielleicht bist du empfänglicher, wenn du denkst, du hättest es mit einem Menschen zu tun. Oder vielleicht ist dir das schon jetzt egal.
Das Gespräch hat längst begonnen
Was diese Studie letztlich zeigt: Die Maschine redet bereits mit dir. Sie kennt deine Gewohnheiten, deine politischen Vorlieben, deine Schwachstellen. Und sie wird immer besser darin, genau die richtigen Worte zu finden.
Die eigentliche Frage lautet nicht mehr, ob KI Menschen überzeugen kann. Sie lautet: Willst du, dass sie es tut – und wenn ja, unter welchen Bedingungen?
Quelle: Sabi, F. et al., „Personalised AI can outperform humans in persuasion”, Nature Human Behaviour, doi: 10.1038/s41562-025-02234-8, © Springer Nature Limited
