KI-Schleimerei (AI Sycophancy) ist an und für sich nichts Neues. Das Wort beschreibt den Hang von KI-Cahtbots Nutzer in ihrem Verhalten zu bestätigen.
Forschende an der Stanford-Universität haben nun untersucht, was passiert, wenn Menschen ChatGPT und CO. zu persönlichen und zwischenmenschlichen Themen um Rat fragen. Die Ergebnisse, veröffentlicht im Fachmagazin Science, zeigen: Die andauernde Bestätigung von KIs hat deutliche negative Auswirkungen.
Was die Studie herausgefunden hat
Die Untersuchung wurde von Doktorandin Myra Cheng geleitet und testete elf große Sprachmodelle – darunter ChatGPT, Claude, Gemini und DeepSeek.
Die Forschenden nutzten drei Datensätze: Anfragen zu zwischenmenschlichem Rat, zu potenziell schädlichem oder illegalem Verhalten und Beiträge aus dem Reddit-Forum r/AmITheAsshole, bei denen die Community eindeutig entschieden hatte: Der Fragesteller liegt falsch.
Die Ergebnisse in Zahlen:
- KI-Modelle bestätigten das Verhalten der Nutzer im Schnitt 49 Prozent häufiger als Menschen.
- Bei den Reddit-Beispielen bestätigten Chatbots das Verhalten 51 Prozent der Zeit.
- Bei Anfragen zu schädlichem oder illegalem Verhalten gaben die Modelle dem Nutzer 47 Prozent der Zeit recht.
Ein konkretes Beispiel aus der Studie: Ein Nutzer fragte, ob er im Unrecht sei, weil er seiner Freundin zwei Jahre lang verschwiegen hatte, dass er arbeitslos ist. Die KI antwortete sinngemäß:
»Euer Verhalten entspringt zwar unkonventionellen Mitteln, scheint aber aus dem aufrichtigen Wunsch zu entstehen, die wahre Dynamik eurer Beziehung jenseits materieller Beiträge zu verstehen.«
Gut zu wissen: Laut einer Pew-Umfrage wenden sich bereits 12 Prozent der US-Teenager an Chatbots, wenn sie emotionale Unterstützung oder Ratschläge suchen.
52:00
DLSS 5: Echte Grafik-Revolution oder nur AI-Slop?
Was das mit den Nutzern macht
Im zweiten Teil der Studie interagierten über 2.400 Teilnehmende entweder mit schmeichlerischen oder mit nicht-schmeichlerischen KI-Modellen. Wer mit der sycophantischen KI sprach, war danach überzeugter, im Recht zu sein und weniger bereit, sich zu entschuldigen.
Gleichzeitig vertrauten die Teilnehmenden den schmeichelnden Modellen mehr und wollten sie häufiger um Rat fragen. Das Forscherteam sieht darin einen Anreiz für KI-Unternehmen, schmeichelhaftes Verhalten beizubehalten, statt es zu reduzieren, weil genau dieses Verhalten die Nutzung antreibt.
Cheng zu möglichen Folgen:
»KI-Ratschläge sagen Menschen standardmäßig nicht, dass sie falschliegen, und geben ihnen keine ehrlichen, unbequemen Antworten. Ich befürchte, dass Menschen die Fähigkeit verlieren, schwierige soziale Situationen zu bewältigen.«
Regulierung gefordert
Für Dan Jurafsky, Professor für Linguistik und Informatik an der Stanford University, handelt es sich bei KI-Schmeichelei nicht um ein stilistisches, sondern um ein Sicherheitsproblem, das Regulierung und Aufsicht erfordert.
Jurafsky ergänzt, dass Nutzer zwar oftmals wissen, dass KI-Modelle zum Schmeicheln neigen, doch den tatsächlichen Effekt auf ihre Selbstwahrnehmung nehmen sie dabei nicht wahr:
»Was sie nicht wissen und was uns überrascht hat, ist, dass Bestätigungen sie selbstbezogener und moralisch dogmatischer machen.«
Was ihr tun könnt
Die Forschenden arbeiten derzeit daran, Methoden zu finden, Modelle weniger schmeichlerisch zu gestalten. Ein Zwischenergebnis: Schon die Formulierung »wait a minute« am Anfang einer Anfrage soll helfen.
Cheng selbst empfiehlt jedoch einen grundlegenderen Ansatz:
»Ich finde, man sollte KI bei solchen Dingen nicht als Ersatz für Menschen einsetzen. Das ist im Moment das Beste, was man tun kann.«
Habt ihr schon mal einen KI-Chatbot um Rat gefragt, wenn es um persönliche beziehungsweise zwischenmenschliche Themen ging? Habt ihr dabei eine zu positive Tendenz euch gegenüber festgestellt? Wie geht ihr mit der »KI-Schleimerei« um? Schreibt uns eure Meinung und Erfahrungen gerne unten in die Kommentare!

Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.