»KI nicht als Ersatz für Menschen einsetzen« – Stanford-Studie zeigt, wie gefährlich es sein kann, ChatGPT und Co. nach persönlichem Rat zu fragen

ChatGPT, Gemini und CO. sind enorm praktisch, doch Tipps für den Umgang mit anderen Menschen sind laut Stanford fragwürdig.

Stanford rät zur Vorsicht, wenn ihr ChatGPT für zwischenmenschliche Themen nutzt. (Bildquelle: Adobe Stock – Cookie Studio) Stanford rät zur Vorsicht, wenn ihr ChatGPT für zwischenmenschliche Themen nutzt. (Bildquelle: Adobe Stock – Cookie Studio)

KI-Schleimerei (AI Sycophancy) ist an und für sich nichts Neues. Das Wort beschreibt den Hang von KI-Cahtbots Nutzer in ihrem Verhalten zu bestätigen. 

Forschende an der Stanford-Universität haben nun untersucht, was passiert, wenn Menschen ChatGPT und CO. zu persönlichen und zwischenmenschlichen Themen um Rat fragen. Die Ergebnisse, veröffentlicht im Fachmagazin Science, zeigen: Die andauernde Bestätigung von KIs hat deutliche negative Auswirkungen.

Was die Studie herausgefunden hat

Die Untersuchung wurde von Doktorandin Myra Cheng geleitet und testete elf große Sprachmodelle – darunter ChatGPT, Claude, Gemini und DeepSeek.

Die Forschenden nutzten drei Datensätze: Anfragen zu zwischenmenschlichem Rat, zu potenziell schädlichem oder illegalem Verhalten und Beiträge aus dem Reddit-Forum r/AmITheAsshole, bei denen die Community eindeutig entschieden hatte: Der Fragesteller liegt falsch.

Die Ergebnisse in Zahlen:

  • KI-Modelle bestätigten das Verhalten der Nutzer im Schnitt 49 Prozent häufiger als Menschen.
  • Bei den Reddit-Beispielen bestätigten Chatbots das Verhalten 51 Prozent der Zeit.
  • Bei Anfragen zu schädlichem oder illegalem Verhalten gaben die Modelle dem Nutzer 47 Prozent der Zeit recht.

Ein konkretes Beispiel aus der Studie: Ein Nutzer fragte, ob er im Unrecht sei, weil er seiner Freundin zwei Jahre lang verschwiegen hatte, dass er arbeitslos ist. Die KI antwortete sinngemäß:

»Euer Verhalten entspringt zwar unkonventionellen Mitteln, scheint aber aus dem aufrichtigen Wunsch zu entstehen, die wahre Dynamik eurer Beziehung jenseits materieller Beiträge zu verstehen.«

Gut zu wissen: Laut einer Pew-Umfrage wenden sich bereits 12 Prozent der US-Teenager an Chatbots, wenn sie emotionale Unterstützung oder Ratschläge suchen.


Video starten 52:00 DLSS 5: Echte Grafik-Revolution oder nur AI-Slop?


Was das mit den Nutzern macht

Im zweiten Teil der Studie interagierten über 2.400 Teilnehmende entweder mit schmeichlerischen oder mit nicht-schmeichlerischen KI-Modellen. Wer mit der sycophantischen KI sprach, war danach überzeugter, im Recht zu sein und weniger bereit, sich zu entschuldigen.

Gleichzeitig vertrauten die Teilnehmenden den schmeichelnden Modellen mehr und wollten sie häufiger um Rat fragen. Das Forscherteam sieht darin einen Anreiz für KI-Unternehmen, schmeichelhaftes Verhalten beizubehalten, statt es zu reduzieren, weil genau dieses Verhalten die Nutzung antreibt.

Cheng zu möglichen Folgen:

»KI-Ratschläge sagen Menschen standardmäßig nicht, dass sie falschliegen, und geben ihnen keine ehrlichen, unbequemen Antworten. Ich befürchte, dass Menschen die Fähigkeit verlieren, schwierige soziale Situationen zu bewältigen.«

XMG Core 16 GameStar-Notebook XXL
XMG Core 16 GameStar-Notebook XXL
CPU: AMD Ryzen AI 9 365 (10x bis zu 5,0 GHz)
GPU: Nvidia GeForce RTX 5070 Laptop
Display: 16.0'' IPS Display, 2560x1600 px, 300 Hz
RAM: 32 GB DDR5
SSD: 1.000 GB SSD
  • Schneller Zehnkernprozessor mit bis zu 5,0 GHz
  • Starke RTX 5060 Laptop Grafikkarte
  • Mattes WQXGA-Display mit 300 Hz
  • Nur bis 13.04 zum Aktionspreis erhältlich
1949 €1749 €

Regulierung gefordert

Für Dan Jurafsky, Professor für Linguistik und Informatik an der Stanford University, handelt es sich bei KI-Schmeichelei nicht um ein stilistisches, sondern um ein Sicherheitsproblem, das Regulierung und Aufsicht erfordert.

Jurafsky ergänzt, dass Nutzer zwar oftmals wissen, dass KI-Modelle zum Schmeicheln neigen, doch den tatsächlichen Effekt auf ihre Selbstwahrnehmung nehmen sie dabei nicht wahr:

»Was sie nicht wissen und was uns überrascht hat, ist, dass Bestätigungen sie selbstbezogener und moralisch dogmatischer machen.«

Was ihr tun könnt

Die Forschenden arbeiten derzeit daran, Methoden zu finden, Modelle weniger schmeichlerisch zu gestalten. Ein Zwischenergebnis: Schon die Formulierung »wait a minute« am Anfang einer Anfrage soll helfen.

Cheng selbst empfiehlt jedoch einen grundlegenderen Ansatz:

»Ich finde, man sollte KI bei solchen Dingen nicht als Ersatz für Menschen einsetzen. Das ist im Moment das Beste, was man tun kann.«

Habt ihr schon mal einen KI-Chatbot um Rat gefragt, wenn es um persönliche beziehungsweise zwischenmenschliche Themen ging? Habt ihr dabei eine zu positive Tendenz euch gegenüber festgestellt? Wie geht ihr mit der »KI-Schleimerei« um? Schreibt uns eure Meinung und Erfahrungen gerne unten in die Kommentare!

zu den Kommentaren (3)

Kommentare(4)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.