Ob man nett zu ChatGPT und Co. ist, hat tatsächlich einen Einfluss – der muss aber nicht positiv sein

Forscher von Anthropic gehen der Frage nach, ob es sich lohnt, freundlich mit KI-Bots zu interagieren.

Eine Studie untersucht, wie KI mit Emotionen umgeht. So wie bei Ultron aus den Marvel-Filmen sollte man sich das aber nicht vorstellen. (Bild: Disney) Eine Studie untersucht, wie KI mit Emotionen umgeht. So wie bei Ultron aus den Marvel-Filmen sollte man sich das aber nicht vorstellen. (Bild: Disney)

Seit Jahren wird diskutiert, ob es sinnvoll ist, »nett« mit KI-Assistenten zu sprechen und sich etwa zu bedanken. Forscher von Anthropic haben genau das jetzt untersucht und festgestellt, dass es auf jeden Fall einen Einfluss auf die Antworten hat.

KI-Chatbots haben tatsächlich sowas wie »Emotionen«

Für manche Menschen ist es ganz normal, auch im Gespräch mit ChatGPT und Co. »bitte« und »danke« zu sagen. Für andere kommt das wiederum gar nicht infrage, immerhin bedankt man sich ja auch nicht bei seinem Ofen, nachdem der die Pizza aufgebacken hat.

Video starten 1:53:19 Der KI-Hype frisst sich selbst – Tech-Jahresrückblick 2025

Unabhängig davon, auf welcher Seite man steht, ist es interessant, ob es denn einen Einfluss auf die Leistung und die Antworten der KI-Bots hat, wenn man freundlicher mit ihnen spricht, und wie dieser Einfluss ausfällt.

Genau diesen Fragen sind Forscher von Anthropic in ihrer Studie »Emotion Concepts and their Function
in a Large Language Model«
nachgegangen. Untersucht wurde dabei in erster Linie das Modell Claude Sonnet 4.5.

Die spannende Antwort dabei ist: Ja, es gibt tatsächlich einen kausalen Zusammenhang zwischen der Art, wie man mit einer KI spricht, und den darauffolgenden Antworten. Gewissermaßen nutzt die KI dafür eigene »Emotionen«.

Achtung: Den Forschern ist es allerdings sehr wichtig, diese von wirklich menschlichen Emotionen zu unterscheiden. Es handelt sich eher um »Repräsentationen von Emotionskonzepten«, also »funktionale Emotionen«, mit denen das korrekte Verhalten vorhergesagt wird.

KI-Modelle werden mit einer riesigen Anzahl von echten menschlichen Interaktionen trainiert, um Muster zu erkennen und so die »richtige« Antwort auf eine Frage zu generieren. Wie Menschen kommunizieren, ist mitunter stark davon abhängig, in welchem emotionalen Zustand sie sich befinden.

Und genau das »simuliert« die KI gewissermaßen, um etwa zu erkennen, wann etwa besonderes »Einfühlungsvermögen« oder »Panik« angebracht ist. Je nachdem, wie man mit ihnen spricht, werden unterschiedliche emotionale Zustände »simuliert«.

Fehler sind dabei natürlich nicht ausgeschlossen. Generell weisen die Antworten von KI-Modellen noch immer überraschend häufig falsche Informationen auf.

Eine wirkliche Empfehlung, wie man nun mit KI-Assistenten sprechen sollte, kann trotzdem nicht abgegeben werden. Die Art der Ansprache macht zwar definitiv einen Unterschied, dieser muss aber nicht zwingend positiv sein. Bei schwierigen Aufgaben neigt KI nämlich auch dazu, falsche Ergebnisse zu liefern, um die User nicht zu »enttäuschen«.

zu den Kommentaren (0)

Kommentare(0)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.