Seit Jahren wird diskutiert, ob es sinnvoll ist, »nett« mit KI-Assistenten zu sprechen und sich etwa zu bedanken. Forscher von Anthropic haben genau das jetzt untersucht und festgestellt, dass es auf jeden Fall einen Einfluss auf die Antworten hat.
KI-Chatbots haben tatsächlich sowas wie »Emotionen«
Für manche Menschen ist es ganz normal, auch im Gespräch mit ChatGPT und Co. »bitte« und »danke« zu sagen. Für andere kommt das wiederum gar nicht infrage, immerhin bedankt man sich ja auch nicht bei seinem Ofen, nachdem der die Pizza aufgebacken hat.
1:53:19
Der KI-Hype frisst sich selbst – Tech-Jahresrückblick 2025
Unabhängig davon, auf welcher Seite man steht, ist es interessant, ob es denn einen Einfluss auf die Leistung und die Antworten der KI-Bots hat, wenn man freundlicher mit ihnen spricht, und wie dieser Einfluss ausfällt.
Genau diesen Fragen sind Forscher von Anthropic in ihrer Studie »Emotion Concepts and their Function
in a Large Language Model« nachgegangen. Untersucht wurde dabei in erster Linie das Modell Claude Sonnet 4.5.
Die spannende Antwort dabei ist: Ja, es gibt tatsächlich einen kausalen Zusammenhang zwischen der Art, wie man mit einer KI spricht, und den darauffolgenden Antworten. Gewissermaßen nutzt die KI dafür eigene »Emotionen«.
Achtung: Den Forschern ist es allerdings sehr wichtig, diese von wirklich menschlichen Emotionen zu unterscheiden. Es handelt sich eher um »Repräsentationen von Emotionskonzepten«, also »funktionale Emotionen«, mit denen das korrekte Verhalten vorhergesagt wird.
KI-Modelle werden mit einer riesigen Anzahl von echten menschlichen Interaktionen trainiert, um Muster zu erkennen und so die »richtige« Antwort auf eine Frage zu generieren. Wie Menschen kommunizieren, ist mitunter stark davon abhängig, in welchem emotionalen Zustand sie sich befinden.
Und genau das »simuliert« die KI gewissermaßen, um etwa zu erkennen, wann etwa besonderes »Einfühlungsvermögen« oder »Panik« angebracht ist. Je nachdem, wie man mit ihnen spricht, werden unterschiedliche emotionale Zustände »simuliert«.
Fehler sind dabei natürlich nicht ausgeschlossen. Generell weisen die Antworten von KI-Modellen noch immer überraschend häufig falsche Informationen auf.
Eine wirkliche Empfehlung, wie man nun mit KI-Assistenten sprechen sollte, kann trotzdem nicht abgegeben werden. Die Art der Ansprache macht zwar definitiv einen Unterschied, dieser muss aber nicht zwingend positiv sein. Bei schwierigen Aufgaben neigt KI nämlich auch dazu, falsche Ergebnisse zu liefern, um die User nicht zu »enttäuschen«.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.