Würdet ihr ChatGPT oder andere LLMs als Ansprechpartner für eure Gefühlswelt nutzen? Laut The Economist wenden sich mittlerweile Millionen von Menschen an KI und nutzen sie als eine Art Therapeut.
So auch der Reddit-Nutzer Ok_You7081, doch das war nicht immer so. Im therapyGPT-Subreddit erzählt er davon, wie er einst Leute ausgelacht hat, die mit ChatGPT über ihre persönlichen Probleme sprechen.
KI als Therapeut? So kann es laufen
Vor einigen Monaten war Ok_You7081 noch der festen Überzeugung, dass ChatGPT als Therapeut zu nutzen geradezu lächerlich sei, doch dann änderte sich seine Meinung drastisch:
»Ich fand das wirklich erbärmlich. Geh doch einfach mit jemandem reden.
Schnitt: Ich spreche 6 Monate lang jeden Tag mit ChatGPT… Karma?«
Link zum Reddit-Inhalt
Wie kam es so weit? Im Beitrag erzählt der User von seiner Scheidung und davon, wie er für einen neuen Job in eine fremde Stadt gezogen ist. Dort hat er versucht, einen Termin bei einem Therapeuten zu bekommen, doch scheiterte aus diversen Gründen. Unter anderem, weil seine Versicherung nur eine begrenzte Auswahl an Therapeuten abdeckte.
Eines Nachts, als es ihm besonders schlecht ging, öffnete er ChatGPT und fing an zu schreiben.
»Es hat geholfen. Also habe ich weitergemacht.«
Das Problem mit KI als Therapeut
Auch wenn es für viele Menschen wertvoll ist, überhaupt einen Ansprechpartner in KI zu haben, ist das Nutzen von LLMs als Therapeuten sehr umstritten. So nennt die Stanford University mehrere Risikofaktoren:
- Risiken und Vorurteile: Experimente zeigten, dass Chatbots Stigmatisierung gegenüber bestimmten psychischen Erkrankungen (z. B. Alkoholabhängigkeit, Schizophrenie) verstärken können.
- Gefährliche Antworten: Bei suizidalen Gedanken oder realen Krisenszenarien reagierten Chatbots oft unangemessen und konnten riskantes Verhalten ermöglichen.
- Menschliche Interaktion unverzichtbar: Therapie erfordert nicht nur Problemlösung, sondern auch den Aufbau menschlicher Beziehungen – etwas, das AI derzeit nicht leisten kann.
Auch Ok_You7081 erkannte schnell einen großen Nachteil:
»Das Problem, auf das ich schließlich gestoßen bin, ist, dass [ChatGPT] einfach mit allem übereinstimmt.«
LLMs wie ChatGPT, Gemini und Co. sind so programmiert, dass sie User bestätigen und gut zureden. Oftmals muss man ihnen als Nutzer ausdrücklich sagen, dass sie kritisch mit einem Thema umgehen sollen, doch auch diese Methode hat ihre Grenzen:
»Ich fing an, all diese Prompts zu schreiben, um es zu zwingen, mir auch mal Kontra zu geben, und dann dachte ich mir: Was mache ich hier eigentlich gerade?«
Die Lösung des Users bestand darin, andere KIs zu nutzen, die unter anderem für den Gebrauch als Therapeut gedacht sind, wie zum Beispiel Wysa oder Noah. Letztendlich blieb er bei Clara AI, einer KI, die für medizinisches Fachpersonal gedacht ist.
Er schließt das Thema mit den folgenden Worten ab:
»Jedenfalls habe ich mich in allem geirrt. Das ist wohl der Beitrag.«
1:53:19
Der KI-Hype frisst sich selbst – Tech-Jahresrückblick 2025
KI als Therapeut für euch?
Wer sich einer KI anvertraut, muss immer damit rechnen, dass Chatbots auch Ratschläge geben, die ein echter Therapeut niemals geben würde. LLMs sind immer noch extrem fehleranfällig und sollten nicht als Ratgeber für gesundheitliche Themen dienen – sowohl körperlich als auch psychisch (via Arizona State University).
Übrigens: Auch im geschäftlichen Sinne ist KI umstritten. Zumindest wenn es nach einer internationalen Umfrage geht:
Neben der Gefahr von falschen Diagnosen oder Therapien ist auch das Thema Datenschutz relevant: KI sammelt persönliche Daten, die später auch zum Training der KI-Modelle eingesetzt werden. Eure persönlichen Probleme und Gedanken sind also nicht vertraulich und können sogar geleakt werden.
Daher sind Vorsichtsmaßnahmen und klare Standards nötig, bevor KI in der Therapie umfassend und sicher eingesetzt werden kann.

Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.