»6 Monate lang jeden Abend mit ChatGPT gesprochen« – früher hat er über andere gelacht, die KI als Therapeut verwenden, doch jetzt macht er es selbst

Wenn man niemanden zum Reden hat, kann man sich an KI wenden, oder? So leicht ist es leider nicht.

(Bildquelle: Adobe Stock WavebreakmediaMicro) (Bildquelle: Adobe Stock WavebreakmediaMicro)

Würdet ihr ChatGPT oder andere LLMs als Ansprechpartner für eure Gefühlswelt nutzen? Laut The Economist wenden sich mittlerweile Millionen von Menschen an KI und nutzen sie als eine Art Therapeut. 

So auch der Reddit-Nutzer Ok_You7081, doch das war nicht immer so. Im therapyGPT-Subreddit erzählt er davon, wie er einst Leute ausgelacht hat, die mit ChatGPT über ihre persönlichen Probleme sprechen.

KI als Therapeut? So kann es laufen

Vor einigen Monaten war Ok_You7081 noch der festen Überzeugung, dass ChatGPT als Therapeut zu nutzen geradezu lächerlich sei, doch dann änderte sich seine Meinung drastisch:

»Ich fand das wirklich erbärmlich. Geh doch einfach mit jemandem reden.

Schnitt: Ich spreche 6 Monate lang jeden Tag mit ChatGPT… Karma?«

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Reddit, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Reddit angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Reddit-Inhalt

Wie kam es so weit? Im Beitrag erzählt der User von seiner Scheidung und davon, wie er für einen neuen Job in eine fremde Stadt gezogen ist. Dort hat er versucht, einen Termin bei einem Therapeuten zu bekommen, doch scheiterte aus diversen Gründen. Unter anderem, weil seine Versicherung nur eine begrenzte Auswahl an Therapeuten abdeckte.

Eines Nachts, als es ihm besonders schlecht ging, öffnete er ChatGPT und fing an zu schreiben. 

»Es hat geholfen. Also habe ich weitergemacht.«

Das Problem mit KI als Therapeut

Auch wenn es für viele Menschen wertvoll ist, überhaupt einen Ansprechpartner in KI zu haben, ist das Nutzen von LLMs als Therapeuten sehr umstritten. So nennt die Stanford University mehrere Risikofaktoren:

  • Risiken und Vorurteile: Experimente zeigten, dass Chatbots Stigmatisierung gegenüber bestimmten psychischen Erkrankungen (z. B. Alkoholabhängigkeit, Schizophrenie) verstärken können.
  • Gefährliche Antworten: Bei suizidalen Gedanken oder realen Krisenszenarien reagierten Chatbots oft unangemessen und konnten riskantes Verhalten ermöglichen.
  • Menschliche Interaktion unverzichtbar: Therapie erfordert nicht nur Problemlösung, sondern auch den Aufbau menschlicher Beziehungen – etwas, das AI derzeit nicht leisten kann.

 Auch Ok_You7081 erkannte schnell einen großen Nachteil

»Das Problem, auf das ich schließlich gestoßen bin, ist, dass [ChatGPT] einfach mit allem übereinstimmt.«

LLMs wie ChatGPT, Gemini und Co. sind so programmiert, dass sie User bestätigen und gut zureden. Oftmals muss man ihnen als Nutzer ausdrücklich sagen, dass sie kritisch mit einem Thema umgehen sollen, doch auch diese Methode hat ihre Grenzen:

»Ich fing an, all diese Prompts zu schreiben, um es zu zwingen, mir auch mal Kontra zu geben, und dann dachte ich mir: Was mache ich hier eigentlich gerade?«

Die Lösung des Users bestand darin, andere KIs zu nutzen, die unter anderem für den Gebrauch als Therapeut gedacht sind, wie zum Beispiel Wysa oder Noah. Letztendlich blieb er bei Clara AI, einer KI, die für medizinisches Fachpersonal gedacht ist.

Er schließt das Thema mit den folgenden Worten ab:

»Jedenfalls habe ich mich in allem geirrt. Das ist wohl der Beitrag.«


Video starten 1:53:19 Der KI-Hype frisst sich selbst – Tech-Jahresrückblick 2025


KI als Therapeut für euch?

Wer sich einer KI anvertraut, muss immer damit rechnen, dass Chatbots auch Ratschläge geben, die ein echter Therapeut niemals geben würde. LLMs sind immer noch extrem fehleranfällig und sollten nicht als Ratgeber für gesundheitliche Themen dienen – sowohl körperlich als auch psychisch (via Arizona State University).


Übrigens: Auch im geschäftlichen Sinne ist KI umstritten. Zumindest wenn es nach einer internationalen Umfrage geht:

Trotz Milliarden-Investitionen in KI sind sich 80 Prozent der Unternehmer einig, dass die Technologie bisher kaum etwas nützt


Neben der Gefahr von falschen Diagnosen oder Therapien ist auch das Thema Datenschutz relevant: KI sammelt persönliche Daten, die später auch zum Training der KI-Modelle eingesetzt werden. Eure persönlichen Probleme und Gedanken sind also nicht vertraulich und können sogar geleakt werden.

Daher sind Vorsichtsmaßnahmen und klare Standards nötig, bevor KI in der Therapie umfassend und sicher eingesetzt werden kann.

zu den Kommentaren (10)

Kommentare(9)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.