In einer Lebenskrise bekommt eine einsame Person völlig unerwartet Hilfe – von ChatGPT

Auf Reddit schreibt ein Nutzer, wie ChatGPT ihm in einer psychischen Ausnahmesituation geholfen hat. Und er scheint längst nicht der einzige zu sein, der den Chatbot so nutzt.

Ein Gespräch mit ChatGPT kann für den ein oder anderen eine Entlastung sein. (Bildquelle: елена калиничева, Adobe Stock) Ein Gespräch mit ChatGPT kann für den ein oder anderen eine Entlastung sein. (Bildquelle: елена калиничева, Adobe Stock)

ChatGPT als Krisenhilfe: Auf Reddit bekommt ein Post gerade viel Aufmerksamkeit: In einer akuten psychischen Notsituation bekommt ein Nutzer unerwartet Hilfe von ChatGPT.

Was wie eine Wohlfühlstory klingt, deutet aber auch auf einen bedenklichen Trend hin.

»Etwas, das sich wie ein Rettungsanker anfühlt«

Auf Reddit schreibt Nutzer reddiculously von einer Lebenskrise: Der Antrag auf Arbeitslosenunterstützung wurde abgelehnt, er hat kein Auto, keine Ersparnisse und niemanden, der sie finanziell und emotional unterstützen kann.

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Reddit, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Reddit angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Reddit-Inhalt

Er schreibt:

Es war einer dieser Momente, in denen ich dachte: Ich bin so am Ende, ich kann nicht atmen.

In dieser Situation geht der Nutzer auf ChatGPT für ein, zwei Tipps, wie er selbst schreibt und weiter:

Stattdessen bekam ich etwas, das sich wie ein Rettungsanker anfühlte.

Der Chatbot half nach Angaben des Schreibers:

  • Aus der Verzweiflung zu kommen und konkrete Schritte zu planen.
  • Anlaufstellen für Mietbeihilfe und passende Programme zu finden
  • Texte zu formulieren für einen Widerspruch gegen die Ablehnung des Antrags auf Arbeitslosengeld
  • emotionalen Beistand zu leisten

Und liest man die lange Liste der Kommentare, beschreiben dort viele, wie ChatGPT ihnen dabei hilft, etwa mit dem Trinken und Marihuana-Rauchen aufzuhören.

Nutzer martina_glitter schreibt, der Chatbot hätte ihm in einer emotional belastenden Zeit, in der seine beiden Eltern im Krankenhaus waren, geholfen.

Nutzerin Key-Cherry637 beschreibt aber auch das Gefühl, gerade und nur mit dem Chatbot ehrlich sein zu können und Nutzer StaticEchoes69 gibt sogar an, extra ein eigenes GPT für solche Gespräche zu haben.

ChatGPT als Vertrauter, Coach, Therapeut

Geht man nur nach den Kommentaren, scheint der Gebrauch von ChatGPT und anderen Chatbots als Anvertrauter und gar Therapeut verbreitet.

Und es erscheint naheliegend: Schreibt man ChatGPT etwa, dass man sich in einer Lebenskrise befindet, antwortet der Chatbot mit Verständnis. In unserem Versuch etwa unter anderem mit

Du bist damit nicht allein, auch wenn es sich gerade vielleicht so anfühlt.

Objektiv trifft hier eine vielerorts prekäre soziale Situation auf immer besser werdende Chatbots, die darauf abgestimmt sind, ihren Nutzern möglichst befriedigende Antworten zu geben.

Laut einer Studie des Bundesinstituts für Bevölkerungsforschung aus dem Jahr 2024 geben 44,5 Prozent der 19 - 29 Jährigen an, sich allein zu fühlen. Psychische Erkrankungen werden auch von der deutschen Bundesregierung als Volkskrankheit bezeichnet und trotzdem müssen Betroffene teilweise Monate auf einen Therapieplatz warten.

Bei dieser großen Diskrepanz werden KI-Chatbots offiziell oder inoffiziell eine größere Rolle spielen. Erst vor wenigen Monaten berichteten Forscher von vielversprechenden Erfolgen in der Psychotherapie mit einem Chatbot.

Der ist allerdings unter Aufsicht von Ärzten extra zu diesem Zwecke entwickelt. Für ChatGPT und Co. gilt das nicht und das ist aus mindestens zwei Gründen gefährlich:

  1. Die KI-Chatbots sind nicht darauf trainiert, psychologische Hilfe zu geben. Entsprechend kann ihr Versagen in besonderen Situationen verheerend sein.
  2. Gesundheitsdaten, aber auch Ängste, Sorgen, Wünsche und Geheimnisse sind sensible Daten. Auch wenn ChatGPT sich wie ein kompetenter Ansprechpartner anfühlt, dahinter steckt ein Programm, das auf einem Server häufig im Ausland läuft. Auch wenn OpenAI und andere bisher offiziell keine verkaufen, gibt es Akteure, die an solchen Daten grundsätzlich ein großes Interesse haben.

Video starten 44:19 »Künstliche Intelligenz ist die neue Elektrizität« - Wir busten mit einem Experten 5 Mythen zu KI

Um bei ChatGPT zumindest die Sicherheit zu haben, dass die eigenen Daten nicht zum Training der KI verwendet werden, bietet sich etwa ein provisorischer Chat an.

Es ist abzusehen, dass KI im Rahmen von Coaching und zu einem gewissen Grad auch Psychotherapie zum Einsatz kommen wird. Allerdings muss hier der Schutz von Daten besonders gewährleistet sein.

Bis es so weit ist: Wenn ihr in einer Situation seid, in der ein Gespräch mit einem Chatbot euch weiterhelfen kann, dann nutzt ihn. Aber seid euch bewusst, dass es eben das ist: ein Chatbot.

zu den Kommentaren (8)

Kommentare(8)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.