ChatGPT als Krisenhilfe: Auf Reddit bekommt ein Post gerade viel Aufmerksamkeit: In einer akuten psychischen Notsituation bekommt ein Nutzer unerwartet Hilfe von ChatGPT.
Was wie eine Wohlfühlstory klingt, deutet aber auch auf einen bedenklichen Trend hin.
»Etwas, das sich wie ein Rettungsanker anfühlt«
Auf Reddit schreibt Nutzer reddiculously von einer Lebenskrise: Der Antrag auf Arbeitslosenunterstützung wurde abgelehnt, er hat kein Auto, keine Ersparnisse und niemanden, der sie finanziell und emotional unterstützen kann.
Link zum Reddit-Inhalt
Er schreibt:
Es war einer dieser Momente, in denen ich dachte: Ich bin so am Ende, ich kann nicht atmen.
In dieser Situation geht der Nutzer auf ChatGPT für ein, zwei Tipps, wie er selbst schreibt und weiter:
Stattdessen bekam ich etwas, das sich wie ein Rettungsanker anfühlte.
Der Chatbot half nach Angaben des Schreibers:
- Aus der Verzweiflung zu kommen und konkrete Schritte zu planen.
- Anlaufstellen für Mietbeihilfe und passende Programme zu finden
- Texte zu formulieren für einen Widerspruch gegen die Ablehnung des Antrags auf Arbeitslosengeld
- emotionalen Beistand zu leisten
Und liest man die lange Liste der Kommentare, beschreiben dort viele, wie ChatGPT ihnen dabei hilft, etwa mit dem Trinken und Marihuana-Rauchen aufzuhören.
Nutzer martina_glitter schreibt, der Chatbot hätte ihm in einer emotional belastenden Zeit, in der seine beiden Eltern im Krankenhaus waren, geholfen.
Nutzerin Key-Cherry637 beschreibt aber auch das Gefühl, gerade und nur mit dem Chatbot ehrlich sein zu können und Nutzer StaticEchoes69 gibt sogar an, extra ein eigenes GPT für solche Gespräche zu haben.
ChatGPT als Vertrauter, Coach, Therapeut
Geht man nur nach den Kommentaren, scheint der Gebrauch von ChatGPT und anderen Chatbots als Anvertrauter und gar Therapeut verbreitet.
Und es erscheint naheliegend: Schreibt man ChatGPT etwa, dass man sich in einer Lebenskrise befindet, antwortet der Chatbot mit Verständnis. In unserem Versuch etwa unter anderem mit
Du bist damit nicht allein, auch wenn es sich gerade vielleicht so anfühlt.
Objektiv trifft hier eine vielerorts prekäre soziale Situation auf immer besser werdende Chatbots, die darauf abgestimmt sind, ihren Nutzern möglichst befriedigende Antworten zu geben.
Laut einer Studie des Bundesinstituts für Bevölkerungsforschung aus dem Jahr 2024 geben 44,5 Prozent der 19 - 29 Jährigen an, sich allein zu fühlen. Psychische Erkrankungen werden auch von der deutschen Bundesregierung als Volkskrankheit bezeichnet und trotzdem müssen Betroffene teilweise Monate auf einen Therapieplatz warten.
Bei dieser großen Diskrepanz werden KI-Chatbots offiziell oder inoffiziell eine größere Rolle spielen. Erst vor wenigen Monaten berichteten Forscher von vielversprechenden Erfolgen in der Psychotherapie mit einem Chatbot.
Der ist allerdings unter Aufsicht von Ärzten extra zu diesem Zwecke entwickelt. Für ChatGPT und Co. gilt das nicht und das ist aus mindestens zwei Gründen gefährlich:
- Die KI-Chatbots sind nicht darauf trainiert, psychologische Hilfe zu geben. Entsprechend kann ihr Versagen in besonderen Situationen verheerend sein.
- Gesundheitsdaten, aber auch Ängste, Sorgen, Wünsche und Geheimnisse sind sensible Daten. Auch wenn ChatGPT sich wie ein kompetenter Ansprechpartner anfühlt, dahinter steckt ein Programm, das auf einem Server häufig im Ausland läuft. Auch wenn OpenAI und andere bisher offiziell keine verkaufen, gibt es Akteure, die an solchen Daten grundsätzlich ein großes Interesse haben.
44:19
»Künstliche Intelligenz ist die neue Elektrizität« - Wir busten mit einem Experten 5 Mythen zu KI
Um bei ChatGPT zumindest die Sicherheit zu haben, dass die eigenen Daten nicht zum Training der KI verwendet werden, bietet sich etwa ein provisorischer Chat an.
Es ist abzusehen, dass KI im Rahmen von Coaching und zu einem gewissen Grad auch Psychotherapie zum Einsatz kommen wird. Allerdings muss hier der Schutz von Daten besonders gewährleistet sein.
Bis es so weit ist: Wenn ihr in einer Situation seid, in der ein Gespräch mit einem Chatbot euch weiterhelfen kann, dann nutzt ihn. Aber seid euch bewusst, dass es eben das ist: ein Chatbot.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.