»ChatGPT hat es mir ausgeredet« – KI-Nutzer wollte Zerrung massieren, doch stattdessen musste er ins Krankenhaus

ChatGPT als Lebensretter? Das hört man nicht alle Tage.

ChatGPT sollte nie Arzt spielen, doch manchmal geht es gut. (Bildquelle: Adobe Stock – Romolo Tavani) ChatGPT sollte nie Arzt spielen, doch manchmal geht es gut. (Bildquelle: Adobe Stock – Romolo Tavani)

ChatGPT ist nun wirklich nicht der Ansprechpartner, den man zurate ziehen sollte, wenn es um die eigene Gesundheit geht. 

Zu hoch ist die Gefahr der falschen Diagnose oder gar falschen Behandlung. Deswegen raten wir ausdrücklich dazu, generell nicht das zu tun, was der Reddit-User Substantial-Fall-630 getan hat: Einen Rat zur eigenen Gesundheit von ChatGPT annehmen.

Nur ist dieser Fall einer der berühmten Ausnahmen, bei denen nicht nur nichts schief lief, sondern auch noch ein Leben gerettet wurde.

ChatGPT bleibt stoisch

Der Reddit-User Substantial-Fall-630 hat eben erst einen neuen Job angefangen und wurde bereits befördert, wie er in den Kommentaren erzählt. Deswegen wollte er sich nicht bei der Arbeit krankmelden, als seine Wade anschwoll.

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Reddit, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Reddit angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Reddit-Inhalt

Genauer gesagt war eine Wade doppelt so dick wie die andere, gerötet, warm und strahlte Schmerzen durch das gesamte Bein aus. Diese Symptomlage ist mit ein Grund dafür, warum sich viele User in den Kommentaren wundern, wieso hier überhaupt ChatGPT nötig war. Die meisten wären wohl schon lange vorher zum Arzt gegangen.

Unser Protagonist hingegen fürchtete um seinen neuen Job und redete sich ein, sich lediglich den Muskel gezerrt zu haben.

Als die Zweifel dann aber offenbar doch zu groß wurden, beschrieb er ChatGPT seine Symptome. Und der Chatbot Bot war sich anscheinend sehr schnell sicher, dass es sich bei den Beschwerden um Anzeichen einer eindeutigen Gefahr handelte. 

Also forderte das LLM den User auf, direkt in die Notaufnahme zu gehen. Hier seht ihr den Chatverlauf und die dringlichen Aufforderungen von ChatGPT, er solle doch endlich ins Krankenhaus gehen:

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Reddit, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Reddit angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Reddit-Inhalt

Die Diagnosen

Substantial-Fall-630 ist laut eigenen Aussagen knapp dem Tod entronnen. Er schreibt:

»[ChatGPT] hatte recht, und ich habe eine riesige Menge an Blutgerinnseln, die sich in beide Lungen ausgebreitet haben, und ich wäre gestorben, wenn ich noch einen Tag gewartet hätte.«

Passend dazu teilt er ein Bild von sich, auf dem er in einem Krankenhausbett liegt. Das Schlimmste konnte also verhindert werden.

Andere Erfahrungen: Der Beitrag hat einige andere User dazu inspiriert, ihre eigenen Geschichten von Chatbots und brenzligen gesundheitlichen Situationen zu teilen.

CavySpirit2 schreibt beispielsweise, dass ihr Mann ein Ski-Wochenende geplant hatte und rund eine Woche vorher anfing, an Kieferschmerzen, Kopfschmerzen und generellem Unwohlsein zu leiden. Nachdem der Mann sich weigerte, den Ski-Trip abzusagen, wurde ChatGPT zu Rate gezogen:

»ChatGPT sagte uns unmissverständlich, wir sollten sofort in die Notaufnahme fahren. Punkt. Das taten wir auch. Es war die eindringliche Warnung von ChatGPT, die ihn dazu motivierte, sofort zu fahren und den Termin nicht auf später zu verschieben. Es stellte sich heraus, dass eine seiner Arterien zu 95 % und die andere zu 80 % verstopft war. Man setzte ihm zwei Stents ein, und jetzt geht es ihm gut.«


Video starten 39:01 3.000€ für eine Grafikkarte? Die Hardware-Krise ist zurück – und sie ist schlimmer!


Gesundheitliche Tipps von ChatGPT und Co.

Auch wenn es einige positive Beispiele gibt, die die Nutzung von ChatGPT in Notfällen als sinnvoll erscheinen lassen, solltet ihr ChatGPT oder anderen LLMs keine essenziellen oder gar lebenswichtigen Entscheidungen überlassen. Wie anfangs erwähnt, ist das Risiko einer Fehldiagnose einfach zu hoch.


Übrigens: ChatGPT ist zwar nicht als Arzt geeignet, doch vielleicht als Pokémon-Trainer. Wie sich das LLM im Vergleich zum Konkurrenten Gemini schlägt, erfahrt ihr von Daniel:

ChatGPT vs. Gemini: Wer ist der bessere Pokémon-Trainer?


Wenn ihr dringend medizinische Beratung braucht, wählt ihr in Deutschland am besten die 116117 oder bei medizinischen Notfällen direkt die 112, also den Notruf.

Die 116117 ist die bundesweite Rufnummer für den ärztlichen Bereitschaftsdienst in Deutschland. Dort werdet ihr beraten, falls ihr euch nicht sicher seid, ob ihr ins Krankenhaus müsst oder gar einen Krankenwagen rufen solltet.

Jetzt seid ihr dran: Habt ihr ChatGPT oder andere LLMs schon mal nach eurer Gesundheit gefragt? Wart ihr zufrieden oder hat das Modell eher Unfug erzählt? Schreibt es gerne in die Kommentare!

zu den Kommentaren (4)

Kommentare(4)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.