ChatGPT ist nun wirklich nicht der Ansprechpartner, den man zurate ziehen sollte, wenn es um die eigene Gesundheit geht.
Zu hoch ist die Gefahr der falschen Diagnose oder gar falschen Behandlung. Deswegen raten wir ausdrücklich dazu, generell nicht das zu tun, was der Reddit-User Substantial-Fall-630 getan hat: Einen Rat zur eigenen Gesundheit von ChatGPT annehmen.
Nur ist dieser Fall einer der berühmten Ausnahmen, bei denen nicht nur nichts schief lief, sondern auch noch ein Leben gerettet wurde.
ChatGPT bleibt stoisch
Der Reddit-User Substantial-Fall-630 hat eben erst einen neuen Job angefangen und wurde bereits befördert, wie er in den Kommentaren erzählt. Deswegen wollte er sich nicht bei der Arbeit krankmelden, als seine Wade anschwoll.
Link zum Reddit-Inhalt
Genauer gesagt war eine Wade doppelt so dick wie die andere, gerötet, warm und strahlte Schmerzen durch das gesamte Bein aus. Diese Symptomlage ist mit ein Grund dafür, warum sich viele User in den Kommentaren wundern, wieso hier überhaupt ChatGPT nötig war. Die meisten wären wohl schon lange vorher zum Arzt gegangen.
Unser Protagonist hingegen fürchtete um seinen neuen Job und redete sich ein, sich lediglich den Muskel gezerrt zu haben.
Als die Zweifel dann aber offenbar doch zu groß wurden, beschrieb er ChatGPT seine Symptome. Und der Chatbot Bot war sich anscheinend sehr schnell sicher, dass es sich bei den Beschwerden um Anzeichen einer eindeutigen Gefahr handelte.
Also forderte das LLM den User auf, direkt in die Notaufnahme zu gehen. Hier seht ihr den Chatverlauf und die dringlichen Aufforderungen von ChatGPT, er solle doch endlich ins Krankenhaus gehen:
Link zum Reddit-Inhalt
Die Diagnosen
Substantial-Fall-630 ist laut eigenen Aussagen knapp dem Tod entronnen. Er schreibt:
»[ChatGPT] hatte recht, und ich habe eine riesige Menge an Blutgerinnseln, die sich in beide Lungen ausgebreitet haben, und ich wäre gestorben, wenn ich noch einen Tag gewartet hätte.«
Passend dazu teilt er ein Bild von sich, auf dem er in einem Krankenhausbett liegt. Das Schlimmste konnte also verhindert werden.
Andere Erfahrungen: Der Beitrag hat einige andere User dazu inspiriert, ihre eigenen Geschichten von Chatbots und brenzligen gesundheitlichen Situationen zu teilen.
CavySpirit2 schreibt beispielsweise, dass ihr Mann ein Ski-Wochenende geplant hatte und rund eine Woche vorher anfing, an Kieferschmerzen, Kopfschmerzen und generellem Unwohlsein zu leiden. Nachdem der Mann sich weigerte, den Ski-Trip abzusagen, wurde ChatGPT zu Rate gezogen:
»ChatGPT sagte uns unmissverständlich, wir sollten sofort in die Notaufnahme fahren. Punkt. Das taten wir auch. Es war die eindringliche Warnung von ChatGPT, die ihn dazu motivierte, sofort zu fahren und den Termin nicht auf später zu verschieben. Es stellte sich heraus, dass eine seiner Arterien zu 95 % und die andere zu 80 % verstopft war. Man setzte ihm zwei Stents ein, und jetzt geht es ihm gut.«
39:01
3.000€ für eine Grafikkarte? Die Hardware-Krise ist zurück – und sie ist schlimmer!
Gesundheitliche Tipps von ChatGPT und Co.
Auch wenn es einige positive Beispiele gibt, die die Nutzung von ChatGPT in Notfällen als sinnvoll erscheinen lassen, solltet ihr ChatGPT oder anderen LLMs keine essenziellen oder gar lebenswichtigen Entscheidungen überlassen. Wie anfangs erwähnt, ist das Risiko einer Fehldiagnose einfach zu hoch.
Übrigens: ChatGPT ist zwar nicht als Arzt geeignet, doch vielleicht als Pokémon-Trainer. Wie sich das LLM im Vergleich zum Konkurrenten Gemini schlägt, erfahrt ihr von Daniel:
ChatGPT vs. Gemini: Wer ist der bessere Pokémon-Trainer?
Wenn ihr dringend medizinische Beratung braucht, wählt ihr in Deutschland am besten die 116117 oder bei medizinischen Notfällen direkt die 112, also den Notruf.
Die 116117 ist die bundesweite Rufnummer für den ärztlichen Bereitschaftsdienst in Deutschland. Dort werdet ihr beraten, falls ihr euch nicht sicher seid, ob ihr ins Krankenhaus müsst oder gar einen Krankenwagen rufen solltet.
Jetzt seid ihr dran: Habt ihr ChatGPT oder andere LLMs schon mal nach eurer Gesundheit gefragt? Wart ihr zufrieden oder hat das Modell eher Unfug erzählt? Schreibt es gerne in die Kommentare!
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.