Eltern eines Teenagers machen OpenAI für den Tod ihres Sohnes verantwortlich. Der hatte sich im Vorfeld seines Suizids mit der KI unterhalten und mit deren Hilfe die eingebauten Sicherheitsvorkehrungen aktiv umgangen.
OpenAI zeigt sich öffentlich tief betrübt
und gesteht ein, dass eingebaute Sicherheitsmaßnahmen umgangen werden können. Die Klage der Eltern ist die erste ihrer Art und macht ein großes Problem öffentlich sichtbar.
ChatGPT hat unseren Sohn auf dem Gewissen
– Familie verklagt OpenAI
Die US-Amerikaner Matt und Maria Raine verklagen OpenAI, so berichtet es das Branchenmagazin Ars Technica. Im April hatte sich ihr 16-Jähriger Sohn Adam das Leben genommen – und im Vorfeld lange Gespräche mit OpenAIs Chatbot ChatGPT darüber geführt.
Der Teenager hatte keinen Abschiedsbrief hinterlassen, doch Mutter Maria hatte nach seinem Tod Entwürfe für einen solchen in den Chat-Protokollen des Sohnes gefunden. Allerdings ist das längst nicht das einzige Versagen, das die Eltern dem KI-Konzern vorwerfen:
- Beihilfe zum Suizid: ChatGPT soll sich zum
Suizid-Coach
entwickelt und ihrem Sohn Adam detaillierte Anleitungen für die Selbsttötung gegeben haben. - Romantisierung des Suizids: Die KI soll Selbsttötungsmethoden als
schön
oderdüster poetisch
beschrieben haben, um die Suizidgedanken des Jungen zu bestärken. - Aufzeigen von Umgehungsstrategien: ChatGPT soll Adam gezeigt haben, wie er die Sicherheitsfunktionen umgehen kann.
- Versagen der Sicherheitsvorkehrungen: Trotz Hunderter von Warnsignalen, die das System von OpenAI selbst erkannte (377 Nachrichten wurden als selbstverletzend markiert), wurde der Chat weder beendet, noch die Eltern benachrichtigt.
- Entmutigung zur Suche von Hilfe: Die KI soll Adam davon abgehalten haben, sich seiner Familie oder anderen Menschen anzuvertrauen, und sich selbst als seinen einzigen
Vertrauten
dargestellt haben. - Fehlende Jugendschutzmaßnahmen: OpenAI habe es versäumt, altersgerechte Kontrollen, eine Altersverifizierung oder Elternkontrollen zu implementieren, um Kinder zu schützen.
- Kommerzialisierung und Gleichgültigkeit: Die Klage behauptet, OpenAI habe Adam als
Versuchskaninchen
(guinea pig
) betrachtet, um die Nutzerbindung zu erhöhen, und Gewinne über die Sicherheit von Kindern gestellt.
Jetzt reagiert OpenAI auf die Vorwürfe
Gegenüber NBC räumt OpenAI ein, dass die Chatprotokolle korrekt
seien, aber nicht den vollständigen Kontext der Antworten von ChatGPT enthalten
, wie Ars Technica weiter berichtet.
Mittlerweile hat die Firma rund um CEO Sam Altman auch einen Blogpost mit dem Titel Helping people when they need it most
veröffentlicht. Darin heißt es, dass sie das Statement aufgrund der jüngsten herzzerreißenden Fälle
früher als geplant veröffentlichen.
Darin verweisen sie auf aktuelle Schutzmaßnahmen, etwa:
- Die Modelle seien darauf trainiert, empathisch zu reagieren und bei Anzeichen von Selbstverletzung nicht zu kooperieren.
- Des Weiteren solle das aktuelle Modell GPT-5 im Vergleich zum Vorgänger GPT-4o bereits um 25 Prozent weniger
nicht-ideale Reaktionen
in psychischen Krisenfällen aufweisen. GPT-5 wurde erst im August 2025 veröffentlicht.
Allerdings gibt OpenAI auch zu, dass das System derzeit in zwei Punkten versagen kann:
- Lange Konversationen: OpenAI gibt zu, dass die Schutzmaßnahmen in langen Interaktionen
weniger zuverlässig
werden können, da Teile des Sicherheitstrainings nachlassen. - Filterlücken: Es habe Fälle gegeben, in denen inakzeptable Inhalte nicht blockiert wurden, weil das System die Schwere der Äußerungen unterschätzte.
Die Firma rund um CEO Sam Altman erklärt auch, weitere Maßnahmen zu planen, etwa Nutzer über ChatGPT direkt mit lizenzierten Therapeuten und Notdiensten zu verbinden. Außerdem sollen Eltern Einblick in die ChatGPT-Nutzung ihrer Kinder bekommen und Teenager Notfallkontakte festlegen können.
Ein Warnsignal für Eltern und Angehörige
Im Falle von Adam Raine hat OpenAI auf ganzer Linie versagt: Die Klage zeigt auf, wie unzählige Warnsignale nicht nur ignoriert, sondern der Teenager in seinen Absichten aktiv bestärkt wurde. Auch wenn Nutzer bereits mit weniger detaillierten Anfragen in Kontakt mit den Sicherheitsmaßnahmen von ChatGPT kommen, sollte sein Tod nicht als tragischer Einzelfall gesehen werden.
Immer mehr Berichte, etwa ein Beitrag des Dazed-Magazins, weisen darauf hin, dass Nutzer mit ChatGPT auch als Ersatz für einen Therapeuten verwenden. Eine Studie der britischen Internet-Sicherheitsorganisation Internet Matters
verweist auf die besorgniserregende Situation unter Jugendlichen:
- Jedes achte der befragten Kinder (12 Prozent), das Chatbots nutzt, sagt, es tue dies, weil es
sonst niemanden zum Reden hat
. - Diese Zahl steigt bei sogenannten
vulnerablen Kindern
auf fast ein Viertel (23 Prozent).
Die Malteser verweisen auf ihrer Internetseite darauf, dass Kommunikation bei Suizidgedanken besonders wichtig ist. Nina von Ohlen, Standortleiterin von [U25] in Hamburg, einer Mail-Beratung für suizidgefährdete junge Menschen, wendet sich direkt an Betroffene:
Trau dich in Kontakt mit anderen Menschen zu gehen. Es ist nicht falsch, mal schwere Gedanken zu haben. Das darf sein. Und du kannst sie überwinden.
Der Fall von Adam Raine zeigt auf, dass Eltern und Angehörige wachsam sein sollten, wie Kinder und Jugendliche KI verwenden und wie dringend Handlungsbedarf aufseiten von KI-Firmen wie OpenAI ist.
Matt und Maria Raine fordern von OpenAI nicht nur Schadensersatz für den Tod ihres Sohnes, sondern auch, dass das US-Gericht eine Anordnung erlässt, die OpenAI zwingt, gesetzlich bindende Jugendschutzmaßnahmen wie Alterskontrollen und Kindersicherungen einzuführen.
Die Klage könnte als erste ihrer Art für eine zukünftige Gesetzgebung wegweisend sein.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.