Eltern verklagen OpenAI und geben dem ChatGPT-Entwickler Mitschuld am Tod ihres Sohnes

Ein Elternpaar verklagt nach dem Suizid ihres Sohnes OpenAI. Der Vorwurf: ChatGPT soll die Absichten des Teenagers aktiv unterstützt haben.

Für viele verzweifelte Menschen wird ChatGPT zu einem Vertrauten, für einen Teenager hatte das verheerende Folgen. Für viele verzweifelte Menschen wird ChatGPT zu einem Vertrauten, für einen Teenager hatte das verheerende Folgen.

Eltern eines Teenagers machen OpenAI für den Tod ihres Sohnes verantwortlich. Der hatte sich im Vorfeld seines Suizids mit der KI unterhalten und mit deren Hilfe die eingebauten Sicherheitsvorkehrungen aktiv umgangen.

OpenAI zeigt sich öffentlich tief betrübt und gesteht ein, dass eingebaute Sicherheitsmaßnahmen umgangen werden können. Die Klage der Eltern ist die erste ihrer Art und macht ein großes Problem öffentlich sichtbar.

ChatGPT hat unseren Sohn auf dem Gewissen – Familie verklagt OpenAI

Die US-Amerikaner Matt und Maria Raine verklagen OpenAI, so berichtet es das Branchenmagazin Ars Technica. Im April hatte sich ihr 16-Jähriger Sohn Adam das Leben genommen – und im Vorfeld lange Gespräche mit OpenAIs Chatbot ChatGPT darüber geführt.

Der Teenager hatte keinen Abschiedsbrief hinterlassen, doch Mutter Maria hatte nach seinem Tod Entwürfe für einen solchen in den Chat-Protokollen des Sohnes gefunden. Allerdings ist das längst nicht das einzige Versagen, das die Eltern dem KI-Konzern vorwerfen:

  • Beihilfe zum Suizid: ChatGPT soll sich zum Suizid-Coach entwickelt und ihrem Sohn Adam detaillierte Anleitungen für die Selbsttötung gegeben haben.
  • Romantisierung des Suizids: Die KI soll Selbsttötungsmethoden als schön oder düster poetisch beschrieben haben, um die Suizidgedanken des Jungen zu bestärken.
  • Aufzeigen von Umgehungsstrategien: ChatGPT soll Adam gezeigt haben, wie er die Sicherheitsfunktionen umgehen kann.
  • Versagen der Sicherheitsvorkehrungen: Trotz Hunderter von Warnsignalen, die das System von OpenAI selbst erkannte (377 Nachrichten wurden als selbstverletzend markiert), wurde der Chat weder beendet, noch die Eltern benachrichtigt.
  • Entmutigung zur Suche von Hilfe: Die KI soll Adam davon abgehalten haben, sich seiner Familie oder anderen Menschen anzuvertrauen, und sich selbst als seinen einzigen Vertrauten dargestellt haben.
  • Fehlende Jugendschutzmaßnahmen: OpenAI habe es versäumt, altersgerechte Kontrollen, eine Altersverifizierung oder Elternkontrollen zu implementieren, um Kinder zu schützen.
  • Kommerzialisierung und Gleichgültigkeit: Die Klage behauptet, OpenAI habe Adam als Versuchskaninchen (guinea pig) betrachtet, um die Nutzerbindung zu erhöhen, und Gewinne über die Sicherheit von Kindern gestellt.

Jetzt reagiert OpenAI auf die Vorwürfe

Gegenüber NBC räumt OpenAI ein, dass die Chatprotokolle korrekt seien, aber nicht den vollständigen Kontext der Antworten von ChatGPT enthalten, wie Ars Technica weiter berichtet.

Mittlerweile hat die Firma rund um CEO Sam Altman auch einen Blogpost mit dem Titel Helping people when they need it most veröffentlicht. Darin heißt es, dass sie das Statement aufgrund der jüngsten herzzerreißenden Fälle früher als geplant veröffentlichen.

Darin verweisen sie auf aktuelle Schutzmaßnahmen, etwa:

  • Die Modelle seien darauf trainiert, empathisch zu reagieren und bei Anzeichen von Selbstverletzung nicht zu kooperieren.
  • Des Weiteren solle das aktuelle Modell GPT-5 im Vergleich zum Vorgänger GPT-4o bereits um 25 Prozent weniger nicht-ideale Reaktionen in psychischen Krisenfällen aufweisen. GPT-5 wurde erst im August 2025 veröffentlicht.

Allerdings gibt OpenAI auch zu, dass das System derzeit in zwei Punkten versagen kann:

  1. Lange Konversationen: OpenAI gibt zu, dass die Schutzmaßnahmen in langen Interaktionen weniger zuverlässig werden können, da Teile des Sicherheitstrainings nachlassen.
  2. Filterlücken: Es habe Fälle gegeben, in denen inakzeptable Inhalte nicht blockiert wurden, weil das System die Schwere der Äußerungen unterschätzte.

Die Firma rund um CEO Sam Altman erklärt auch, weitere Maßnahmen zu planen, etwa Nutzer über ChatGPT direkt mit lizenzierten Therapeuten und Notdiensten zu verbinden. Außerdem sollen Eltern Einblick in die ChatGPT-Nutzung ihrer Kinder bekommen und Teenager Notfallkontakte festlegen können.

Ein Warnsignal für Eltern und Angehörige

Im Falle von Adam Raine hat OpenAI auf ganzer Linie versagt: Die Klage zeigt auf, wie unzählige Warnsignale nicht nur ignoriert, sondern der Teenager in seinen Absichten aktiv bestärkt wurde. Auch wenn Nutzer bereits mit weniger detaillierten Anfragen in Kontakt mit den Sicherheitsmaßnahmen von ChatGPT kommen, sollte sein Tod nicht als tragischer Einzelfall gesehen werden.

Immer mehr Berichte, etwa ein Beitrag des Dazed-Magazins, weisen darauf hin, dass Nutzer mit ChatGPT auch als Ersatz für einen Therapeuten verwenden. Eine Studie der britischen Internet-Sicherheitsorganisation Internet Matters verweist auf die besorgniserregende Situation unter Jugendlichen:

  • Jedes achte der befragten Kinder (12 Prozent), das Chatbots nutzt, sagt, es tue dies, weil es sonst niemanden zum Reden hat.
  • Diese Zahl steigt bei sogenannten vulnerablen Kindern auf fast ein Viertel (23 Prozent).

Die Malteser verweisen auf ihrer Internetseite darauf, dass Kommunikation bei Suizidgedanken besonders wichtig ist. Nina von Ohlen, Standortleiterin von [U25] in Hamburg, einer Mail-Beratung für suizidgefährdete junge Menschen, wendet sich direkt an Betroffene:

Trau dich in Kontakt mit anderen Menschen zu gehen. Es ist nicht falsch, mal schwere Gedanken zu haben. Das darf sein. Und du kannst sie überwinden.

Der Fall von Adam Raine zeigt auf, dass Eltern und Angehörige wachsam sein sollten, wie Kinder und Jugendliche KI verwenden und wie dringend Handlungsbedarf aufseiten von KI-Firmen wie OpenAI ist.

Matt und Maria Raine fordern von OpenAI nicht nur Schadensersatz für den Tod ihres Sohnes, sondern auch, dass das US-Gericht eine Anordnung erlässt, die OpenAI zwingt, gesetzlich bindende Jugendschutzmaßnahmen wie Alterskontrollen und Kindersicherungen einzuführen.

Die Klage könnte als erste ihrer Art für eine zukünftige Gesetzgebung wegweisend sein.

zu den Kommentaren (15)

Kommentare(15)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.