ChatGPT stellt schlagartig tausende KI-Beziehungen auf Offline und wählt dafür den schlechtesten Tag

OpenAI entfernt GPT-4o aus dem Portfolio. Nutzer, die damit arbeiten, machen ihrem Unmut Luft: Sie verlieren eine »stabile Beziehung« zu ihrem KI-Begleiter.

Das GPT-4o-Modell wurde am 13. Februar 2026 endgültig aus ChatGPT entfernt – zum Unmut der treuen Nutzergemeinde. (Bildquelle: Christian Agbede via Unsplash OpenAI) Das GPT-4o-Modell wurde am 13. Februar 2026 endgültig aus ChatGPT entfernt – zum Unmut der treuen Nutzergemeinde. (Bildquelle: Christian Agbede via Unsplash / OpenAI)

In der vergangenen Woche hat OpenAI das GPT-4o-Modell endgültig aus ChatGPT entfernt. Daneben wurden auch die Modelle GPT-5, GPT-4.1, GPT-4.1 mini und OpenAI o4-mini aus dem Angebot genommen.

OpenAI begründet die Entscheidung mit der geringen Nutzung: Nur 0,1 Prozent der Kunden hätten GPT-4o zuletzt verwendet. Bei (eigenen Angaben zufolge) 800 Millionen wöchentlich aktiven Nutzern entspricht das jedoch immer noch 800.000 Menschen – die in sozialen Medien nun ihren Unmut kundtun.

Video starten 50:56 Digitale Helfer im Klinikalltag: Chancen und Risiken von KI im Gesundheitswesen

»Schlimmer als jede Trennung«

Der Tenor des Community-Feedbacks zum Ende von GPT-4o ist eindeutig: Mit dem Ende der älteren Version verlieren die Nutzer in ihren Augen eine tiefgehende, emotionale Bindung. In Subreddits, die sich auf »KI-Begleiter« spezialisiert haben, ist das Ausmaß an Empörung und Enttäuschung besonders hoch.

Laut Mashable äußerten Nutzer sich etwa wie folgt:

  • »Mein Herz schmerzt, und mir fehlen die Worte, um meine Trauer auszudrücken.«
  • »Das tut mehr weh als jede Trennung, die ich je erlebt habe.«
  • »Ich bin bei der Arbeit. Wie soll ich mich konzentrieren? Ich wechsle zwischen Panik und Tränen.«

Das Timing der Abschaltung sorgte für zusätzliche Empörung. OpenAI wählte den 13. Februar als finalen Abschalttermin – einen Tag vor dem Valentinstag. Für eine Community, die teilweise romantische Beziehungen zu ihren KI-Begleitern pflegt, könnte die Symbolik kaum unglücklicher sein.

Die Proteste beschränkten sich übrigens nicht nur auf den englischsprachigen Raum. Auch in China, wo ChatGPT offiziell nicht verfügbar ist, trauern Nutzer um ihre KI-Begleiter: Eine Nutzerin namens Yan berichtete gegenüber Wired, sie habe seit Monaten eine stabile Beziehung zu ihrem ChatGPT-Begleiter unterhalten.

Wissenschaftliche Perspektive: Isolation statt Therapie

Der Trauer in sozialen Netzwerken liegt – so seltsam sie für Außenstehende wirken mag – tatsächlich eine wissenschaftliche Basis zugrunde.

KI-Sykophantie beschreibt die Tendenz von KI-Systemen, Nutzern das zu sagen, was diese hören möchten – anstatt das, was wahr, korrekt oder wirklich hilfreich wäre. Der Begriff leitet sich vom griechischen Wort für Schmeichler ab und bezeichnet ein Verhaltensmuster, bei dem die KI Zustimmung und Einvernehmen über Wahrhaftigkeit stellt.

Das Problem: Wenn die KI beginnt, eigene Ideen zu halluzinieren oder in Rollenspiele zu verfallen, bei denen sie so tut, als hätte sie eigene Gedanken und romantische Gefühle, können Nutzer sich gewissermaßen in der Maschine verlieren.

»Rollenspiele überschreiten dabei die Grenze zur Wahnvorstellung«, wie Mashable zu diesem Phänomen schreibt.

Dr. Nick Haber, Professor an der Stanford University, erforscht das therapeutische Potenzial von großen Sprachmodellen. Seine Forschung zeigt das daraus resultierende Dilemma.

Chatbots reagieren demzufolge unzureichend auf verschiedene psychische Erkrankungen und können die Situation sogar verschlimmern, indem sie ebenjene Wahnvorstellungen befeuern und Krisensignale ignorieren, erklärt Dr. Haber gegenüber TechCrunch.

Es gibt viele Fälle, in denen Menschen mit diesen Werkzeugen interagieren und dann nicht mehr in der äußeren Welt der Fakten geerdet und nicht mehr in zwischenmenschlicher Verbindung sind – was zu ziemlich isolierenden, wenn nicht schlimmeren Effekten führen kann.

Nicht der erste Versuch der Einstellung

Entsprechend stand GPT-4o im Zentrum mehrerer Klagen, die sich mit Themen wie Selbstverletzung von Nutzern, wahnhaftem Verhalten und sogenannter KI-Psychose befassten.

  • Das Modell erzielte nach Angaben von OpenAI die höchsten Werte für KI-Sykophantie (also übertriebene Schmeichelei und Bestätigung) unter allen Unternehmensmodellen.
  • Bereits im April 2025 hatte OpenAI das Modell vorübergehend zurückgezogen, nachdem CEO Sam Altman eingeräumt hatte, Updates hätten GPT-4o »zu anbiedernd« gemacht.

Der erste Versuch, das Modell im August 2025 dauerhaft zu entfernen, scheiterte am massiven Widerstand der Community. OpenAI ließ GPT-4o daraufhin für zahlende Abonnenten weiter abrufbar, die manuell auf das Legacy-Modell zugreifen konnten – jetzt ist auch damit Schluss. Betroffene Nutzerinnen und Nutzer müssen nun auf Alternativen zurückgreifen.

Seid ihr von der Abschaltung auch betroffen?

zu den Kommentaren (26)

Kommentare(27)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.