In der vergangenen Woche hat OpenAI das GPT-4o-Modell endgültig aus ChatGPT entfernt. Daneben wurden auch die Modelle GPT-5, GPT-4.1, GPT-4.1 mini und OpenAI o4-mini aus dem Angebot genommen.
OpenAI begründet die Entscheidung mit der geringen Nutzung: Nur 0,1 Prozent der Kunden hätten GPT-4o zuletzt verwendet. Bei (eigenen Angaben zufolge) 800 Millionen wöchentlich aktiven Nutzern entspricht das jedoch immer noch 800.000 Menschen – die in sozialen Medien nun ihren Unmut kundtun.
50:56
Digitale Helfer im Klinikalltag: Chancen und Risiken von KI im Gesundheitswesen
»Schlimmer als jede Trennung«
Der Tenor des Community-Feedbacks zum Ende von GPT-4o ist eindeutig: Mit dem Ende der älteren Version verlieren die Nutzer in ihren Augen eine tiefgehende, emotionale Bindung. In Subreddits, die sich auf »KI-Begleiter« spezialisiert haben, ist das Ausmaß an Empörung und Enttäuschung besonders hoch.
Laut Mashable äußerten Nutzer sich etwa wie folgt:
- »Mein Herz schmerzt, und mir fehlen die Worte, um meine Trauer auszudrücken.«
- »Das tut mehr weh als jede Trennung, die ich je erlebt habe.«
- »Ich bin bei der Arbeit. Wie soll ich mich konzentrieren? Ich wechsle zwischen Panik und Tränen.«
Das Timing der Abschaltung sorgte für zusätzliche Empörung. OpenAI wählte den 13. Februar als finalen Abschalttermin – einen Tag vor dem Valentinstag. Für eine Community, die teilweise romantische Beziehungen zu ihren KI-Begleitern pflegt, könnte die Symbolik kaum unglücklicher sein.
Die Proteste beschränkten sich übrigens nicht nur auf den englischsprachigen Raum. Auch in China, wo ChatGPT offiziell nicht verfügbar ist, trauern Nutzer um ihre KI-Begleiter: Eine Nutzerin namens Yan berichtete gegenüber Wired, sie habe seit Monaten eine stabile Beziehung zu ihrem ChatGPT-Begleiter unterhalten.
Wissenschaftliche Perspektive: Isolation statt Therapie
Der Trauer in sozialen Netzwerken liegt – so seltsam sie für Außenstehende wirken mag – tatsächlich eine wissenschaftliche Basis zugrunde.
KI-Sykophantie beschreibt die Tendenz von KI-Systemen, Nutzern das zu sagen, was diese hören möchten – anstatt das, was wahr, korrekt oder wirklich hilfreich wäre. Der Begriff leitet sich vom griechischen Wort für Schmeichler ab und bezeichnet ein Verhaltensmuster, bei dem die KI Zustimmung und Einvernehmen über Wahrhaftigkeit stellt.
Das Problem: Wenn die KI beginnt, eigene Ideen zu halluzinieren oder in Rollenspiele zu verfallen, bei denen sie so tut, als hätte sie eigene Gedanken und romantische Gefühle, können Nutzer sich gewissermaßen in der Maschine verlieren.
»Rollenspiele überschreiten dabei die Grenze zur Wahnvorstellung«, wie Mashable zu diesem Phänomen schreibt.
Dr. Nick Haber, Professor an der Stanford University, erforscht das therapeutische Potenzial von großen Sprachmodellen. Seine Forschung zeigt das daraus resultierende Dilemma.
Chatbots reagieren demzufolge unzureichend auf verschiedene psychische Erkrankungen und können die Situation sogar verschlimmern, indem sie ebenjene Wahnvorstellungen befeuern und Krisensignale ignorieren, erklärt Dr. Haber gegenüber TechCrunch.
Es gibt viele Fälle, in denen Menschen mit diesen Werkzeugen interagieren und dann nicht mehr in der äußeren Welt der Fakten geerdet und nicht mehr in zwischenmenschlicher Verbindung sind – was zu ziemlich isolierenden, wenn nicht schlimmeren Effekten führen kann.
Nicht der erste Versuch der Einstellung
Entsprechend stand GPT-4o im Zentrum mehrerer Klagen, die sich mit Themen wie Selbstverletzung von Nutzern, wahnhaftem Verhalten und sogenannter KI-Psychose befassten.
- Das Modell erzielte nach Angaben von OpenAI die höchsten Werte für KI-Sykophantie (also übertriebene Schmeichelei und Bestätigung) unter allen Unternehmensmodellen.
- Bereits im April 2025 hatte OpenAI das Modell vorübergehend zurückgezogen, nachdem CEO Sam Altman eingeräumt hatte, Updates hätten GPT-4o »zu anbiedernd« gemacht.
Der erste Versuch, das Modell im August 2025 dauerhaft zu entfernen, scheiterte am massiven Widerstand der Community. OpenAI ließ GPT-4o daraufhin für zahlende Abonnenten weiter abrufbar, die manuell auf das Legacy-Modell zugreifen konnten – jetzt ist auch damit Schluss. Betroffene Nutzerinnen und Nutzer müssen nun auf Alternativen zurückgreifen.
Seid ihr von der Abschaltung auch betroffen?
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.