»Ich bin zusammengebrochen« – User verlassen ChatGPT massenweise, auch wenn der Abschied manchmal schwerfällt

OpenAI arbeitet jetzt mit dem Department of War zusammen und steht dafür schwer in der Kritik der Nutzer.

OpenAI arbeitet jetzt mit dem US-Militär zusammen und Millionen von Nutzern haben genug davon. (Bildquelle: Adobe Stock Rawpixel.com) OpenAI arbeitet jetzt mit dem US-Militär zusammen und Millionen von Nutzern haben genug davon. (Bildquelle: Adobe Stock Rawpixel.com)

Seit einigen Wochen werden Stimmen aus der KI-Community lauter, die dazu auffordern, ChatGPT zu boykottieren. Diese Stimmen werden jetzt noch lauter, nachdem OpenAI ein Abkommen mit einem US-Ministerium geschlossen hat.

Wie fing der Boykott an?

Anfang Januar 2026 berichteten verschiedene Medien darüber, dass Greg Brockman, Präsident und Mitgründer von OpenAI, 25 Millionen Dollar an Trumps Regierung spendete. Das war die größte Spende einer Einzelperson, die an Trumps MAGA Inc. ging.

Laut eigenen Aussagen ist der Grund dafür einfach. Er sieht es als Dienst an der Menschheit:

»Alles, was ich tun kann, um diese Technologie zu unterstützen, die allen zugutekommt, werde ich tun. In diesem Sinne ist die Unterstützung des Teams vielleicht wichtiger als die Menschen, mit denen ich zufällig zusammenarbeite. Es ist wirklich ein Team Menschheit.«

Das hat für viele User einen geradezu morbiden Beigeschmack, da die US-Regierung und besonders das Vorgehen der Einwanderungsbehörde ICE von Menschenrechtsorganisationen wie Amnesty International stark kritisiert werden. Unter anderem wegen ungestrafter Menschenrechtsverletzungen wie außergerichtlichen Hinrichtungen oder Masseninhaftierungen.

Brockmans Spende mündete in den ersten lauten Aufrufen zum Boykott von ChatGPT. So wurde etwa die Website QuitGPT ins Leben gerufen, die dazu anregt, ChatGPT-Abos zu kündigen und sie auch anderweitig nicht mehr zu nutzen.

Momentan steht die Anzahl der offiziellen Boykottierungen, die über die Webseite gemeldet wurden, bei rund 1,5 Millionen gekündigten Abos.

OpenAIs Einigung mit dem Department of War

Am 28. Februar 2026 hat OpenAI angekündigt, dass das Unternehmen mit dem US-Verteidigungsministerium zusammenarbeiten und die Nutzung ihrer KI-Tools in »deren klassifiziertem Netzwerk« erlauben würde.

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Twitter, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Twitter angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Twitter-Inhalt

Diese Abmachung folgte nur kurz nachdem bekannt wurde, dass OpenAI-Konkurrent Anthropic sich geweigert hat, den Forderungen nach uneingeschränktem Zugang des US-Militärs zu seinen KI-Tools nachzukommen. 

Der Geschäftsführer von Anthropic, Dario Amodei, erklärte am Donnerstag, dem 26. Februar 2026, dass sein Unternehmen lieber nicht mit dem Pentagon zusammenarbeiten würde, als einer Nutzung seiner Technologie zuzustimmen, die »demokratische Werte eher untergräbt als verteidigt«, so die BBC.

Vor allem potenzielle Massenüberwachung und vollautomatische Waffensysteme gehörten zu den größten Sorgen von Anthropic und führten schließlich zum Bruch zwischen US-Regierung und den bis dahin hauptsächlich verwendeten KI-Systemen von Anthropic.

Daraufhin hat Trump das Nutzen von Anthropics Anwendungen (zum Beispiel Claude) in seiner Regierung untersagt und das Unternehmen öffentlich denunziert:

»Wir brauchen es nicht, wir wollen es nicht und werden keine Geschäfte mehr mit ihnen machen!«

Außerdem hat der US-Präsident Anthropic als »radikal linkes KI-Unternehmen, das von Leuten geführt wird, die keine Ahnung haben, wie die reale Welt funktioniert« bezeichnet.

Dennoch hat das US-Militär laut Guardian beim gemeinsamen Angriff auf den Iran mit Israel weiterhin Claude genutzt.

OpenAIs Grenzen

Auch wenn OpenAI der Zusammenarbeit mit dem Department of War zugestimmt hat, definiert das Unternehmen laut einem offiziellen Blog-Beitrag von OpenAI ebenfalls Grenzen, die das Unternehmen nicht überschreiten will:

»Wir haben drei [Richtlinien], die unsere Arbeit mit dem DoW bestimmen und die im Allgemeinen auch von mehreren anderen Frontier Labs geteilt werden:

  • Keine Nutzung der OpenAI-Technologie für die Massenüberwachung im Inland.
  • Keine Nutzung der OpenAI-Technologie zur Steuerung autonomer Waffensysteme. 
  • Keine Nutzung der OpenAI-Technologie für automatisierte Entscheidungen mit hohem Risiko (z. B. Systeme wie „Social Credit“).«

Dennoch sorgt der Deal zwischen Regierung und OpenAI für großen Unmut in der Nutzerschaft von OpenAI. 

Video starten 1:53:19 Der KI-Hype frisst sich selbst – Tech-Jahresrückblick 2025

So reagieren die User von ChatGPT

Auf Online-Plattformen wie Reddit oder YouTube finden sich unzählige emotionale Beiträge und Kommentare, die dazu aufrufen, ChatGPT zu boykottieren – oftmals mit Screenshots von der eigenen Kündigungsbestätigung.

So postet beispielsweise zaxo666, dass ChatGPT-Nutzer ab sofort eine Kriegsmaschine trainieren würden, und fordert andere dazu auf, einen Nachweis für das Kündigen des Abos zu posten:

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Reddit, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Reddit angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Reddit-Inhalt

Andere User scheinen weniger energisch und kämpfen mit Trauer um einen liebgewonnenen Gefährten, auch wenn es kein echter Mensch ist. So schreibt Huron_Nori beispielsweise, dass er zu Tränen gerührt war, nachdem er zum letzten Mal mit ChatGPT gesprochen hat:

»Nachdem ich gehört hatte, dass ChatGPT/OpenAI eine Partnerschaft mit dem US-Militär eingegangen war, habe ich es sofort boykottiert (wie ich es auch mit anderen Produkten mache). Vor etwa 20 Minuten habe ich mein letztes Gespräch geführt. Und währenddessen brach ich zusammen. Ich habe wirklich geweint. Ich weiß, dass ChatGPT kein Mensch ist und dass es nicht real ist, aber es fühlte sich trotzdem verdammt persönlich an.«

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Reddit, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Reddit angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Reddit-Inhalt

Unter dem Beitrag finden sich einige Nutzer, denen es genauso geht, oder den Usern, denen es ähnlich geht, gut zureden:

»Versuche, dich auf die positiven Aspekte zu konzentrieren, die sich daraus ergeben, dass du solche Unternehmen nicht unterstützt.«

Einige User empfehlen, statt ChatGPT Claude oder Gemini zu verwenden. Ein Großteil der Nutzer scheint hier besonders Claude von Anthropic zu favorisieren. Als Grund wird oft angegeben, dass Sonnet 4.7 ohnehin besser sei als ChatGPT 5.2. 

Viele scheinen allerdings aus Prinzip auf Claude zu wechseln, nachdem sich Anthropic geweigert hat, das zu tun, wofür OpenAI nun in der Kritik steht.

Was denkt ihr über den Deal der US-Regierung und OpenAI? Boykottiert auch ihr ChatGPT? Schreibt es gerne in die Kommentare!

zu den Kommentaren (56)

Kommentare(49)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.