Anthropic hat sich zuletzt als »bessere« Alternative zu OpenAI positioniert – jetzt dreht sich die Stimmung und sie sind selbst schuld

Anthropic hat in dieser Woche gleich zwei Eigentore geschossen und droht so, die Gunst der Nutzer zu verspielen.

Der Anthropic-Chef Dario Amodei muss gerade mehrere Brände löschen. (Bild: Alex Wong, Getty Images) Der Anthropic-Chef Dario Amodei muss gerade mehrere Brände löschen. (Bild: Alex Wong, Getty Images)

Anthropic war es zuletzt gelungen, sich einen moralischen Punktsieg gegen OpenAI zu erkämpfen. Nun droht die gute Stimmung wieder zu kippen und die Schuld kann der Claude-Hersteller letztlich nur bei sich selbst suchen.

Ein Drama in zwei Akten

Los ging der Ärger für das US-amerikanische KI-Unternehmen am vergangenen Dienstag, dem 31. März 2026. Beim Rollout von Claude Code 2.1.88 unterlief ein grober Fehler. In dem Release waren nämlich auch knapp 2.000 Dateien mit Source-Code und mehr als 512.000 Zeilen Code enthalten.

Man hat also gewissermaßen die Blaupause für eines der wichtigsten Produkte selbst geleakt. Dabei handelt es sich nicht um das KI-Modell selbst, sondern um die Software-Infrastruktur, die es umgibt. Sie gibt etwa an, wie sich das Modell verhalten und welche Werkzeuge es nutzen soll (via TechCrunch).

Video starten 0:49 Claude Opus 4.5: Anthropic stellt neues KI-Modell vor und macht Google und OpenAI Konkurrenz

Der geleakte Code wurde natürlich schnell verbreitet, unter anderem auf der beliebten Projekt-Plattform GitHub. Wie Aufzeichnungen der Plattform zeigen, stellte Anthropic noch am selben Tag eine sogenannte DMCA-Anfrage, um die Verbreitung zu stoppen.

DMCA steht für »Digital Millennium Copyright Act« und beschreibt ein US-Gesetz, das Online-Plattformen wie GitHub dazu verpflichtet, Inhalte schnellstmöglich zu entfernen, wenn ein Urheberrechtsinhaber meldet, dass sein geistiges Eigentum dort illegal hochgeladen wurde.

Weit über das Ziel hinaus: GitHub folgte dieser Anweisung am nächsten Tag, ging dabei aber offenbar zu weit. Anstatt nur die exakten Kopien des geleakten Codes zu löschen, wurden Tausende von GitHub-Repositories gesperrt.

Davon sind auch viele Entwickler betroffen, die mit dem Leak überhaupt nichts zu tun haben und den geleakten Code auch überhaupt nicht verwendet haben. Auf X reagierte Boris Cherny, der Chef von Claude Code, auf die daraufhin eingehenden Beschwerden und gab zu, dass es sich um ein Versehen handelt:

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Twitter, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Twitter angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Twitter-Inhalt

Man arbeite schon mit GitHub daran, die fälschlich gesperrten Repos – digitale Projektordner, die den Code und die gesamte Versionsgeschichte enthalten – wiederherzustellen.

Flecken auf der weißen Weste

Das ganze Vorgehen und der Umgang damit werfen kein gutes Licht auf Anthropic. Für das Unternehmen ist das doppelt ärgerlich, da man sich als »verantwortungsbewusste Alternative« zu OpenAI, Google und Co. positioniert hat.

So sorgte der Claude-Hersteller etwa für Aufsehen und viel Zuspruch, weil er sich weigerte, dem US-Verteidigungsministerium uneingeschränkten Zugang zu seinen KI-Tools zu gewähren.

Dass man nun selbst zur Sicherheitslücke wird und dann auch noch das Urheberrecht »missbraucht«, wie es einige Entwickler beschreiben, passt überhaupt nicht zu diesem Image. Gerade im Coding-Bereich hatte Anthropic zuletzt starke Fortschritte gemacht. Nun geht es darum, das Vertrauen der Nutzer zurückzugewinnen.

zu den Kommentaren (0)

Kommentare(0)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.