Anthropic war es zuletzt gelungen, sich einen moralischen Punktsieg gegen OpenAI zu erkämpfen. Nun droht die gute Stimmung wieder zu kippen und die Schuld kann der Claude-Hersteller letztlich nur bei sich selbst suchen.
Ein Drama in zwei Akten
Los ging der Ärger für das US-amerikanische KI-Unternehmen am vergangenen Dienstag, dem 31. März 2026. Beim Rollout von Claude Code 2.1.88 unterlief ein grober Fehler. In dem Release waren nämlich auch knapp 2.000 Dateien mit Source-Code und mehr als 512.000 Zeilen Code enthalten.
Man hat also gewissermaßen die Blaupause für eines der wichtigsten Produkte selbst geleakt. Dabei handelt es sich nicht um das KI-Modell selbst, sondern um die Software-Infrastruktur, die es umgibt. Sie gibt etwa an, wie sich das Modell verhalten und welche Werkzeuge es nutzen soll (via TechCrunch).
0:49
Claude Opus 4.5: Anthropic stellt neues KI-Modell vor und macht Google und OpenAI Konkurrenz
Der geleakte Code wurde natürlich schnell verbreitet, unter anderem auf der beliebten Projekt-Plattform GitHub. Wie Aufzeichnungen der Plattform zeigen, stellte Anthropic noch am selben Tag eine sogenannte DMCA-Anfrage, um die Verbreitung zu stoppen.
DMCA steht für »Digital Millennium Copyright Act« und beschreibt ein US-Gesetz, das Online-Plattformen wie GitHub dazu verpflichtet, Inhalte schnellstmöglich zu entfernen, wenn ein Urheberrechtsinhaber meldet, dass sein geistiges Eigentum dort illegal hochgeladen wurde.
Weit über das Ziel hinaus: GitHub folgte dieser Anweisung am nächsten Tag, ging dabei aber offenbar zu weit. Anstatt nur die exakten Kopien des geleakten Codes zu löschen, wurden Tausende von GitHub-Repositories gesperrt.
Davon sind auch viele Entwickler betroffen, die mit dem Leak überhaupt nichts zu tun haben und den geleakten Code auch überhaupt nicht verwendet haben. Auf X reagierte Boris Cherny, der Chef von Claude Code, auf die daraufhin eingehenden Beschwerden und gab zu, dass es sich um ein Versehen handelt:
Link zum Twitter-Inhalt
Man arbeite schon mit GitHub daran, die fälschlich gesperrten Repos – digitale Projektordner, die den Code und die gesamte Versionsgeschichte enthalten – wiederherzustellen.
Flecken auf der weißen Weste
Das ganze Vorgehen und der Umgang damit werfen kein gutes Licht auf Anthropic. Für das Unternehmen ist das doppelt ärgerlich, da man sich als »verantwortungsbewusste Alternative« zu OpenAI, Google und Co. positioniert hat.
Dass man nun selbst zur Sicherheitslücke wird und dann auch noch das Urheberrecht »missbraucht«, wie es einige Entwickler beschreiben, passt überhaupt nicht zu diesem Image. Gerade im Coding-Bereich hatte Anthropic zuletzt starke Fortschritte gemacht. Nun geht es darum, das Vertrauen der Nutzer zurückzugewinnen.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.