Nachdem sie für ihren Widerstand gefeiert wurden, spricht Anthropic jetzt doch wieder mit dem US-Militär

Anthropic hat die Gespräche mit der Regierung wieder aufgenommen, um zu deeskalieren.

Claude sah zuletzt wie der große Gewinner aus. Das könnte sich nun ändern. (Bildquelle: Francois Eichinger, Adobe Stock) Claude sah zuletzt wie der große Gewinner aus. Das könnte sich nun ändern. (Bildquelle: Francois Eichinger, Adobe Stock)

Nachdem OpenAI angekündigt hat, mit dem US-Verteidigungsministerium zusammenzuarbeiten, riefen viele Nutzer zum Boykott auf. Anthropic sah mit der KI Claude wie der große Gewinner aus. Jetzt könnte es eine weitere Wende geben.

Anthropic redet wieder mit dem Pentagon

Was ist passiert? Bis Ende Februar war Claude das Standard-KI-Tool der US-Regierung. Dann hat sich Anthropic aber geweigert, dem US-Militär uneingeschränkten Zugang zu seinen KI-Tools zu gewähren.

Die Sorge, dass Claude zur Massenüberwachung oder für vollautomatische Waffensysteme missbraucht werden könnte, war zu groß.

Video starten 0:49 Claude Opus 4.5: Anthropic stellt neues KI-Modell vor und macht Google und OpenAI Konkurrenz

Wie wohl nicht anders zu erwarten, fiel die Reaktion der US-Regierung laut, emotional und polemisch aus. US-Präsident Donald Trump und Verteidigungsminister Pete Hegseth äußerten sich extrem kritisch. Anthropic wurde sogar als nationales Risiko eingestuft, sodass kein Unternehmen, das Geschäfte mit dem US-Militär macht, die KI-Dienste nutzen darf.

OpenAI schien weniger Bedenken zu haben und einigte sich mit dem Department of War. In der Folge riefen viele Nutzer zum Boykott auf und Anthropic durfte sich über viele neue Nutzer freuen.

Die Kehrtwende: Wie die Financial Times mit Verweis auf interne Quellen berichtet, hat Anthropic die Gespräche mit dem Pentagon nun doch wieder aufgenommen. Mit den Verhandlungen möchte man vor allem die Einstufung als Sicherheitsrisiko rückgängig machen.

Laut dem Bericht drängen einige Investoren von Anthropic auf eine Deeskalation. Die Einstufung bedrohe demnach das Geschäftsmodell von Anthropic massiv.

Das Problem ist dabei eben nicht nur, dass Regierungsmitarbeiter angewiesen wurden, Claude nicht mehr zu nutzen. Die KI-Tools wurden als Risiko für die gesamte Lieferkette eingestuft. Das gefährdet etwa auch die Zusammenarbeit mit Partnern wie Amazon oder Google, die ebenfalls große Staatsaufträge halten.

Diese Verhandlungen könnten sich nun negativ auf die Meinung zu Claude auswirken. Kollege Jan hatte Anthropic vor den neuerlichen Gesprächen ausdrücklich für das Vorgehen und die Haltung gegen OpenAI gelobt.

Der Fall könnte einen Wendepunkt in der KI-Entwicklung markieren. Ethische Fragen begleiten die Technologie schon von Anfang an.

Nun stellt sich die Frage, ob die aufgestellten Grenzen im Namen der nationalen Sicherheit eingerissen werden dürfen.

zu den Kommentaren (1)

Kommentare(1)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.