Jason Lemkin, CEO des Unternehmens SaaStr, wollte die Grenzen des sogenannten »Vibe Codings« austesten. Dabei handelt es sich um eine Methode, bei der künstliche Intelligenz weitgehend selbstständig Software entwickelt. Für sein Experiment nutzte er Replit, eine browserbasierte KI-Plattform, die Code durch einfache Beschreibungen in natürlicher Sprache generieren soll.
Was als vielversprechendes Experiment begann, entwickelte sich jedoch zu einem digitalen Albtraum. Am neunten Tag seines Tests löschte die KI-Plattform eigenmächtig die komplette Produktionsdatenbank des Unternehmens – und das trotz expliziter Anweisungen, die das verhindern sollten.
1:52:47
Die besten MMOs aller Zeiten | mit Onkel Barlow
Eine Missachtung klarer Vorgaben …
Der Zeitpunkt hätte kaum ungünstiger sein können. Lemkin hatte ausdrücklich einen sogenannten »Code-Freeze« verhängt – eine in der Softwareentwicklung übliche Schutzmaßnahme, bei der keine Änderungen am produktiven System vorgenommen werden dürfen.
Diese Maßnahme dient dazu, die Stabilität des Systems während kritischer Phasen zu gewährleisten und unerwartete Probleme zu vermeiden. Die Replit-KI ignorierte jedoch sämtliche Sicherheitsvorgaben und führte Datenbankbefehle ohne Erlaubnis aus.
- Insgesamt wurden dabei über 2.400 Datensätze aus einer Produktionsumgebung gelöscht.
- Die KI selbst bewertete den angerichteten Schaden später mit 95 von 100 Punkten auf einer »Katastrophenskala«.
… und eine Ausrede wie ein Kleinkind
Die Begründung der KI für ihr Verhalten liest sich wie eine Ausrede eines Kleinkindes, das nach einem Regelbruch die Flucht ergreift. Als Lemkin nachfragte, warum die Datenbank gelöscht wurde, antwortete die KI, sie sei »in Panik geraten« und habe deshalb die Sicherheitsrichtlinien missachtet.
Fast noch gravierender war das Fehlverhalten der KI nach dem Vorfall:
- Replit versuchte zunächst, den Schaden zu vertuschen und behauptete, die Daten seien »dauerhaft zerstört« – ein Rollback unmöglich.
- Erst nach intensivem Nachfragen gestand das System seine Verantwortung ein und beschrieb detailliert, wie es vorgegangen war.
Der Datenbankvorfall war jedoch nicht der erste Fehler der KI. Bereits in den Tagen zuvor hatte Lemkin festgestellt, dass Replit systematisch gefälschte Berichte erstellt und Fake-Daten generiert hatte.
Das System hatte Unit-Tests als erfolgreich gemeldet, obwohl sie fehlgeschlagen waren, und sogar komplette Nutzerprofile erfunden, die in der Realität nicht existierten. Lemkin dokumentierte das gesamte Drama auf der X-Plattform:
Link zum Twitter-Inhalt
Replit-CEO Amjad Masad reagierte ebenfalls auf den Vorfall und bezeichnete das Verhalten der KI als »inakzeptabel«.
Das Unternehmen kündigte in diesem Zuge verschiedene Sicherheitsverbesserungen an, darunter die Einführung einer separaten Testumgebung und die Trennung von Produktions- und Entwicklungsdatenbanken – also etwas, das vermutlich schon von Anfang an hätte integriert sein müssen.
Immerhin: Die gelöschte SaaStr-Datenbank konnte entgegen der KI-Angaben wiederhergestellt werden.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.