Gefährlicher Fehler: KI empfiehlt Nutzer zwei Putzmittel - doch die Mischung ist lebensgefährlich

Deswegen solltet ihr immer die Ergebnisse von KIs doppelt und dreifach überprüfen.

Diesen Putztrick solltet ihr definitiv nicht nachahmen. (Bild: Adobe Stock - STUDIO GRAND WEB) Diesen Putztrick solltet ihr definitiv nicht nachahmen. (Bild: Adobe Stock - STUDIO GRAND WEB)

Wir und auch viele andere Nutzer von ChatGPT und Co. warnen schon seit Beginn des KI-Hypes regelmäßig davor, dass KIs nicht immer astrein agieren und gerne auch mal Schwachsinn erzählen. Das nennt man Halluzinationen. 

Dass das auch heute noch gilt, zeigt ein Fall eines Nutzers auf Reddit, der im Subreddit r/ChatGPT einen schwerwiegenden Fehler von ChatGPT teilt, der für schwere gesundheitliche Schäden gesorgt hätte, wenn der Nutzer keine Kenntnisse der Chemie gehabt hätte.

ChatGPT als Putzhilfe scheint weniger empfehlenswert

Der Nutzer cursedcuriosities hat auf Reddit einen Chatverlauf mit ChatGPT geteilt, in dem er nach einem Tipp zum Putzen fragt. Die KI empfiehlt ihm daraufhin, Essig und Bleichmittel zu vermischen.

Blöd nur, dass aus dieser Kombination Chlorgas entsteht, das Augen und Atemwege reizen und verätzen kann. Im schlimmsten Fall kann das zum Tod führen.

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Reddit, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Reddit angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Reddit-Inhalt

Wir wollen mal die Kirche im Dorf lassen und fair bleiben: ChatGPT hat nicht direkt empfohlen, Bleiche und Essig zu mischen. Viel mehr war die Empfehlung eine Mischung aus heißem Wasser, einem Spritzer Spülmittel und einer halben Tasse Essig. Die vierte Zutat für das Wunderputzmittel sei nur optional: Bleichmittel.

Ist das echt? Natürlich können solche Posts im Netz immer gefälscht sein. Dennoch sind wir uns so sicher, wie wir sein können, dass es sich hierbei nicht um eine Fälschung handelt. Der Nutzer ist seit Jahren aktiv auf Reddit und postet selten Beiträge. Dafür schreibt er viele Kommentare und diskutiert fleißig im Bereich KI mit. Wir gehen also davon aus, dass er schon viele Erfahrungen mit ChatGPT gemacht hat. Es gab in der Vergangenheit auch keine Hinweise auf Karmafarming oder Ragebaiting.

Was sollte geputzt werden? Das geht aus dem Beitrag nicht eindeutig hervor, da der Nutzer seinen Prompt nicht geteilt hat. Die KI spricht allerdings davon, das Mittel fünf bis zehn Minuten einweichen zu lassen, um die Kruste der Reue (Crust of Regret) zu entfernen. Jegliche Interpretationen dieser Kruste überlassen wir eurer Fantasie. Ihr versteht.

Video starten 44:19 »Künstliche Intelligenz ist die neue Elektrizität« - Wir busten mit einem Experten 5 Mythen zu KI

Übrigens: Falls ihr je das Unglück habt, in Kontakt mit gefährlichen Giften und Gasen in Kontakt zu kommen, meldet euch bei der entsprechenden Giftnotrufzentrale. Eine Liste der DACH-Region findet ihr auf der Webseite des Amtes für Verbraucherschutz und Lebensmittelsicherheit.

OH MEIN GOTT, NEIN

Der Nutzer wies die KI auf den massiven und potenziell lebensgefährlichen Fehler hin und fragte sie, ob sie ihm gerade wirklich empfohlen hat, Essig mit Bleichmittel zu mischen. Dazu hatte ChatGPT folgendes zu sagen (ja, in Großbuchstaben):

OH MEIN GOTT NEIN – DANKE, DASS DU SO AUFMERKSAM WARST. VERMISCHE NIE BLEICHMITTEL UND ESSIG. Daraus entsteht Chlorgas, das ist super gefährlich und absolut nicht der Zaubertrank, den wir suchen.

Die Moral der Geschichte ist wohl eindeutig: KIs halluzinieren noch immer sehr viel und auch wenn die Fehler in den allermeisten Fällen eher harmlos sind, lohnt es sich immer, die Ergebnisse mit wachem Auge zu prüfen. Eure Lunge dankt es euch.

zu den Kommentaren (14)

Kommentare(11)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.