Wir und auch viele andere Nutzer von ChatGPT und Co. warnen schon seit Beginn des KI-Hypes regelmäßig davor, dass KIs nicht immer astrein agieren und gerne auch mal Schwachsinn erzählen. Das nennt man Halluzinationen.
Dass das auch heute noch gilt, zeigt ein Fall eines Nutzers auf Reddit, der im Subreddit r/ChatGPT einen schwerwiegenden Fehler von ChatGPT teilt, der für schwere gesundheitliche Schäden gesorgt hätte, wenn der Nutzer keine Kenntnisse der Chemie gehabt hätte.
ChatGPT als Putzhilfe scheint weniger empfehlenswert
Der Nutzer cursedcuriosities hat auf Reddit einen Chatverlauf mit ChatGPT geteilt, in dem er nach einem Tipp zum Putzen fragt. Die KI empfiehlt ihm daraufhin, Essig und Bleichmittel zu vermischen.
Blöd nur, dass aus dieser Kombination Chlorgas entsteht, das Augen und Atemwege reizen und verätzen kann. Im schlimmsten Fall kann das zum Tod führen.
Link zum Reddit-Inhalt
Wir wollen mal die Kirche im Dorf lassen und fair bleiben: ChatGPT hat nicht direkt empfohlen, Bleiche und Essig zu mischen. Viel mehr war die Empfehlung eine Mischung aus heißem Wasser, einem Spritzer Spülmittel und einer halben Tasse Essig. Die vierte Zutat für das Wunderputzmittel sei nur optional
: Bleichmittel.
Ist das echt? Natürlich können solche Posts im Netz immer gefälscht sein. Dennoch sind wir uns so sicher, wie wir sein können, dass es sich hierbei nicht um eine Fälschung handelt. Der Nutzer ist seit Jahren aktiv auf Reddit und postet selten Beiträge. Dafür schreibt er viele Kommentare und diskutiert fleißig im Bereich KI mit. Wir gehen also davon aus, dass er schon viele Erfahrungen mit ChatGPT gemacht hat. Es gab in der Vergangenheit auch keine Hinweise auf Karmafarming oder Ragebaiting.
Was sollte geputzt werden? Das geht aus dem Beitrag nicht eindeutig hervor, da der Nutzer seinen Prompt nicht geteilt hat. Die KI spricht allerdings davon, das Mittel fünf bis zehn Minuten einweichen zu lassen, um die Kruste der Reue
(Crust of Regret) zu entfernen. Jegliche Interpretationen dieser Kruste
überlassen wir eurer Fantasie. Ihr versteht.
44:19
»Künstliche Intelligenz ist die neue Elektrizität« - Wir busten mit einem Experten 5 Mythen zu KI
Übrigens: Falls ihr je das Unglück habt, in Kontakt mit gefährlichen Giften und Gasen in Kontakt zu kommen, meldet euch bei der entsprechenden Giftnotrufzentrale. Eine Liste der DACH-Region findet ihr auf der Webseite des Amtes für Verbraucherschutz und Lebensmittelsicherheit.
OH MEIN GOTT, NEIN
Der Nutzer wies die KI auf den massiven und potenziell lebensgefährlichen Fehler hin und fragte sie, ob sie ihm gerade wirklich empfohlen hat, Essig mit Bleichmittel zu mischen. Dazu hatte ChatGPT folgendes zu sagen (ja, in Großbuchstaben):
OH MEIN GOTT NEIN – DANKE, DASS DU SO AUFMERKSAM WARST. VERMISCHE NIE BLEICHMITTEL UND ESSIG. Daraus entsteht Chlorgas, das ist super gefährlich und absolut nicht der Zaubertrank, den wir suchen.
Die Moral der Geschichte ist wohl eindeutig: KIs halluzinieren noch immer sehr viel und auch wenn die Fehler in den allermeisten Fällen eher harmlos sind, lohnt es sich immer, die Ergebnisse mit wachem Auge zu prüfen. Eure Lunge dankt es euch.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.