Eine der besten KIs, die ich kenne ist so gut, weil sie manchmal nicht antwortet

Schluss mit frechen Lügen von KIs? Zumindest geht es in die richtige Richtung.

Large Language Models (LLMs) sind teilweise bei einfachsten Aufgeben fehleranfällig. Doch es wird besser. Large Language Models (LLMs) sind teilweise bei einfachsten Aufgeben fehleranfällig. Doch es wird besser.

KIs lügen euch häufiger mal an? Das ist momentan leider noch die Norm.

Das Wort »Lüge« ist hier zwar eigentlich fehl am Platz, denn diese Fehler nennt man Halluzinationen. Es fühlt sich trotzdem manchmal nach Lügen an: Ich stelle ChatGPT eine Frage und bekomme eine Antwort, die zunächst treffend klingt. Beim Faktencheck merke ich dann, dass da einiges frei erfunden wurde.

Zum Glück gibt es schon KIs, die das besser machen.

Perplexity AI versucht Halluzinationen zu meiden

Was ist Perplexity AI? Ähnlich wie bei ChatGPT und Gemini könnt ihr euch bei Perplexity.ai mit einem Chatbot unterhalten, der für euch Fragen beantworten und bestimmte Aufgaben erledigen kann. Doch Perplexity ist speziell für die Recherche konzipiert.

Das bedeutet, ihr bekommt zu den gegebenen Antworten auch Links zu den Webseiten respektive Quellen, auf denen diese Informationen zu finden sind. ChatGPT und Co. haben mittlerweile ähnliche Funktionen eingeführt, doch bisher überzeugt mich Perplexity am meisten.

Warum? Ich bin mir mittlerweile sicher: Die Chance, dass Perplexity halluziniert, ist glücklicherweise ziemlich gering.

Das wurde mir klar, als ich bei mehreren Suchanfragen eine Antwort bekommen habe, wie diese:

Obwohl Perplexity mir keine konkrete Antwort auf die Frage liefert, bietet die KI doch noch nützliche Informationen an. Obwohl Perplexity mir keine konkrete Antwort auf die Frage liefert, bietet die KI doch noch nützliche Informationen an.

Gerade der erste Satz ist bei LLMs eine absolute Seltenheit, was schade ist. Denn genau dann, wenn die KI keine Antwort findet, oder die Antwort sehr kompliziert ist, kommt es meiner Erfahrung nach häufiger zu den genannten Halluzinationen.

Ein einfaches Basierend auf den verfügbaren Informationen lässt sich keine genaue Aussage treffen, würde das Niveau einiger Models auf ein neues Level heben. Doch bei ChatGPT, Gemini und anderen Konkurrenten scheint es das kaum zu geben.

Video starten 40:10 ChatGPT am Ende? Das kann DeepSeek wirklich

Auch Perlexity macht Fehler

Bevor ihr jetzt das neue Lesezeichen abspeichert, das auf Perplexity verweist, seid gewarnt: Auch wenn sie weniger häufig auftreten, heißt das nicht, dass keine Halluzinationen vorkommen.

Ein Beispiel: Erst wenige Stunden, bevor ich diese Worte schreibe, habe ich einen Artikel verfasst, der sich mit Controllern und deren Tastenlayouts beschäftigt.

Dabei ging es konkret um die Tasten, die man für gewöhnlich auf der rechten Seite von Controllern findet: Kreuz, Kreis, A, B und so weiter. Perplexity sprach dabei andauernd vom Steuerkreuz, obwohl es gar nicht darum ging.

Und das ist nur ein weniger dramatisches Beispiel, bei dem der Fehler ohnehin offensichtlich war. Das ist allerdings nicht immer der Fall.

Es gilt also wie immer: Fakten von KIs sollten immer überprüft werden. 

Trotzdem ist es meiner Meinung nach schön zu wissen, dass Perplexity auch mal zugibt, wenn es keine klare Antwort zur gestellten Frage hat. 

zu den Kommentaren (2)

Kommentare(3)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.