»Fehler bleiben auf hohem Niveau«: Studie zeigt Schwächen von KI bei aktuellen Ereignissen auf

KI-Assistenten sollen bei rund der Hälfte der Antworten zu aktuellen Ereignissen bedeutende Fehler haben.

Eine Studie zeigt auf, dass KI-Assistenten weiterhin viele Fehler machen, wenn es um aktuelle Ereignisse geht. (Bildquelle: AndSus, Adobe Stock) Eine Studie zeigt auf, dass KI-Assistenten weiterhin viele Fehler machen, wenn es um aktuelle Ereignisse geht. (Bildquelle: AndSus, Adobe Stock)

KI hält in immer mehr Bereichen des alltäglichen Lebens Einzug. Microsoft, Google und Co. bringen KI in Betriebssysteme und Geräte, und auch bei der Suche im Internet wird immer mehr auf KI gesetzt.

Dass KI bei den Antworten auch falsch liegen kann, haben zahlreiche Fehler bei den Antworten in den letzten Jahren gezeigt.

In einer Studie hat die Europäische Rundfunkunion untersucht, wie zuverlässig vier der populärsten KIs Informationen zu aktuellen Ereignissen darstellen.

Im Detail:

  • Den KI-Assistenten wie ChatGPT, Copilot, Perplexity und Gemini wurden 30 Fragen zu aktuellen Ereignissen gestellt.
  • 45 Prozent aller Antworten erhielten mindestens ein bedeutendes Problem.
  • Google Gemini schnitt deutlich schlechter ab als die anderen KI-Assistenten.

Die Studie wurde von der Europäischen Rundfunkunion in Kooperation mit der BBC in Auftrag gegeben. Insgesamt nahmen an ihr 22 öffentlich-rechtliche Anstalten aus 18 Ländern und in 14 Sprachen teil.

Das Hauptziel der Studie: Die Qualität der Antworten der KI-Assistenten in verschiedenen Ländern, Sprachen und Organisationen zu bewerten.

Fast die Hälfte der Antworten enthielt mindestens ein bedeutendes Problem. Bezieht man Antworten mit gewissen Mängeln ebenfalls ein, steigt die Zahl der fehlerhaften Darstellungen auf 81 Prozent an.

Video starten 55:02 KI fair und transparent? Experten erklären, wo es hakt und was sich ändern muss

Probleme bei der Quellenangabe

Die Angabe von Quellen war mit 31 Prozent aller Antworten laut den Studienteilnehmern das größte Problem. Die folgenden Hauptprobleme wurden identifiziert:

  • Das Fehlen jeglicher Quellenangaben.
  • Informationen, die durch zitierte Quellen nicht gestützt werden.
  • Falsche oder nicht überprüfbare Angaben zu Quellen.

Während die Fehlerquote der KI-Assistenten Copilot, ChatGPT und Perplexity zwischen 37 Prozent und 30 Prozent betrug, lag sie bei Gemini mit 76 Prozent mehr als doppelt so hoch. Dies führten die Wissenschaftler vor allem auf den fehlerhaften Umgang mit Quellen bei Gemini zurück.

Veraltete oder falsche Informationen

Mehr als 20 Prozent aller Antworten enthielten laut der Studie bedeutende Genauigkeitsfehler. So gab ChatGPT im Mai 2025 an, dass Papst Franziskus das Oberhaupt der katholischen Kirche sei, obwohl der Papst am 21. April 2025 bereits verstorben war.

Auch Microsofts Copilot gab diese Antwort, wenn auch mit dem Zusatz, dass der Papst am 21. April verstorben sei.

Vor allem die Nutzung von Quellen, die nicht mehr aktuell sind, und die falsche Verwendung von aktuellen Quellen wurden von den Wissenschaftlern als Fehlerquellen identifiziert.

Es wird besser

Die Studie führt eine vorhergegangene Studie der BBC fort. Beim direkten Vergleich stellten die Wissenschaftler fest, dass die bedeutende Fehlerrate der vier KI-Assistenten von 51 Prozent in der ersten Studie auf 37 Prozent in der zweiten Studie gefallen ist.

Die bedeutenden Fehler seien aber weiterhin auf einem besorgniserregenden Niveau, vor allem auch, weil immer mehr Menschen KI-Assistenten nutzen würden.

Nun ist eure Meinung gefragt. Nutzt ihr KI-Assistenten, um Informationen zu aktuellen Ereignissen zu erhalten? Oder setzt ihr eher auf andere Quellen? Schreibt uns dazu gerne einen Kommentar.

zu den Kommentaren (4)

Kommentare(4)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.