Eine der größten Tech-Seiten lässt eine KI Artikel schreiben, doch das Experiment geht in die Hose

Bei der US-Webseite CNET kam eine KI als Autor von Artikeln zum Einsatz. Jetzt zeigt sich: In den Texten haben sich mehrfach Fehler eingeschlichen.

Update vom 27. Januar 2023: Mehr als 70 Artikel verfasste eine KI für die US-Seite CNET. Einige Monate nach Beginn des Projekts entdeckte Futurism allerdings, dass sich in mehrere der Texte grobe Fehler eingeschlichen hatten. Außerdem ähnelten Textabschnitte offenbar so sehr den Artikeln anderer Seiten, dass bei einem menschlichen Autor der Ruf nach einem Plagiat laut geworden wäre.

CNET kündigte daraufhin an, die Artikel sorgfältig auf ihre inhaltliche Richtigkeit untersuchen zu wollen. Mittlerweile hat so man bei 41 der 77 veröffentlichten Artikel Änderungen vorgenommen. Auf fachliche Änderungen wurde dabei am Ende des Textes mit einer Korrektur-Anmerkung aufmerksam gemacht. Texte mit plagiierten Inhalten ergänzte man um den Hinweis: Wir haben Formulierungen ersetzt, die nicht gänzlich originell waren.

In einem Statement äußerte sich CNET-Chefredakteurin Connie Guglielmo zu dem Experiment. Sie glaube noch immer an das Potenzial von KI im Journalismus und wolle weiterhin offen für neue Ideen und Entwicklungen sein. CNET werde weiterhin erforschen und testen, wie KI eingesetzt werden kann, um unsere Teams bei ihrer Arbeit in den Bereichen Testen, Forschen und Entwickeln zu unterstützen.

Gleichzeitig geht sie auch auf die Fehler der vergangenen Monate ein und welche Lehren man daraus bei CNET gezogen habe. Man wolle künftig stärker darauf achten, dass die Texte keine inhaltlichen Fehler enthalten und Plagiate enthalten. Zudem werde man KI-formulierte Artikel für Leser sichtbarer kennzeichnen:

We changed the byline for articles compiled with the AI engine to "CNET Money" and moved the disclosure so you don't need to hover over the byline to see it. The disclosure clearly says the story was created in part with our AI engine. [...] To offer even more transparency, CNET started adding a note in AI-related stories written by our beat reporters letting readers know that we're a publisher using the tech we're writing about.

Wir haben die Kopfzeile für Artikel, die mit der KI-Engine erstellt wurden, in "CNET Money" geändert und die Auskunft verschoben, sodass Sie nicht mit dem Mauszeiger über die Kopfzeile fahren müssen, um ihn zu sehen. Der Hinweis besagt eindeutig, dass die Geschichte zum Teil mit unserer KI-Engine erstellt wurde. […] Um noch mehr Transparenz zu bieten, hat CNET damit begonnen, in KI-bezogenen Artikeln, die von unseren Reportern verfasst wurden, einen Hinweis einzufügen, der die Leser darüber informiert, dass wir ein Verlag sind, der die Technologie, über die wir schreiben, verwendet.

Währenddessen versucht sich KI nicht nur als Journalist, sondern auch als Jura-Student. Wie sie sich dabei schlägt, lest ihr im Artikel von Linh.


Originalmeldung vom 19. Januar 2023: Fast 80 Artikel hat eine KI seit November für die US-Webseite CNET geschrieben. Das Problem: Trotz nachträglicher Faktenprüfung durch einen menschlichen Redakteur enthalten einige der Texte grobe Fehler.

Bei CNET handelt es sich um eine der größten Technik-Webseiten der USA. Neben klassischen Tech-Themen behandelt die Webseite aber auch Gebiete wie Wellness, Kultur, Wissenschaft und Finanzen. Bei letzterem wagte man Ende vergangenen Jahres ein Experiment: Eine KI sollte einige der Artikel schreiben.

Den Fokus legte man dabei auf Themen, die wenig kreative Arbeit erforderten und ein einfaches Ziel hatten: Finanzbegriffe zu erklären. Der erste dieser KI-basierten Artikel erschien mit dem Titel What is a Credit Card Charge-Off am 11. November 2022.

Eine KI als Autor - das Netz ist entsetzt

Ans Licht gebracht wurde der künstliche Autor vom SEO-Experten Gael Breton. Auf Twitter wies er darauf hin, dass für Google optimierte Inhalte bei CNET nun auch von einer KI geschrieben werden. Die Artikel erschienen erst unter dem Autorennamen CNET Money Staff, später nur noch unter CNET Money. Begibt man sich zur Autorenseite, findet sich dort die kurze Information:

Dieser Artikel wurde von einer KI-Engine unterstützt und von unserer Redaktion geprüft, mit Fakten versehen und redigiert.

Eine offizielle Ankündigung, dass man KI als Autor einsetzen wolle, gab es von CNET nicht. In Verbindung mit der versteckten Information über den KI-Verfasser vermutet Futurism, dass man das Projekt erst einmal aus der Öffentlichkeit heraushalten wollte.

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Twitter, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Twitter angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Twitter-Inhalt

Zu Recht, wie sich herausstellte. Denn nach Bekanntwerden sorgte der künstliche Autor von CNET für ein lautes, überwiegend negatives Echo. So bezeichnete Luke Plunkett von Kotaku das Ganze als Awful, Mike Murphy von IBM Research fasste den Vorgang zusammen mit den Worten: Inhalte von Robotern (Text-Generator) für Roboter (SEO-Crawler).

Ein weiteres, häufig genanntes Bedenken: Durch einen solchen KI-Autor könnten künftig vor allem viele Berufseinsteiger und junge Autoren auf Probleme stoßen. Denn gerade deren Texte würde eine KI schneller und günstiger schreiben. Langfristig würde sich die Branche damit aber vor allem selbst schaden.

CNET reagierte mit einem Beitrag auf der eigenen Webseite, ging dabei aber nur wenig auf die geäußerten Bedenken ein. Vor allem erklärte man die eigenen Gedanken zu dem Experiment und lobte sich für die Transparenz, die man dabei gezeigt habe. Die KI könnte bei einem Erfolg vor allem Autoren entlasten und es ihnen ermöglichen, sich auf kreative Artikel zu fokussieren. Außerdem seien möglicherweise mehr und bessere Artikel für die Webseite möglich.

Besser zu sein als ein echter Autor kann diese KI noch nicht von sich behaupten. Sörens Selbsttest zeigt: Der Künstlichen Intelligenz fehlt es an Empathie.

CNETs KI-Artikel enthalten grobe Fehler

Zumindest einen herben Rückschlag musste das Experiment aber schon jetzt einstecken. Denn die Artikel, die CNET von einer KI verfassen ließ, enthielten trotz menschlicher Redaktion teils gravierende Fehler. Futurism fand in einer Untersuchung der Texte gleich mehrere Stellen, an denen die KI fachlich falsch lag.

So behauptet die KI in einem der aufgeführten Beispiele:

Bei Hypotheken, Autokrediten und Privatkrediten werden die Zinsen in der Regel in einfachen Zahlen berechnet.

Wenn Sie zum Beispiel einen Autokredit über 25.000 US-Dollar aufnehmen und Ihr Zinssatz 4 Prozent beträgt, zahlen Sie pro Jahr 1.000 US-Dollar an Zinsen.

Diese Rechnung stimmt nicht. Denn der Zinssatz wird stets nur auf den verbleibenden unbezahlten Betrag aufgeschlagen. Sobald ein Teil der 25.000 US-Dollar bezahlt wurde, fällt der Zinsbetrag kleiner als 1.000 US-Dollar aus und schrumpft mit jeder weiteren Überweisung.

In dem Artikel führt Futurism noch zwei weitere Beispiel auf, bei denen die KI in ihren Aussagen ebenso grundlegend falsch lag.

CNET hat mittlerweile reagiert. Die von der KI verfassten Artikel sind noch immer abrufbar, werden nun aber mit einem Infokasten eingeleitet. In diesem weist CNET darauf hin, dass man den Artikel aktuell auf seine Richtigkeit überprüfe. Bei gefundenen Fehlern werde man diese ausbessern und darauf im Artikel hinweisen.

Indessen versucht sich Künstliche Intelligenz nicht nur als Autor, sondern auch als Anwalt. In den USA sind solche Robot Lawyer schon jetzt Realität.

Wie steht ihr zu der Sache? Glaubt ihr an das Potenzial einer KI als Autor? Oder sollten Artikel von Menschen für Menschen geschrieben sein? Schreibt uns eure Meinung gerne in die Kommentare!

zu den Kommentaren (39)

Kommentare(34)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.