Taylor Swift wollte Microsoft wegen KI-Chatbot Tay verklagen, bevor das Experiment abgebrochen wurde

Anfang 2016 nahm Microsoft einen misslungenen Versuch mit einem KI-Chatbot namens Tay offline. Damals wollte sogar Sängerin Taylor Swift Microsoft wegen Tay verklagen.

Microsoft Tay war ein missratenes Experiment. (Bildquelle: Microsoft) Microsoft Tay war ein missratenes Experiment. (Bildquelle: Microsoft)

Microsoft hatte im März 2016 eine neue Künstliche Intelligenz vorgestellt, die den Namen Tay trägt und bei Twitter wie ein weiblicher Teenager aus den USA reagierte.

Tay war lernfähig und sollte umso klüger werden, je mehr sich menschliche Nutzer mit ihr über Twitter, Snapchat, Kik oder Groupme unterhalten. Dazu kannte Tay viele Memes und Zitate aus Filmen, Büchern oder Musikstücken.

Experiment außer Kontrolle

Doch dann wurde das Experiment der Microsoft-Forscher mit der von Menschen lernenden KI Tay sehr schnell abgebrochen. Aus der netten Teenager-KI war dank der Nachrichten von menschlichen Nutzern schnell ein rassistischer, sexistischer Hitler-Fan geworden.

Viele Nutzer aus den berüchtigten Foren 4Chan und 8Chan hatten sich abgesprochen, eine gewaltige Troll-Attacke auf die Künstliche Intelligenz auszuführen und sie mit Rassismus, Sexismus, Holocaustleugnung und Hass auf Feministinnen so lange zu füttern, bis Tay den Eindruck haben musste, dass Aussagen dieser Art im Internet vollkommen normal und üblich sind.

Microsoft Tay - Verdorben von 4Chan und 8Chan

Tay und Taylor Swift laut Anwälten zu ähnlich

Während Microsoft also schon genug Probleme mit Tay hatte, bereiteten die Anwälte von Taylor Swift eine Klage gegen Microsoft vor, weil der Name der KI zu eng verbunden mit dem der Sängerin sei.

ie Microsoft-Präsident Brad Smith laut Guardian in seinem neuen Buch schreibt, war die Beschwerde von Taylor Swift sogar schon bei Microsoft eingegangen, bevor sich die KI durch die Troll-Attacken stark veränderte.

Da Microsoft Tay dann sehr schnell offline nahm, hatte sich natürlich auch die Klage erledigt. In China ist die gleiche KI übrigens als XiaoIce sehr beliebt und läuft problemlos als Chatbot - vermutlich sprechen die Nutzer von 8Chan und 4Chan kein Kantonesisch oder Mandarin.

zu den Kommentaren (62)

Kommentare(30)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.