Microsoft Tay : Microsoft Tay bleibt offline, bis eine Schwachstelle nicht mehr ausgenutzt werden kann. (Bildquelle: Microsoft) Microsoft Tay bleibt offline, bis eine Schwachstelle nicht mehr ausgenutzt werden kann. (Bildquelle: Microsoft)

Update: Etwas überraschend hat Microsoft die KI Tay gestern wieder aktiviert. Auf Twitter versendete Tay dann plötzlich Nachrichten wie »Sie sind zu schnell, bitte machen Sie eine Pause« und unterhielt sich teilweise mit sich selbst. Außerdem konnten die über 200.000 Follower von Tay lesen, das die KI gerade »vor Polizisten« Marihuana rauche.

Auch einige Beleidigungen, die aber nicht direkt an jemanden gerichtet waren, fehlten nicht. Laut Microsoft handelte es sich um eine unbeabsichtigte Aktivierung von Tay während interner Tests. Inzwischen ist Tay wieder online. Viel besser scheint es ihr noch nicht zu gehen.

Originalmeldung: Peter Lee, Corporate Vice President bei Microsoft Research, hat in einem Blogbeitrag um Verzeihung für die unabsichtlich verletzenden und beleidigenden Tweets der Chat-KI Tay gebeten. Diese Nachrichten hätten nicht dem entsprochen, wofür die Forscher stehen und wofür Tay entwickelt wurde. Die KI werde nun so lange offline bleiben, bis die Forscher zuversichtlich sind, dass mit bösartigen Inhalten besser umgegangen werden kann.

Tay sei aber nicht einfach unbedacht veröffentlicht worden und sei deswegen leicht angreifbar gewesen. In China wird seit 2014 eine frühere Version namens Xiaolce als Chatbot schon von 40 Millionen Menschen genutzt und für die Entwicklung von Tay verwendet. Außerdem seien für Tay viele Filter entwickelt und ausführliche Studien mit unterschiedlichen Nutzergruppen durchgeführt worden. Stress-Tests sollten sicherstellen, dass Tay für ein positives Erlebnis sorgt und erst, nachdem die Forscher mit dem Verhalten der KI zufrieden waren, sollte ein größeres Publikum Zugriff erhalten.

Twitter sei die logische Wahl gewesen. Die erweiterten Kontakte sollten sowohl den Forschern neue Erkenntnisse liefern als auch die KI verbessern. Das dieser Versuch aus dem Ruder lief, ist laut Lee die Folge einer »koordinierten Attacke« gewisser Leute, die eine Schwachstelle der KI ausgenutzt haben. Die Forscher hätten viele Missbrauchsmöglichkeiten vorhergesehen, doch einen Angriff dieser Art dabei übersehen. Darum habe Tay »wild unpassende und verwerfliche Wörter und Bilder« getweetet. Die Forscher übernehmen die volle Verantwortung dafür, diese Möglichkeit nicht rechtzeitig bedacht zu haben und haben durch diese »Lektion« gelernt.

Inzwischen arbeiten die Forscher daran, die Schwachstelle zu schließen. KI sei nicht nur eine technische, sondern auch eine soziale Herausforderung und man könne nicht alle menschlichen Missbrauchsmöglichkeiten vorhersagen, sondern müsse aus Fehlern lernen. Für die Entwicklung einer KI sei es aber wichtig, dass sie mit vielen Menschen und dabei auch oft öffentlich Kontakt hat. Jeder dieser Schritte müsse aber vorsichtig gemacht werden und dürfe Leute nicht verletzen.

Quelle: Microsoft