ChatGPT kann Texte schreiben, programmieren und fotorealistische Aufnahmen generieren – aber bei zwei verblüffend einfachen Aufgaben versagt die generative KI regelmäßig.
Ihr könnt mit ChatGPT neuerdings Bilder generieren, die dem Stil den japanischen Animestudios Ghibli täuschend ähnlich sehen. Aber hieran scheitert der Chatbot fast immer:
- Generiere eine Gruppe von Uhren, die 12.03 Uhr zeigt.
- Generiere ein Bild einer Person, die mit der linken Hand schreibt.
Warum passiert das? Der renommierte Philosoph und Kognitionswissenschaftler Ned Block erklärt: Die Fehler sind kein Zufall oder eine kleine Panne, sondern tief in der Funktionsweise von KI-Modellen verankert.
ChatGPT bevorzugt Rechtshänder und die Uhrzeit 10.10 Uhr
Im Interview mit dem YouTuber Robinson Erhardt erläutert der Wissenschaftler, dass ChatGPT bevorzugt das Bild einer Uhr generiert, die 10 nach 10 zeigt. Außerdem habe Block die KI nur unter größten Anstrengungen dazu gebracht, ein Bild von einem Linkshänder zu generieren.
Link zum YouTube-Inhalt
Der Grund dafür liegt im Training der Large-Language-Models. Die werden auf riesigen Datenmengen trainiert und lernen aus den Millionen von Beispielen, Muster zu erkennen.
Die reproduzieren sie, wenn ihr eine Eingabe macht.
Und genau hier liegt das Problem mit den Uhren und den Linkshändern:
- Uhren auf Werbebildern zeigen fast immer 10 nach 10, weil das symmetrisch und ästhetisch ansprechend aussieht. Also
lernt
die KI: Uhren sehen so aus. - Die meisten Menschen sind Rechtshänder. Also findet die KI viel mehr Bilder von schreibenden Rechtshändern als Linkshändern.
KI versteht die Bedeutung von Uhrzeiten oder Linkshändigkeit nicht, sie zählt nur Wahrscheinlichkeiten. Deshalb ist es schwer, sie zu überreden
, eine Ausnahme zu machen.
Darum ist das wichtig für uns
Na gut, dann generiert ihr eben keine Bilder von Uhren, die 12.03 Uhr zeigen, aber das grundlegende Problem liegt tiefer.
So wie die derzeitigen generativen KI-Modelle angelegt sind, können sie nur so gut sein wie die Daten, mit denen sie trainiert wurden. Das führt zu sogenannten Biases, also Vorurteilen, die schon in den Trainingsdaten stecken. Eine KI könnte etwa sexistische Klischees reproduzieren.
Ein denkbares Beispiel wäre Waschmittelwerbung. Hier werden eher Frauen gezeigt. Das kann eine KI, die auf solchen Bildern trainiert wurde, dazu veranlassen, Frauen mit Hausarbeit zu verknüpfen.
Dieses Problem gehen Firmen wie OpenAI mit nachträglicher Verbesserung der Ausgaben an, etwa durch Reinforcment Learning. Hier wird die Ausgabe der KI bewertet und dem System gezeigt, dass etwa klischeebehaftete Ausgaben in Zukunft verhindert.
Die Bevorzugung von Rechtshändern und der Uhrzeit 10:10 Uhr ist damit aber nicht wegzukriegen und das, obwohl das Problem laut Block bekannt ist:
Alle bei OpenAI wissen das und sie konnten das nicht lösen.
Das hat folgende Gründe:
- Es ist zu kompliziert, einen Bias zu beheben: Für eine Analoguhr etwa gibt es mindestens 720 Möglichkeiten, die Zeit darzustellen, was einfach zu viele sind, um die KI dahingehend zu verfeinern.
- Manche Biases sind vielleicht nicht relevant genug, um sie zu beheben.
Tatsache bleibt, dass wir durch die Architektur der neuronalen Netze, auf denen heutige generative KI basiert, nicht wissen können, welche schwer nachvollziehbaren Muster KI-Modelle während ihres Trainings gelernt haben. So werden die KI-Modelle, die wir heute benutzen, immer viele kleine Vorurteile reproduzieren, derer wir uns vielleicht gar nicht bewusst sind.
Oder hättet ihr gedacht, dass ChatGPT Rechtshänder um 10.10 Uhr am liebsten mag?
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.