KI ist seit Jahren eines der wichtigsten und am meisten diskutierten Themen überhaupt. Für die einen ist es eine der mächtigsten Erfindungen aller Zeiten, für andere nur eine fehleranfällige Möglichkeit, Arbeitsplätze abzubauen. Interessante Einblicke gibt es in einem Artikel über KI-Arbeiter.
KI-Arbeiter trauen den eigenen Chatbots nicht
Der Guardian hat kürzlich einen Artikel veröffentlicht, in dem mehrere dieser KI-Arbeiter zu Wort kommen. Dabei handelt es sich um Personen, die Chatbots testen und dafür sorgen sollen, dass die Antworten richtiger und »menschlicher« wirken.
0:49
Claude Opus 4.5: Anthropic stellt neues KI-Modell vor und macht Google und OpenAI Konkurrenz
Solche Arbeiten werden oft über Plattformen wie Amazon Mechanical Turk (MTurk) angeboten und erledigt. Dabei handelt es sich um Plattformen, auf der Unternehmen Aufgaben einstellen können, für die menschliche Intelligenz erfordert wird.
Die Aufgaben reichen vom Beschriften von Bildern, Kategorisieren von Daten und Inhaltsmoderation bis hin zum Überprüfen von Antworten, die KI-Chatbots generiert haben. Die meisten Arbeiter werden dabei kaum geschult und auch die Einstiegshürde ist ziemlich niedrig.
Wie anfällig dieses System ist, erkennen einige dieser Arbeiter selbst, darunter etwa Krista Pawloski, die ihre Tochter beispielsweise keine KI-Chatbots nutzen lässt und auch anderen Personen in ihrem Umfeld davon abrät. Die Antworten wären einfach nicht verlässlich genug, würden aber genau diesen Anschein machen.
Es kommen auch weitere Arbeiter in dem Artikel zu Wort, die KI nicht wirklich vertrauensvoll gegenüberstehen. Gerade bei Gesundheitsfragen seien viele schlicht überfordert, die KI generiert aber trotzdem Antworten, ob diese nun stimmen oder nicht.
Bei einigen scheint zudem das Gefühl vorzuherrschen, dass Kritik oder Meldungen von falschen Antworten überhaupt nicht integriert werden. Letztlich ging es darum, möglichst schnell möglichst viele Kunden zu gewinnen. Die Überprüfung ist hingegen langwierig und teuer.
Lieber falsche Antworten als gar keine: Interessant sind zudem die Erkenntnisse einer Studie von NewsGuard von Anfang September. Darin wurde herausgefunden, dass noch im August 2024 KI-Chatbots etwas weniger als ein Drittel der Anfragen schlicht nicht beantworten konnten.
Dieser Wert ist in nur einem Jahr auf null Prozent gefallen. Chatbots scheinen nicht mehr zugeben zu können, dass sie eine Antwort nicht kennen oder es möglicherweise gar keine gibt. Dadurch steigt die Verbreitung von Missinformationen natürlich auch an.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.