Apple hört mit: Mitarbeiter mussten pro Tag bis zu 1.000 Siri-Sprachaufnahmen auswerten

Apple hat die Auswertung von Sprachaufnahmen von Siri unter anderem an Mitarbeiter in Irland ausgelagert. Diese mussten pro Tag bis zu 1.000 Samples abhören.

Apples Siri zeichnet ähnlich wie Amazons Alexa und der Google Assistant Gespräche auf, die Mitarbeiter dann laut Konzern zur Qualitätssicherung teilweise mithören. Apples Siri zeichnet ähnlich wie Amazons Alexa und der Google Assistant Gespräche auf, die Mitarbeiter dann laut Konzern zur Qualitätssicherung teilweise mithören.

Update, 26. September 2019: Apple hat offenbar mehrere hundert Mitarbeiter in Irland beschäftigt, die Sprachaufnahmen von Siri auswerten sollten. Diese Angestellten mussten dem Irish Examiner zufolge (via Golem) in einer Schicht bis zu 1.000 Sprachsamples auswerten - das ergibt mehr als 300.000 abgehörte Aufnahmen pro Tag.

Die Mitarbeiter bewerteten die Samples, bei denen es sich größtenteils um Siri-Kommandos, aber in Einzelfällen auch um private Informationen handelte, anhand verschiedener Kriterien: Hier ging es unter anderem darum, ob Nutzer die Sprachsoftware versehentlich aktiviert hatten oder ob Siri bei der gestellten Frage weiterhelfen konnte oder nicht.

Nachdem Apple die Auswertung der Sprachaufnahmen eingestellt hat, sollen Gerüchten zufolge mehr als 300 dieser Angestellten ihren Job verloren haben. Apple und das zuständige Subunternehmen Globetech wollten sich zu den genauen Zahlen bisher nicht äußern.

Update, 02. August 2019: Nach weltweiten Protesten gegen Apples Praxis, Sprachaufnahmen von Siri durch eigene Mitarbeiter auswerten zu lassen, um die Software zu verbessern, hat das Unternehmen jetzt reagiert.

Gegenüber Techcrunch bekannte Apple sich zur Bedeutung der Nutzerprivatsphäre und kündigte an, man werde das monierte Programm zur Qualitätskontrolle vorerst weltweit einstellen.

Man wolle die Überprüfung von Siris Spracherkennung überarbeiten und Nutzern im Rahmen eines künftigen Software-Updates die Möglichkeit geben, selbst zu entscheiden, ob sie ihre Aufnahmen für die Qualitätsverbesserung zur Verfügung stellen möchten oder nicht.

Bis das Update erscheint, wird Apple keinerlei weitere Sprachaufnahmen auswerten.

Update, 30. Juli 2019: Nutzer von Apples iOS können offiziell nur verhindern, dass Mitarbeiter des Unternehmens per Siri aufgenommene Gespräche mithören, wenn sie die Sprachassistentin komplett deaktivieren. Mittlerweile gibt es aber einen Trick, mit dem sich die Software trotzdem weiter nutzen lässt, auch wenn man die Analyse der Gesprächsmitschnitte verhindern möchte.

Der Digitalforensiker Jan Kaiser veröffentlichte auf Twitter einen Link zu einem iOS-Konfigurationsprofil (via Golem):

Link zum Twitter-Inhalt

Wer das Profil auf Github mit dem iPhone oder iPad im Raw View herunterlädt und die Installation in den Einstellungen bestätigt, verhindert die Protokollierung von Siri-Befehlen und damit die (unerwünschte) Analyse von Gesprächsmitschnitten. Siri funktioniert dabei aber trotzdem wie gewohnt.

Originalmeldung, 29. Juli 2019: Apple betont in aktuellen Werbekampagnen gern, wie sehr dem Konzern der Schutz seiner Kundendaten am Herzen liegt. Da kommt ein aktueller Bericht des Guardian wohl eher ungelegen, demzufolge Apple-Mitarbeiter die Gespräche von Siri-Nutzern zur Qualitätssicherung mithören.

Wie Heise berichtet, hat der Guardian von einem anonymen Angestellten des Unternehmens erfahren, dass die Mitarbeiter einzelne Reaktionen Siris auf mitgeschnittene Gespräche bewerten sollen. Dabei prüfen sie vor allem um drei Punkte:

  • War die Aktivierung Siris durch den Nutzer beabsichtigt?
  • Handelt es sich bei dem Mitschnitt um eine Frage, die Siri beantwortet hat?
  • Hat Siri die Frage angemessen beantwortet?

Laut Apple selbst sind »weniger als ein Prozent der täglichen Siri-Aktivierungen« davon betroffen, dass Mitarbeiter sie abhören. Das dient dem Konzern zufolge der internen Qualitätssicherung: Um den Sprachassistenten verbessern zu können, müsse man wissen, wo und wann Ungenauigkeiten und Probleme im System auftreten.

Apple betont Vertraulichkeit der Daten

Siri ist unter anderem auf Apples Lautsprecher HomePod verfügbar. Siri ist unter anderem auf Apples Lautsprecher HomePod verfügbar.

Um Datenschutzbedenken zu zerstreuen erklärt Apple außerdem, dass die aufgezeichneten Daten nicht mit der zugehörigen Apple-ID verknüpft werden und Mitarbeiter sich strengen Vertraulichkeitsbestimmungen unterziehen müssen.

Trotzdem lassen sich die betroffenen Nutzer offenbar eindeutig identifizieren, weil Apple die Aufzeichnungen mit Metadaten wie Kontaktinformationen verbindet.

Außerdem weist Apple zwar in den Siri-Nutzungsbedingungen darauf hin, dass man Daten für die Qualitätssicherung von Siri sammele. Allerdings geht das Unternehmen nicht explizit darauf ein, dass es sich bei diesen Daten auch um Gesprächsmitschnitte handeln kann.

Die wiederum beinhalten laut dem Guardian durchaus intime Details: In einzelnen Gesprächen ging es um Geschäftsbeziehungen, Drogenhandel und körperliche Intimitäten.

Amazon bietet den eigenen Sprachassistenten Alexa unter anderem in Form der Echo-Dot-Geräte an. Amazon bietet den eigenen Sprachassistenten Alexa unter anderem in Form der Echo-Dot-Geräte an.

zu den Kommentaren (228)

Kommentare(156)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.