Kinderschutzmaßnahmen auf iPhones: Woher die große Aufregung kommt

Apple sorgt mit neuen Maßnahmen für den Kinderschutz auf iPhones für viel Wirbel. Wir klären, was genau das bedeutet und wieso es oft so kritisch gesehen wird.

von Nils Raettig,
11.08.2021 09:06 Uhr

Ein sehr sensibles Thema beschäftigt die Technikwelt grade in besonderem Maß, oder besser gesagt: Zwei sehr sensible Themen. Es geht um die Verhinderung und Strafverfolgung von Kindesmissbrauch auf der einen Seite und um den Umgang mit privaten Daten auf der anderen Seite.

Was ist passiert? Apple hat drei neue technische Maßnahmen angekündigt, die dem Schutz von Kindern dienen sollen. Die entsprechenden Software-Updates erscheinen im Laufe des Jahres vorerst nur in den USA mit den Betriebssystemen iOS 15, iPadOS 15, watchOS 8, und macOS Monterey.

Seitdem gibt es vor allem mit Blick auf den Datenschutz viel Kritik an den Neuerungen, wobei meist betont wird, dass das grundsätzliche Anliegen Apples nicht das Problem darstellt. Um diese Maßnahmen geht es genau:

1. Empfang und Versand von Nacktbildern

  • Betrifft nur Kinder-Konten (aktivierbar über die Familienfreigabe) und Apples Message-App

Es wird auf dem jeweiligen Gerät per maschinellem Lernen überprüft, ob es sich bei einem versendeten oder empfangenen Bild um ein Nackfoto handelt. Schlägt der KI-Algorithmus an, wird das Bild unkenntlich gemacht. Außerdem gibt es eine Warnmeldung sowie Hinweise auf mögliche Anlaufstellen zur Hilfesuche. Zu guter Letzt werden die Eltern über den Vorfall benachrichtigt, wenn das Bild trotz der Warnmeldung geöffnet wird und sofern das Kind zwölf Jahre alt oder jünger ist.

2. Suche nach kinderpornografischen Material

  • Betrifft nur Fotos (keine Videos), die man per iCloud speichern will

Vor dem Upload wird der digitale Fingerabdruck beziehungsweise Hash-Wert des Bildes auf dem jeweiligen Gerät mit den Hash-Werten einer Datenbank kinderpornografischen Materials abgeglichen. Die Datenbank stammt vom »National Center for Missing and Exploited Childern« (kurz NCMEC), wobei Apple angibt, die Hash-Werte von außen unlesbar zu machen. Wird eine nicht näher benannte Grenze von Treffern überschritten, folgt eine manuelle Überprüfung der betroffenen Bilder zur Untersuchung eines möglichen Fehlalarms. Erst danach wird der Account gegebenenfalls gesperrt und ein Bericht an das NCMEC gesendet.

3. Verbesserte Hilfestellung durch Siri und die Suche

Kommt es über die Sprachassistentin Siri oder die Suche zu Anfragen, die in Zusammenhang mit Kindesmissbrauch und Kinderpornografie stehen, sollen die entsprechenden Dienste warnend einschreiten beziehungsweise bessere Hilfestellung bieten als bisher.

Sorge vor dem Dammbruch

Die Kritik an den Maßnahmen hängt in den meisten Fällen mit einer möglichen Ausweitung der Technik zusammen. Wenn auf diese Weise nach kinderpornografischen Material bei iCloud-Bildern gescannt werden kann, dann ist genauso gut denkbar, dass auch andere Inhalte unabhängig von Apples Cloud-Dienst gesucht werden können und das weitere Firmen wie etwa Google nachziehen.

Richtet sich ein Staat beispielsweise gegen Homosexualität, könnten solche Mechanismen dabei helfen, Menschen mit dieser sexuellen Ausrichtung auszugrenzen und zu diskriminieren, so ein oft genanntes Beispiel.

Apple wehrt sich gegen die Vorwürfe: In einer mittlerweile veröffentlichen FAQ zu den neuen Maßnahmen gibt Apple an, dass man entsprechende Anfragen von Regierungen ablehnen werde. Außerdem sei der Scan-Prozess so designt, dass ausschließlich kinderpornografisches Material erkannt werden könne.

Gleichzeitig muss sich Apple jeweils an die lokalen Gesetze halten (was auch ein Grund dafür ist, dass die neuen Maßnahmen vorerst nur in den USA veröffentlicht werden). Fälle wie die jüngst im türkischen App-Store von Apple entfernte Dating-App »Hornet« für Homosexuelle zeigen, was das bedeuten kann.

Wie geht es jetzt weiter?

Nach aktuellem Stand ist davon auszugehen, dass Apple die Neuerungen wie geplant im Laufe des Jahres in den USA umsetzen wird. Eine Ausweitung auf andere Länder dürfte gleichzeitig wohl vor allem von rechtlichen Fragen abhängen.

Deutsche Apple-Kunden sind also vorerst nicht betroffen. Solange es keine Änderungen an den Maßnahmen gibt, können auch US-Kunden sie auf Wunsch umgehen, indem sie keinen Gebrauch der iCloud und der Familienfreigabe machen.

Keine Kommentarfunktion?
Da es sich wie eingangs beschrieben um ein sehr sensibles Thema handelt, lagern wir die Kommentare in unser Forum aus, wo uns eine bessere Moderation möglich ist.

Link zum Forenbeitrag