Facebook - Kindesmisshandlung und Extremismus – Reichweite um jeden Preis?

Die Moderationspraxis von Facebook sieht sich mit neuer Kritik konfrontiert: Ein Undercover-Journalist des britischen Senders Channel 4 berichtet von teils sehr fragwürdigen Löschregeln.

Facebooks Löschregeln wirken laut einem undercover als Facebook-Moderator arbeitenden Journalisten in der Praxis deutlich zynischer als vielfach beteuert. Facebooks Löschregeln wirken laut einem undercover als Facebook-Moderator arbeitenden Journalisten in der Praxis deutlich zynischer als vielfach beteuert.

Die mangelnde Transparenz und Effizienz von Facebooks Inhaltsmoderation kritisieren Experten bereits seit Längerem. Wie absurd und teilweise geradezu zynisch die Löschregeln und Moderationspraxis allerdings tatsächlich ausfallen können, zeigt jetzt die Analyse eines Journalisten, der für den britischen Fernsehsender Channel 4 eine Undercover-Reportage produzierte. (via Heise)

In der Dokumentation enthüllt der Reporter, der zu Recherchezwecken als Facebook-Moderator (beim größten damit beauftragten externen Unternehmen in Großbritannien, samt entsprechender Schulung für Neueinsteiger) arbeitete, welche Inhalte die Moderatoren entsprechend ihrer Anweisungen sperren oder löschen - und welche nicht.

Einige Ergebnisse der Reportage im Überblick:

  • Gewaltverherrlichende Inhalte (unter anderem Videos, in denen Kinder geschlagen und misshandelt werden) bleiben auf der Plattform und sollen lediglich als »verstörend« (schränkt die Nutzergruppe ein, die das Video zu sehen bekommt) markiert werden, solange der Text dazu den Inhalt nicht verherrlicht - auch wenn Nutzer die Videos zuvor als unangemessen markiert und für die Löschung vorgeschlagen haben.
  • Die internen Richtlinien verbieten zwar abwertende Beiträge gegen »geschützte ethnische oder religiöse Gruppen«, erlauben aber entsprechende Beiträge zu generellen Gruppen wie etwa Flüchtlingen - Äußerungen wie »Scheiß Moslem« sind also verboten, »Scheiß muslimischer Einwanderer« hingegen würde nicht gelöscht.
  • Moderatoren wurden angewiesen, Inhalte von Usern zu ignorieren, deren Alter sichtbar unter Facebooks Altersgrenze von 13 Jahren liegt, solange der User nicht selbst angibt, unter 13 Jahre alt zu sein - auch wenn die Inhalte Selbstverletzungen zeigen, soll so getan werden als sei der Nutzer erwachsen.
  • Tausende Meldungen von Nutzern blieben tagelang unbearbeitet - auch jenseits der von Facebook ausgelobten 24-Stunden-Grenze, während derer eine Meldung geprüft werden soll.
  • Seiten extremistischer Vereinigungen erhalten eine besondere Behandlung, wenn sie eine hohe Anzahl an Followern haben und dürfen das eigentliche Limit an Beschwerden überziehen. Sie fallen damit in die gleiche Kategorie wie Seiten von Regierungsorganisationen oder großen Medien.

GameStar Plus: Datenschutz in Spielen - Ein Datenschatz zum Zugreifen

Extreme Inhalte erzeugen viel Reaktionen

Überhaupt scheinen Reichweite und möglichst viel User-Interaktion das stete Ziel zu sein, auch bei der Inhaltsmoderation. Entsprechend gibt es das wohl ehemals »Shielded Review« und jetzt »Cross Check« genannte Verfahren: Den Richtlinien von Facebook zufolge müssen Seiten entfernt werden, wenn sie fünf Mal oder öfter gegen die Nutzungsregeln verstoßen.

Besonders beliebte Seiten mit vielen Followern können aber nicht von dem externen Moderations-Team gelöscht werden, sondern werden einer separaten Prüfung durch Facebook-Mitarbeiter unterzogen, wie etwa im Fall der Seite von Britain First (rechtsextreme Partei in UK). Das tut Facebook einem Insider zufolge deshalb, weil diese Seiten »jede Menge Follower haben und deshalb viel Umsatz für Facebook generieren«.

Facebook selbst dementierte allerdings und erklärte, bei Britain First sei es nicht um Geld gegangen, sondern vielmehr um »politische Rede«, bei der man besondere Vorsicht walten lassen müsse. Dieser Argumentation folgte auch Mark Zuckerberg in einem Interview mit Recode. Dort erklärte er, dass er es nicht für sinnvoll halte, Holocaust-Leugnung auf Facebook zu löschen:

"Ich bin Jude und es gibt einige Leute, die leugnen, dass der Holocaust passiert ist. Ich finde das sehr beleidigend. Aber am Ende des Tages glaube ich nicht, dass unsere Plattform das löschen sollte, weil ich denke, dass es Dinge gibt, die verschiedene Leute falsch sehen. Ich denke nicht, dass sie es bewusst falsch sehen [...]. Es ist schwierig, die Intention zu hinterfragen und zu verstehen. Ich glaube einfach, dass - so schlimm diese Beispiele auch sein mögen - die Realität ist, dass auch ich Sachen falsch einschätze, wenn ich öffentlich rede. [...] Ich denke nicht, dass es richtig ist zu sagen, wir nehmen jemanden von unserer Plattform, wenn sie Sachen falsch einschätzen, auch mehrfach."

In Reaktion auf die Kritik, die Zuckerberg nach dieser Aussage entgegen schlug, erklärte der Facebook-Chef, er finde die Leugnung des Holocausts zutiefst anstößig und er habe niemals die Intention der Leute verteidigen wollen, die den Holocaust leugnen.

Texturen in Spielen - 3D-Grafik im Wandel der Zeit Video starten 6:55 Texturen in Spielen - 3D-Grafik im Wandel der Zeit

zu den Kommentaren (111)

Kommentare(88)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.