Zum Hauptinhalt springen

Das steht im Lösch-Handbuch von Facebook

Interne Schulungsunterlagen zeigen erstmals detailliert, wie Facebook-Mitarbeiter Inhalte prüfen und löschen.

Facebook-Mitarbeiter sollen Inhalte prüfen und löschen. Es geht um Themen wie Kindesmissbrauch, Erpressung, Mobbing und Tierquälerei. Foto: Dado Ruvic/ Reuters
Facebook-Mitarbeiter sollen Inhalte prüfen und löschen. Es geht um Themen wie Kindesmissbrauch, Erpressung, Mobbing und Tierquälerei. Foto: Dado Ruvic/ Reuters

Während das soziale Netzwerk Facebook unter Druck steht, beleidigende oder anderweitig illegale Inhalte zu löschen, ist nun erstmals ein Einblick in die internen Löschregeln des Unternehmens möglich. Redaktion Tamedia konnte 48 Dokumente einsehen, die dem britischen «Guardian» zugespielt wurden und zeigen, auf welcher Grundlage Facebook Inhalte löscht.

Es handelt sich um Schulungsunterlagen, Präsentationen und Diagramme mit Handlungsanweisungen. Auf Tausenden Seiten lernen die Mitarbeiter, wann sie Inhalte ignorieren, sperren oder an Strafverfolgungsbehörden weiterleiten sollen. Dabei geht es um Kindesmissbrauch, Erpressung, Mobbing, Gewaltdarstellungen und Tierquälerei.

Weil die Löschpraxis von Facebook bislang oft für unzureichend gehalten wird, will der deutsche Justizminister Heiko Maas (SPD) noch vor der Sommerpause ein Gesetz verabschiedet sehen, das sozialen Netzwerken Geldbussen androht, falls sie rechtswidrige Inhalte nicht löschen.

Live gestreamte Selbstmorde

Besonders die Darstellung von Suizidversuchen stellt Facebook den Unterlagen zufolge vor ein Dilemma: Facebook möchte Nutzern auch in Zukunft erlauben, solche Handlungen live zu streamen. «Nutzer posten selbstzerstörerische Inhalte als Hilfeschreie – diese zu entfernen könnte verhindern, dass sie gehört werden», heisst es. Man habe diese Richtlinien mit Experten entwickelt. Für die Sicherheit der Betroffenen sei es das Beste, wenn sie live mit ihren Zuschauern in Kontakt bleiben könnten. Die Aufnahmen würden deshalb erst entfernt, wenn es keine Möglichkeiten mehr gebe, der Person zu helfen.

Sind eine grosse Herausforderung: Live-Videos auf Facebook. Foto: Silas Stein/ Keystone
Sind eine grosse Herausforderung: Live-Videos auf Facebook. Foto: Silas Stein/ Keystone

Die Dokumente zeigen, dass sich der Konzern bemüht, das Problem in den Griff zu bekommen. Dennoch droht Facebook daran zu scheitern. Das liegt nicht an den Regeln selbst – die sind extrem komplex, aber grösstenteils einleuchtend. Es liegt vielmehr an den Arbeitsbedingungen, unter denen Angestellte bei Facebook und Drittfirmen diese Regeln in praktische Entscheidungen umsetzen müssen.

Eine Recherche des SZ-Magazins deckte im vergangenen Dezember auf, dass allein in Berlin 600 Menschen beim Dienstleister Arvato angestellt sind, die im Auftrag von Facebook Inhalte prüfen und löschen. Sie leiden unter ihren Arbeitsbedingungen, arbeiten für ein Gehalt knapp über dem Mindestlohn und erhalten wenig psychologische Unterstützung. Die wäre nötig, da viele der Mitarbeiter regelmässig Fotos und Videos von Folter, Mord oder Kindesmissbrauch sichten müssen.

Mitarbeiter sind verunsichert und verwirrt

Diese Content-Moderatoren sind auch mit Selbstverletzung oder den Folgen von Essstörungen konfrontiert. Nutzer posten Bilder von selbst zugefügten Wunden und ausgehungerten Körpern oder schreiben in Nachrichten und Posts darüber. Die Richtlinie für den Umgang mit solchen Inhalten ist vermeintlich klar: «Wir wollen diese Art von Inhalten nicht auf der Seite haben, da sie selbstverletzende Verhaltensweisen anderer Nutzer auslösen können», heisst es in einem Dokument.

Das gilt aber nur für Inhalte, die Essstörungen oder Selbstverletzung verherrlichen. Das kommentarlose Bild eines magersüchtigen Körpers wird nicht gelöscht. Nur im Zusammenhang mit einer Aufforderung, Anleitung oder gar Hilfestellung zu selbstschädigendem Verhalten verstösst ein Beitrag gegen Facebooks Richtlinien. In welche Kategorie ein Beitrag fällt, entscheiden die Moderatoren unter Zeitdruck.

Unangemessene Kommentare werden gesperrt.
Unangemessene Kommentare werden gesperrt.

Viele der Mitarbeiter sind offenbar unsicher, die Schulungsunterlagen nennen häufig gestellte Fragen. Eine lautet: «Ich bin mir nicht sicher, ob die Person wirklich unsere Hilfe braucht, was soll ich tun?» Die Antwort: «Wenn es nicht offensichtlich ist, dass sie Hilfe brauchen, ignoriere den Inhalt einfach.» Wer Zweifel habe, könne den Fall jederzeit mit einem Vorgesetzten diskutieren.

Zuckerberg verspricht 3000 neue Facebook-Kontrolleure

Die Dokumente legen nahe, dass die Angestellten der externen Dienstleister die Inhalte nur bis zu bestimmten «Eskalationsstufen» bearbeiten, dann an Facebook weiterreichen. Wenn Suizid nur in Hashtags auftaucht, die angekündigte Methode «nicht klar das Leben des Nutzers gefährdet» oder der Zeitraum unklar ist, solle man keine Nachricht an Facebook schreiben.

Auf Rückfragen der «Süddeutschen Zeitung» antwortete das Unternehmen nur, man nehme die «Sicherheit der Nutzer sehr ernst». Anfang Mai kündigte Mark Zuckerberg an, die Zahl der Facebook-Kontrolleure von 4500 auf 7500 zu erhöhen. Facebook machte keine Angaben, ob es sich wieder um externe Hilfskräfte handeln soll. Die Dokumente deuten jedoch darauf hin, dass Arvato seine Tätigkeit für Facebook ausweitet.

Dieser Artikel wurde automatisch aus unserem alten Redaktionssystem auf unsere neue Website importiert. Falls Sie auf Darstellungsfehler stossen, bitten wir um Verständnis und einen Hinweis: community-feedback@tamedia.ch