mark-zuckerberg
mark-zuckerberg Facebook-Gründer Mark Zuckerberg

Keine Frage. Die Facebook-Geschichte des Magazins der Süddeutschen Zeitung ist ein echter Scoop. Zwei Redakteure haben mit zahlreichen ehemaligen und derzeitigen Mitarbeiterinnen und Mitarbeitern von Arvato gesprochen, die für Facebook arbeiten. Sie prüfen Inhalte und entscheiden, ob sie auf der Plattform sein dürfen oder nicht. Eigentlich wurde ihnen von ihrem Arbeitgeber und Vorgesetzten verboten, mit Journalisten zu sprechen. Alles unterliegt einer strengen Geheimhaltung, Verschwiegenheitserklärungen wurden unterschrieben. Sie haben es trotzdem getan. Zum ersten Mal bekommen wir einen Eindruck davon, was derzeit 600 Mitarbeiter alleine in berlin tun, um ungewünschte oder rechtswidrige Facebook-Inhalte zu entfernen. Löschen oder nicht, das ist die Frage, die die Arvato-Mitarbeiter bis zu 2000 Mal am Tag beantworten müssen.

„Oh Gott. Du bist erwachsen. Das ist ekelhaft.“

Für die Beantwortung dieser Frage gibt es ein strenges Regularium aus der Facebook-Zentrale. Doch auch mit Hilfe dieses Instruments ist es nicht einfach zu entscheiden, ob ein Beitrag bleiben kann oder nicht. Hier einige Beispiele, von denen das SZ-Magazin berichtet:

  • Gelöscht werden muss unter anderem:
    Das Bild einer Frau, die sich in der Öffentlichkeit übergibt – dazu der Kommentar: „Oh Gott. Du bist erwachsen. Das ist ekelhaft.“ 
Begründung: Der Kommentar wird als Mobbing gewertet, und zwar durch die Äußerung von Ekel vor Körperfunktionen.
    Ein unkommentiertes Foto eines Mädchens neben dem Foto eines Schimpansen mit ähnlichem Gesichtsausdruck.
    Begründung: Herabwürdigende Bildbearbeitung: eindeutiger Vergleich eines Menschen mit einem Tier.
    Ein Video, in dem ein Mensch gequält wird, aber nur wenn darunter ein Kommentar steht wie: „Mir gefällt es, zu sehen, wie viel Schmerz er da erleidet.“
  • Nicht gelöscht werden soll etwa:
    Das Video einer Abtreibung. Es sei denn, es enthält Nacktaufnahmen.
    Das Bild eines Erhängten mit dem Kommentar: „Hängt diesen Hurensohn.“ 
Das gilt als erlaubte Befürwortung der Todesstrafe; verboten wäre es nur, wenn spezifisch auf eine „geschützte Personengruppe“ eingegangen würde, also dort etwa stünde: „Hängt diesen Schwulen auf.“
    Bilder einer extrem magersüchtigen Frau ohne Kommentar. Das Zeigen von selbstverletzendem Verhalten ohne Kontext ist gestattet.

An diesen Beispielen sieht man, wie schwierig es ist, den Einzelfall nach einem starren Regularium zu beurteilen. Moralphilosophische Fragen, ethische Fragen oder journalistische Fragen lassen sich nur schwer in ein Regelwerk kleiden. Handelt es sich bei Folterszenen um ein wichtiges Zeitdokument oder einfach nur um eine Gewaltdarstellung. Das sind Fragen, die auch bei Journalisten nicht immer zu einer eindeutigen Antwort führen.

Die Arvato-Mitarbeiter sind trotzdem angehalten, die Vorschriften exakt einzuhalten. Selber denken sei laut der Geschichte im SZ-Magazin nicht erwünscht. Aber in vielen Fällen ist das natürlich Auslegungssache und nicht nach Schema F behandelbar. Facebook selber tut sehr viel, um das eigene Veröffentlichungsgesetz geheim zu halten, das „aus Hunderten kleinen Regeln besteht“. Man fürchte, dass sich sonst Nutzer Wege ausdenken, die Regeln geschickt zu umschiffen.

Belastungsstörungen wie bei einem Soldaten

In weiten Teilen der SZ-Geschichte wird geschildert, welchen psychischen Belastungen die Mitarbeiter des Löschkommandos bei der Bertelsmanntochter Arvato ausgesetzt sind. Denn täglich werden offenbar Folter, Gewalt, Hass, brutaler Porno bis hin zu Kindersex oder Sex mit Tieren – also so ziemlich alle Abgründe, auf die Menschen kommen können bei Facebook hochgeladen. Sich den ganzen Tag mit diesem widerlichen Unrat zu beschäftigen, bringt die Mitarbeiter an die Belastungsgrenzen und darüber hinaus. Hilfe vom Arbeitgeber scheint es nicht zu geben. Weder von Arvato noch von Facebook. Man sei auf sich alleine gestellt, heißt es. Die Folge können bis hin zu posttraumatischen Belastungsstörungen gehen – wie bei einem Soldaten, der aus einem Kriegsgebiet zurück nach Hause kommt.

Zum ersten Mal dürfen wir dank der Kollegen von der SZ einen Blick hinter die gut bewachten Kulissen von Facebook werfen und können uns jetzt besser vorstellen, wie die Plattform mit gemeldeten Inhalten umgeht. Das ist verdienstvoll. Die Arbeitsbedingungen der Löschabteilungen bei Arvato sind sicherlich in vielen Fällen beklagenswert, die Bezahlung ist nicht besonders gut. Die Autoren der Story, Hannes Grassegger und Till Krause, sehen hier den einen skandalösen Aspekt ihrer Gesichte. Den anderen Skandal sehen sie im oft nicht nachvollziehbaren Umgang von Facebook mit unerwünschten Beiträgen und fordern mehr Transparenz.

Menschen kann man nicht einfach löschen

Das ist alles nachvollziehbar und ehrenwert. Facebook kreiert inzwischen eine Art virtueller Öffentlichkeit und muss dafür Verantwortung übernehmen. Doch als Leser stellt man sich vor allem eine andere Frage: Wie kann es sein, dass eine Plattform wie Facebook weltweit mehr als 100.000 Menschen braucht, die nichts anderes tun, als Einträge zu löschen, die mit widerwärtiger Darstellung von Folter, allen möglichen Arten von Gewalt und anderen Unerträglichkeiten zu tun haben? Woher kommen diese Inhalte? In dieser Masse? Es ist nicht Facebook, das diese Inhalte erstellt. Es sind die Nutzer. Vielleicht jemand, der jeden Morgen neben uns in der U-Bahn sitzt. Vielleicht ein Nachbar oder der Kollege. Facebook hofft, dass den Löschjob in Zukunft ein Algorithmus übernimmt. Die Menschen, die diesen Schmutz produzieren oder an anderen Stellen des Internets konsumieren, wird auch ein Algorithmus nicht löschen können.

Bild: Namensnennung Bestimmte Rechte vorbehalten von TechCrunch