facebook-algorithmus

Die Diskussion um Hassreden, Gewalt und Pornografie auf Facebook reißt nicht ab. Erst am vergangenen Freitag hat Bundesjustizminister Heiko Maas (SPD) das sogenannte Netzwerkdurchsetzungsgesetz im Bundestag eingebracht, das soziale Plattformen dazu zwingen soll, strafbare Inhalte konsequenter zu entfernen. Kritiker warnen vor Zensur durch private Unternehmen, wenn diese entscheiden, was von der Meinungsfreiheit gedeckt ist.

Nun hat die britische Zeitung „The Guardian“ in einer Reihe von Artikeln Auszüge aus Dokumenten veröffentlicht, die zeigen, wie weit Facebook schon jetzt eingreift – auf teilweise fragwürdiger Grundlage.

Die Berichterstattung des „Guardian“ fußt auf mehr als 100 internen Unterlagen, zu denen Handbücher, Schulungsunterlagen, Präsentationen und Diagramme gehören. Auf Tausenden Seiten wird dort festgelegt, wann die Mitarbeiter Inhalte der knapp zwei Milliarden Facebook-Nutzer ignorieren, abmahnen, sperren oder an die Polizei weiterleiten sollen.

Trump ist tabu, Normalbürger müssen sich arrangieren

Einige Punkte sind eindeutig definiert. So gehören sogenannte Rache-Pornos, bei denen Ex-Partner explizites Bild- oder Videomaterial ihrer Verflossenen ins Internet stellen, um diese zu erniedrigen, klar zu den untersagten Inhalten. Kunstwerke, die sexuelle Handlungen darstellen, sind dagegen nicht immer untersagt – nur wenn sie digital sind, nicht von Hand hergestellt.

Andere Bereiche sind ebenfalls widersprüchlich. Gelöscht werden muss beispielsweise die Aussage: „Jemand sollte Trump erschießen.“ Stehen bleiben dürfe dagegen: „Um das Genick einer Schlampe zu brechen, stelle sicher, dass Du den Druck auf die Mitte ihres Halses ausübst.“

Der Unterschied hierbei sei, so Facebook, dass US-Präsident Donald Trump ein Staatsoberhaupt sei und damit besonderen Schutz genieße, während die zweite Bemerkung allgemeiner Natur und daher nicht ernst zu nehmen sei. Auch müsse berücksichtigt werden, dass im Internet oft aggressiver formuliert werde als im direkten zwischenmenschlichen Umgang.

Auch Videos und Fotos, die Gewalt gegen Kinder oder Tiere zeigen oder sogar den Tod einer Person, müssen nicht immer gelöscht werden. Damit wolle man dafür sorgen, dass das betreffende Kind „identifiziert und gerettet werden kann“, heißt es dem „Guardian“ zufolge in den Leitlinien. Ähnliches gelte für Gewalt. „Videos, die einen gewaltsamen Tod zeigen, sind verstörend, können aber auch das Bewusstsein schärfen.“

Daher wolle Facebook auch keine Live-Videos von Selbstverletzungen oder gar der eigenen Tötung verbieten. Man wolle nicht „Leute, die leiden“, zensieren oder bestrafen, heißt es in den Unterlagen. Das Material werde aber beseitigt, „wenn es nicht länger die Möglichkeit gibt, der Person zu helfen“.

„Facebook ist zu schnell zu groß geworden“

Zurzeit arbeiten rund 4.500 sogenannte Moderatoren für Facebook, um das Netzwerk von extremen Inhalten frei zu halten. Ihnen bleibt nicht viel Zeit, um die Inhalte zu prüfen. Um genau zu sein: Sie haben oft „nur zehn Sekunden“, wie der „Guardian“ schreibt. Alleine die Zahl der Meldungen von Fake Accounts – also Nutzerkonten von Personen, die gar nicht real existieren – beläuft sich auf über 6,5 Millionen in der Woche.

Demnächst soll die Zahl der Moderatoren um 3.000 erhöht werden, kündigte das Unternehmen Anfang Mai an. Doch vorerst gilt, was ein namentlich nicht genannter Mitarbeiter dem „Guardian“ sagte: „Facebook schafft es nicht, die Kontrolle über die Inhalte zu bewahren. Es ist zu schnell zu groß geworden.“

Monika Bickert, Leiterin des weltweiten Policy Managements, sagte der Zeitung dagegen: „Facebook ist eine neue Art von Firma. Es ist kein traditionelles Technikunternehmen. Es ist kein traditionelles Medienunternehmen. Wir entwickeln Technologie, und wir fühlen uns verantwortlich dafür, wie diese benutzt wird.“ Aber, so Bickert weiter: „Wir verfassen nicht die Nachrichten, die Leute auf der Plattform lesen sollen.“

Dieser Text ist zuerst auf Welt.de erschienen.

Bild: Facebook