facebook-auge
Augen auf, Facebook: Social Networks müssen in Zukunft genauer hinsehen

„Hate Speech“ und „Fake News“ sind die Geister unserer digitalen Zeit. Der Fall Anas M., dessen Selfie mit der Bundeskanzlerin von unbekannten, mutmaßlich rechtsextremen Personen auf Facebook missbraucht wurde, um dem Syrer eine Täterschaft oder eine Beteiligung an Terroranschlägen zu unterstellen, hat dabei wieder einmal die Probleme im Umgang mit Hasskommentaren in sozialen Netzwerken gezeigt.

Hosting-Provider wie Facebook müssen nach deutschem Recht nicht die von ihnen vorgehaltenen Informationen überwachen oder aktiv nach Hasskommentaren suchen, sondern haften nur ab Kenntnis von dem rechtswidrigen Post (§ 10 Telemediengesetz) und auch dann werden Inhalte nach Ansicht der Betroffenen nur zögerlich gelöscht.

Das Bundeskabinett hat nun einen Gesetzentwurf zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken mit dem herrlich bürokratischen Namen Netzwerkdurchsetzungsgesetz (NetzDG) beschlossen. Damit sollen soziale Netzwerke zu einer zügigeren und umfassenderen Bearbeitung von Beschwerden, insbesondere über Hasskriminalität, angehalten werden. Wir stellen den Entwurf vor.

Wen betrifft das Gesetz?

Betroffen sind „Telemediendiensteanbieter, die mit Gewinnerzielungsabsicht Plattformen im Internet betreiben, die es Nutzern ermöglichen, beliebige Inhalte mit anderen Nutzern auszutauschen, zu teilen oder der Öffentlichkeit zugänglich zu machen. Das Gesetz gilt danach insbesondere für soziale Netzwerke wie Facebook, Twitter oder Instagram.

Journalistisch-redaktionell gestaltete Plattformen sollen nicht hierunter fallen ebenso wenig wie thematisch eingegrenzte Netzwerke, also zum Beispiel berufliche Netzwerke wie Xing oder LinkedIn. Wichtig ist: Das NetzDG gilt nur für soziale Netzwerke, die mindestens zwei Millionen registrierte Nutzer im Inland haben. Kleinere soziale Netzwerke sollen nicht die aufwändigen Prüfpflichten zu tragen haben. Die umfassenden gesetzlichen Anforderungen können nach Auffassung des Gesetzgebers nur von sozialen Netzwerken mit entsprechenden Ressourcen und Kapazitäten bewältigt werden.

Welche Pflichten haben die Plattformanbieter?

Der Entwurf verlangt vom Anbieter die vierteljährliche Erstellung und Veröffentlichung eines deutschsprachigen Berichts über den Umgang mit Beschwerden von Nutzern über rechtswidrige Inhalte auf den Plattformen. Er muss insbesondere Angaben darüber enthalten, welche Anstrengungen der Anbieter des sozialen Netzwerks unternimmt, um Hetze und Hasskommentare auf seinen Plattformen zu unterbinden.

Ferner muss der Anbieter ein wirksames und transparentes Verfahren für den Umgang mit Beschwerden der Nutzer vorhalten. Dabei muss das Netzwerk im Wesentlichen drei Schritte beachten:

  • Es muss zunächst unverzüglich von der Beschwerde Kenntnis nehmen und prüfen, ob der Inhalt rechtswidrig und zu entfernen ist.
  • Offensichtlich rechtswidrige Inhalte muss die Plattform innerhalb von 24 Stunden nach Eingang der Beschwerde löschen.
  • Bei sonstigen Inhalten, die nicht offensichtlich rechtswidrig sind, hat eine Löschung innerhalb von sieben Tagen zu erfolgen. Ein Inhalt ist offensichtlich rechtswidrig, wenn zur Feststellung der Strafbarkeit keine vertiefte Prüfung erforderlich ist.

Die entfernten Inhalte sind zu Beweiszwecken zu sichern und im Inland zu speichern. Zudem muss der Anbieter sowohl den Betroffenen als auch den Nutzer, dessen Inhalte gelöscht wurden, über die Entscheidung informieren und sie ihnen gegenüber begründen.

Nachdem der erste Entwurf des Gesetzes noch proaktive Maßnahmen der Netzwerke gegen die erneute Speicherung des rechtswidrigen Inhalts forderte, ist dies im Regierungsentwurf gestrichen worden. Allerdings müssen die Netzwerke nach wie vor sämtliche auf ihren Plattformen befindliche Kopien des rechtswidrigen Inhalts unverzüglich entfernen oder sperren. Auch dies steht im Konflikt mit dem deutschen Telemediengesetz und der E-Commerce-Richtlinie.

Rechtswidrige Inhalte

Rechtswidrige Inhalte sind nach dem NetzDG bestimmte Straftatbestände aus dem Strafgesetzbuch, unter anderem Beleidigung, üble Nachrede, Verleumdung sowie die öffentliche Aufforderung zu Straftaten und Volksverhetzung. Die abschließende Aufzählung der Strafnormen verdeutlicht, dass die Löschpflichten nicht bei jeglichen Verletzungen des geltenden Rechts, sondern nur bei solchen mit Strafcharakter bestehen.

Nicht immer sind dies jedoch die problematischen Delikte. Diskriminierungen, Mobbing oder andere rassistische Ehrverletzungen, die möglicherweise keinen Straftatbestand verwirklichen, können für den Betroffenen ebenso schwer wiegen. Diese wären von der Löschpflicht nicht umfasst. Andererseits fehlen in dem Katalog Strafnormen wie die Verletzung von Privatgeheimnissen (§ 203 StGB).

Welche Bußgelder drohen den Plattformen?

Bei vorsätzlicher oder fahrlässiger Nichteinhaltung der Berichtspflicht und bei Zuwiderhandlung gegen die Pflicht, ein wirksames Beschwerdemanagement vorzuhalten, drohen den sozialen Netzwerken erhebliche Bußgelder bis zu fünf Millionen Euro.

Zustellungsbevollmächtigter

Wenn es zu Streitfällen kam, haben soziale Netzwerke bislang häufig auf ihren Sitz im Ausland verwiesen. Zur besseren Rechtsdurchsetzung verpflichtet das NetzDG die Anbieter nun – unabhängig von ihrem Sitz –, für Zustellungen in Bußgeldverfahren und in zivilgerichtlichen Verfahren einen inländischen Zustellungsbevollmächtigten zu bestellen.

Auskunftsanspruch gegen die Betreiber sozialer Netzwerke

Auch das ist neu und man überliest es fast im Entwurf: Jeder, der in seinem allgemeinen Persönlichkeitsrecht verletzt wird, kann von dem Betreiber des sozialen Netzwerks Auskunft über den Klarnamen des Verletzers verlangen. Die Herausgabe der Daten durch das soziale Netzwerk muss allerdings durch das zuständige Gericht angeordnet werden.

Auswirkungen für die Praxis

Für die Anbieter sozialer Netzwerke in Deutschland hat das NetzDG erhebliche praktische Auswirkungen. Die bisherigen Bemühungen im Rahmen der Selbstverpflichtung der Unternehmen genügen dem Gesetzgeber nicht mehr. Ab Inkrafttreten des Gesetzes ist jedem Nutzer ein transparenter Weg der Beschwerdemeldung anzubieten. Dies bedeutet einerseits einen erheblichen technischen Aufwand. Andererseits müssen die Anbieter angesichts der recht kurzen Bearbeitungszeit zusätzliches Personal vorhalten, das zumindest juristische Grundkenntnisse aufweisen muss, um eine adäquate Prüfung der Beschwerden zu gewährleisten und um im Zweifel die sprachlichen Feinheiten der Inhalte prüfen zu können.

Der Entwurf des NetzDG wirkt in Teilen noch unausgegoren. Dennoch: Der Untergang der Meinungsfreiheit – wie von vielen befürchtet – ist er nicht. Plattformen müssen rechtswidrige Inhalte schon nach geltendem Recht löschen (und werden auch nach dem neuen NetzDG mit den Behörden kooperieren), nur gibt der Gesetzgeber nun ein spezielles Verfahren dafür vor.

Bild: Getty Images / Dan Kitwood