UN-Bericht zu Hate Speech

Staaten sollten regulieren, nicht Unternehmen

Ein neuer UN-Bericht des Beauftragten zu Meinungsfreiheit beschäftigt sich mit Hate Speech und den Pflichten, die Staaten und Unternehmen dabei zukommen. Staaten müssten eine eindeutige Gesetzeslage schaffen, statt die Verantwortung an Unternehmen abzugeben. Auch Deutschland wird im Bericht kritisiert.

Der UN-Sonderberichterstatter zu Menschenrechten David Kaye.
Hat einen Bericht zu Hate Speech vorgelegt: UN-Sonderberichterstatter David Kaye CC-BY 2.0 Maina Kiai

Bei den Vereinten Nationen stehen aktuell vermehrt digitale Themen auf dem Plan. Nach der Kritik neuer Technologien in Sozialsystemen in der vergangenen Woche hat der UN-Sonderberichterstatter zur Meinungsfreiheit David Kaye einen Bericht zum Umgang mit Hate Speech vorgestellt.

Der Bericht verweist auf den Internationalen Pakt über bürgerliche und politische Rechte (ICCPR), der Teil der Menschenrechte ist. Diesem zufolge müssten Staaten eingreifen, wenn die Meinungsfreiheit für die Äußerung von Hassrede missbraucht wird. Gleichzeitig müsse aber auch die Meinungsfreiheit gewahrt werden. Kaye merkt an, dass diese beiden Normen auf den ersten Blick widersprüchlich erscheinen, sich aber dennoch gut vereinbaren ließen.

Aus dem ICCPR ergeben sich drei klare Vorgaben für Einschränkungen der Meinungsfreiheit: Diese müssten eindeutig gesetzlich definiert werden, sich an den von internationalem Recht vorgegebenen Kategorien orientieren und verhältnismäßig sein. Einschränkungen müssten dafür mit Bedacht vorgenommen werden. Anhand dieser Vorgaben definiert Kaye in seinem Bericht Pflichten von Staaten und Empfehlungen an die betroffenen Techkonzerne.

Verpflichtungen für Staaten

Was die Gesetzmäßigkeit der Maßnahmen angeht, mahnt Kaye an, dass Staaten „ihre Definitionen von Hate Speech eng an den Standards der Internationalen Menschenrechte“ orientieren sollten. Die Gesetzeslage müsse außerdem eindeutig sein, um das Missbrauchsrisiko niedrig zu halten. Hier erwähnt Kaye explizit das deutsche Netzwerkdurchsetzungsgesetz (NetzDG) als Negativbeispiel. Er lobt zwar, dass deutsche Gesetzgeber sich „bemüht“ haben, allerdings sei das NetzDG „problematisch unscharf formuliert“. Es definiere grundlegende Begriffe wie Hass nicht ausreichend. In Kombination mit den harten vorgesehenen Strafen führe dies zu Problemen wie etwa Overblocking. Über diese Probleme mit dem NetzDG hatte netzpolitik.org in der Vergangenheit bereits umfangreich berichtet.

Kaye sieht eine generelle Tendenz von Staaten, den Umgang mit Hate Speech an die Internetplattformen auszulagern. Dies sei jedoch problematisch, da sich diese Unternehmen nicht an die Menschenrechte hielten. Zudem führe der damit verbundene Handlungsdruck fast automatisch zum Einsatz von so genannten Uploadfiltern, also Technologien, die Inhalte sperren noch bevor sie auf den Plattformen erscheinen. Dies ist für den Sonderberichterstatter problematisch, denn automatisierte Systeme seien immer fehleranfällig, wie auch netzpolitik.org im Zuge der EU-Urheberrechtsreform berichtet hat. Hinzu komme, dass der Zwang zur schnellen Löschung ordnungsgemäße Gerichtsverfahren verhindere und die Macht der Techkonzerne erweitere. Daher widersprächen Uploadfilter der Maßgabe der Verhältnismäßigkeit.

Der Berichterstatter merkt zudem kritisch an, dass manche Staaten Aussagen als Hate Speech definieren würden, die nicht unter die Definitionen des ICCPR fielen. So dürften Aussagen, die „Hass gegen das Regime“ beinhalten, nicht auf Basis der internationalen Menschenrechte verboten oder gelöscht werden.

Auch Tech-Konzerne sollen sich an Menschenrechten orientieren

Die großen Internetunternehmen hätten „massive Auswirkungen auf die Menschenrechte, vor allem an Orten, in denen sie die Hauptadresse für öffentliche und private Meinungsäußerung“ seien. Allerdings, so Kaye, würden sie schon lange versuchen, die Anwendung der Menschenrechte auf ihren Plattformen zu vermeiden. Dies sei „ein Fehler“, denn dadurch käme es sowohl zu Overblocking als auch zu zu großer Zurückhaltung, wie etwa am Beispiel von Facebooks mangelhafter Reaktion auf die Hetze gegen die Rohingya in Myanmar zu sehen war. Zwar hätten Unternehmen nicht dieselben Pflichten wie Staaten, aber ihr Einfluss führe dazu, dass sie sich den selben Fragen wie diese stellen müssten.

Kaye bekräftigt deshalb bestehende UN-Forderungen, die von den Unternehmen Maßnahmen zum Schutz der Menschenrechte verlangen. Diese sollten unter anderem eine regelmäßige Überprüfung ihrer getroffenen Maßnahmen zur Bekämpfung von Hate Speech umfassen. Zudem müssten die Unternehmen Prozesse schaffen, mit denen beim Löschen von Inhalten die notwendige Sorgfalt gewahrt werden könne und Einspruchsmöglichkeiten bei fälschlich gelöschten Beiträgen anbieten. Außerdem plädiert er dafür, dass die Unternehmen ihre Vorgaben bezüglich Hate Speech klar und transparent dokumentieren.

Kaye wendet sich auch klar gegen den Einsatz von Algorithmen zur Erkennung von Hate Speech, da diese „notorisch schlecht im Auswerten von Kontexten“ seien. Beiträge sollten stattdessen von Menschen evaluiert werden. Auch sollten verschiedene, gestaffelte Maßnahmen angewandt werden. Neben dem Entfernen des Inhalts oder einer Accountsperre könnte so beispielsweise auch die Verbreitung der Inhalte eingeschränkt werden oder diese de-monetarisiert werden. Letzteren Ansatz verfolgt etwa YouTube bereits, wo keine Werbung auf entsprechend markierten Videos geschaltet wird.

Damit die von Unternehmen getroffenen Maßnahmen verhältnismäßig bleiben, empfiehlt Kaye einen Rahmen, wie ihn die Juristin Evelyn Aswad vorgeschlagen hat. Demnach sollten Unternehmen ihre Werkzeuge gegen Hassrede evaluieren und jene mit der geringsten Einschränkung der freien Meinungsäußerung identifizieren. Zudem müssten die Maßnahmen daraufhin überprüft werden, ob sie im Rahmen der Abwägung von Hate Speech und freier Meinungsäußerung zielführend sind.

2 Ergänzungen
  1. Die Gesetze gegen Hate Speech werden meistens genutzt, um gegen missliebige, vor allem mainstream-konservative Meinungen zu unterdrücken. Netzpolitik.org sollte sich für volle Meinungsfreiheit einsetzen.

  2. Wenn sich der Gesetzgeber auf einheitliche Bestimmungen für Soziale Medien mit massiven Regulationseinfluss auf gesellschaftliche Prozesse und Individuen, also Nutzer*innen im Netz, einigen könnte wäre das ein positiver kurzfristiger Schritt.
    Auf längere Sicht ist das Problem jedoch etwas radikaler anzugehen, aus meiner Sicht. Die Durchsetzung aufklärerischer Freiheiten wie Meinungsfreiheiten werden doch über den wachsenden Einfluss der Informationskonzerne massiv kapitalisiert und monetarisiert und wirken Ihnen subversiv entgegen. Und kann man ihnen da Unrecht tun? Sie handeln ja äußerst effektiv nach der Profitlogik des Marktes, der das Individuum zusehends von Informationen seines eigenen Verhaltens entfremdet und enteignet. Hate Speeches erregen Aufmerksamkeit (positive oder negative ist irrelevant) und produzieren damit Daten, die rückwirkend als Informationsressourcen dienen. Es existiert also ein eindeutiges unmoralisches Interesse an Hate Speeches, denn sie sind profitabel – auch wenn sich die Öffentlichkeit für kurze Zeit zu erregen scheint. Ändert sich nichts, so werden diese wahrscheinlich zusehends normalisiert.
    Was also tun? Mir fallen da zwei Ansätze ein, die ja sogar diskutiert werden: Erstens könnten öffentliche Plattformen etabliert werden, die einer öffentlichen Kontrolle unterliegen. In einer globalisierten Welt unterlägen diese natürlich weiterhin der Logik des Marktes, allerdings wäre der Legitimationsanspruch ungleich höher über direkt demokratisch wirkende Regulationsinstanzen. Oder zweitens, man könnte doch tatsächlich über eine Vergesellschaftung und Demokratisierung der Informationskonzerne überlegen, deren Einfluss bereits größer ist als viele Staaten. Ich rede hier nicht von Verstaatlichung, sondern einer basisdemokratischen Verfassung der Wirtschaftsordnung, die den Menschen und Natur dient. Man hätte auf einmal Kontrolle über eigene Daten, undemokratische Bewegungen stießen an Grenzen, Profit stünde nicht im Zentrum der Ordnung.
    Man wird wohl noch träumen dürfen…

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.