PlattformenNicht Inhalte regulieren, sondern Prozesse

Wir sollten nicht versuchen, das Unmögliche zu regulieren. Statt einzelne illegale und „schädliche“ Inhalte zu entfernen, müssen wir bei den Empfehlungsalgorithmen der Plattformen ansetzen. Ein Vorschlag für eine vernünftige Netzregulierung.

Ein geregelter Fluss durch eine grüne Ebene
Der Mensch regelt seit Jahrtausenden den Lauf von Flüssen. Lassen sich auch Inhalte auf Online-Plattformen in geordnete Bahnen lenken? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Ivan Bandura

Mathias Vermeulen forscht zur Regulierung von Inhalten, Datenschutz und Desinformation im Netz. Er arbeitet als unabhängiger Consultant und berät die Mozilla-Stiftung. Davor arbeitete er für die niederländische Abgeordnete Marietje Schaake im Europaparlament.

Viele Vorschläge zur Bekämpfung von Problemen wie Hasskriminalität im Netz und Urheberrechtsverletzungen laufen Gefahr, unbeabsichtigt mehr Schaden anzurichten als die Probleme, die sie zu bekämpfen versuchen.

Selbstregulierungsansätze haben sich als wenig überzeugend erwiesen. Doch auch harte Gesetzesvorschriften erweisen sich oft als zu einschränkend und als zu großer Eingriff in Grundrechte, zugleich sind sie oft technisch schwer umsetzbar.

Daher prüfen die europäischen Regierungen zunehmend Formen der Koregulierung. Darunter versteht man den Ansatz, das Erreichen von durch den Gesetzgeber definierten Zielen den Handelnden selbst zu übertragen, etwa Firmen und Branchenverbänden, Sozialpartnern oder NGOs.

Solche Ansätze sind teils vielversprechend, haben aber das Potenzial, die Meinungsfreiheit zu beeinträchtigen – innerhalb der EU und weltweit.

Zwei Faustregeln für Regulierung

Eine intelligente Regulierung von Internetplattformen läuft deshalb auf zwei Faustregeln hinaus.

Regel eins: Die Regierungen müssen die Integrität der zentralen technischen Infrastruktur des Internets wahren. Sie müssen sicherstellen, dass wir die Netzneutralität und die Verschlüsselung erhalten, die es uns ermöglichen, auf sichere Weise miteinander zu kommunizieren.

Regel zwei: Regierungen sollten keine Angst davor haben, einzugreifen und kommerzielle Nutzer dieser Infrastruktur zu zwingen, den universellen Standards der Menschenrechte gerecht zu werden.

Wir können eine gute Regulierung erreichen, wenn wir zu den Grundwerten der liberalen Demokratie zurückkehren: die Rechtsstaatlichkeit sowohl online als auch offline aufrechtzuerhalten; einzugreifen, wenn der freie Markt nicht mehr funktioniert; sicherzustellen, dass die Menschenrechte gewahrt werden.

Angesichts der sozialen und politischen Rechte, die auf dem Spiel stehen, sollte jede staatliche Intervention zur Regulierung von Online-Inhalten besonderen Vorsichtsmaßnahmen unterliegen.

Jeder Regulierungsvorschlag muss (1) ein Minimum an Einmischung bedeuten und die Grundsätze der Notwendigkeit und Verhältnismäßigkeit beachten, (2) auf einem umfassenden Konsultationsprozess mit allen relevanten Interessengruppen beruhen, (3) sowie die marktbeherrschende Stellung der großen etablierten Unternehmen nicht stärken, indem Hindernisse für neue Marktteilnehmer geschaffen werden.

Fokus auf innere Prozesse

Wenn wir die besten Elemente aus einigen der oben skizzierten Prinzipien auswählen, entsteht ein Steuerungsansatz, der sich eher auf die Regulierung von Unternehmensprozessen als auf Inhalte konzentriert.

Der Ansatz erfordert von Plattformen, Prozesse zu entwickeln, die einen systematischen Ansatz zur Kontrolle und Minimierung klar definierter Risiken gewährleisten und von den oben beschriebenen Vorsichtsmaßnahmen ausgehen.

Der Fokus auf Prüfung von Prozessen würde dazu beitragen, einige der Wurzeln zu behandeln, die zu illegalen und schädlichen Inhalten führen, ohne die Rechte des Einzelnen und die offene Architektur des Internets unangemessen zu beeinträchtigen.

Dieser Ansatz soll zur Schmälerung der unverhältnismäßigen Aufmerksamkeit beitragen, die bisher der Entfernung einzelner Inhalte gewidmet wird. Wir sollten nicht versuchen, das Unmögliche zu regulieren, das heißt das Entfernen einzelner Inhalte, die illegal sind oder undefinierten Schaden anrichten.

Stattdessen müssen wir uns auf die Regulierung des Verhaltens von plattformspezifischen Verstärkern solcher Inhalte konzentrieren: Empfehlungsalgorithmen, Suchfunktionen, Trends, Autocomplete-Funktionen und andere Mechanismen, die bestimmen, was wir als nächstes sehen.

Solche Mechanismen stellen aktive Designentscheidungen dar, über die Plattformen direkte Kontrolle haben und für die sie letztendlich haftbar gemacht werden können. Die Regulierung dieser Elemente ist eine verhältnismäßigere Antwort als die Regulierung von Inhalten als solches.

Kein Recht auf „algorithmische Verstärkung“

Die Wissenschaftlerin Renee DiResta hat die Unterschiede zwischen beiden Ansätzen kurz und bündig zusammengefasst: „Freie Meinungsäußerung bedeutet nicht, dass man freie Hand hat. Es gibt kein Recht auf algorithmische Verstärkung.“

Der Europäische Gerichtshof für Menschenrechte dürfte dieser Position beipflichten. Das Gericht urteilte 2015, dass der Umfang und das Ausmaß der Verbreitung selbst von erlaubter Meinungsäußerung eingeschränkt werden darf.

Der von mir vorgeschlagene Ansatz räumt Plattformen weiter das Recht ein, selbst zu bestimmen, wie sie Inhalte auf ihren Plattformen fördern, herabstufen, demonetarisieren oder welche anderen Maßnahmen sie ergreifen. Digitale Dienstleister dürften sich bei der Identifizierung von Gefahren und der Entwicklung technischer Lösungen als effektiver erweisen als eine zentrale Regulierungsbehörde.

Aber dieses Vorrecht darf nicht länger frei von Kontrollen bleiben: Eine unabhängige Regulierungsbehörde sollte in der Lage sein, die Wirksamkeit von Maßnahmen anhand einer Reihe von gesetzlichen Zielen zu beurteilen, die über übermäßig vereinfachte Benchmarks wie Löschraten und Reaktionszeiten hinausgehen.

Transparenzpflichten der Plattformen

Außerdem kann dieser Regulierungsrahmen nur unter einer Bedingung funktionieren: Er erfordert völlige Transparenz von den Plattformen gegenüber der Regulierungsbehörde. Die Behörde sollte befugt sein, jede Art von detaillierten Informationen zu verlangen, die für die Erfüllung ihrer Aufsichtsaufgaben erforderlich sind.

Die Behörde sollte befugt sein, Geldbußen oder Strafmaßnahmen zu verhängen, wenn die Plattform diese Informationen nicht rechtzeitig liefert. Der Bericht der französischen Regierung vom Mai 2019 liefert einen guten ersten Schritt in die richtige Richtung.

Wie Peter Pomerantsev in einem aktuellen Beitrag schreibt:

Wählen wir den richtigen Regulierungsansatz, dann wird er dazu beitragen, Rechte und Demokratie in einem digitalen Zeitalter zu sichern; wählen wir den falschen und er wird die Probleme verschärfen, die er zu lösen versucht. Damit würden wir das Spiel autoritärer Regime spielen, die darauf aus sind, Zensur durchzusetzen und den freien Fluss von Information über Grenzen hinweg einzudämmen.

Ein klar definierter, prinzipienbasierter Ansatz, der mit dem oben diskutierten Ansatz der Koregulierung in Einklang steht, würde sicherstellen, dass Plattformen die Eindämmung problematischer Inhalte wie Hasskriminalität und Desinformation als wichtiges Ziel behandeln, aber in einer Weise, die die technische Architektur der Plattformen, ihre Ressourcen sowie die Reichweite und das Risiko widerspiegelt, das solche Inhalte mit sich bringen.

Dieser Beitrag erschien zuerst in englischer Sprache als Schlusskapitel des Papers „Online content: To regulate or not to regulate – is that the question?“ bei der NGO Association for Progressive Communications.

3 Ergänzungen

  1. Vielen Dank für Ihren Artikel, eine Lösung weniger Unfug im Netz zu erhalten sehe ich darin, auf Anonymität im Internet zu verzichten. D.h. ein gesunder Umgang mit vollständigen Personendaten sollte ermöglicht und genutzt werden.

    1. liebe/r O. ,

      das ist ein absurder Vorschlag, kaum umsetzbar, ohne den zugang zum netz einzuschränken (was in garkeinem fall wünschenswert sein kann) und darüber hinaus, ist es jetzt schon schwer genug im internet tatsächlich anonym zu bleiben.
      #ip-tracing #LandolfLadig
      wer es momentan schafft der demaskierung vollständig zu entgehen, der wird auch in jedem, wie auch immer gearteten Modell, dass deinen Vorstellungen entspricht, unter dem radar bleiben. das erleben wir ja bereits. sprich, die unliebsamen Meinungen verschwinden nicht aus den Köpfen sondern werden verdrängt in kleinere, exklusive Netzwerke in denen man dann unter gleichgesinnten bleibt.
      ich würde den Artikel an deiner stelle noch ein mal durchgehen und dann merkst du unter Umständen, dass des Pudels Kern hier nicht die Bekämpfung von Symptomen, sondern die wurzel der probleme ist, die es zu packen gilt.

    2. Sorry, das halte ich für den völlig falschen Ansatz. Das Recht auf Anonymität gehört zu den schützenswerten Grundrechten.

      Auch was den Artikel betrifft, bin ich etwas weniger euphorisch. Es stehen zwar gute und wichtige Ansätze drin, aber es wird nach wie vor den Facebooks dieser Welt der Zwang auferlegt, die Schere anzusetzen wenn gepostete Inhalte als unbotmäßig angesehen werden könnten(!). Auch wenn ich z. B. der in der Überschrift enthaltenen These „kein Recht auf „algorithmische Verstärkung““ zustimme, finde ich dennoch die dann folgenden Aussagen in der Summe problematisch – zumindest ließe sich über den richtigen Weg heftig streiten. Extreme Meinungsäußerungen begeistern mich auch nicht; wenn sie rechtlich nicht angreifbar sind, müssen sie aber m. E. ertragen werden. Die Delegation staatlicher Aufsicht an private Unternehmen ist sicherlich der falsche Weg.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.