Großbritannien wird sich demnächst nicht nur von Europa und dem Rest der Welt abnabeln, wenn in wenigen Wochen der Brexit (vielleicht) über die Bühne geht. Die Insel könnte auch eine Vorreiterrolle bei der Plattformregulierung einnehmen, folgt die britische Regierung den weitreichenden Empfehlungen eines parlamentarischen Ausschusses. Damit könnte sich das Land, das Massenüberwachung, vorinstallierten Porno-Filtern oder Staatstrojanern nicht sonderlich kritisch gegenübersteht, noch weiter isolieren – oder eine Vorbildwirkung für andere Länder entfalten, im Guten wie im Schlechten.
Die Forderungen des Parlaments haben es in sich. Sie bilden weite Teile der derzeitigen Debatte ab und zeigen konkrete Wege auf, wie demokratische Gesellschaften mit dominanten sozialen Netzwerken, algorithmischen Black Boxen und Manipulationen von Nutzern oder gar ganzen Wahlgängen umgehen sollen: Anbieter wie Facebook könnten künftig für „schädliche Inhalte“ haftbar gemacht werden, die Nutzer posten; sie sollten ihre Sicherheitsmechanismen und Algorithmen gegenüber Aufsichtsbehörden offenlegen; aus Rohdaten abgeleitete Informationen sollten genauso geschützt werden wie personenbezogene Daten; und übermächtige IT-Konzerne könnten sogar ganz zerschlagen werden, wenn sie sich zu einem Monopol entwickeln.
Pulverfass Brexit
Aus dem Nichts kommen diese in der letzten Woche vorgestellten Vorschläge nicht. Tatsächlich sind sie untrennbar mit der denkbar knapp ausgegangenen Volksabstimmung über den britischen EU-Austritt verbunden. Bei der kam es sowohl off- als auch online massiv zu gezielter Desinformation, dunklen Geldflüssen und intransparenten Seilschaften – insbesondere im Lager der Brexit-Befürworter. Viele zweifeln deshalb grundsätzlich die Legitimität des Resultats des Referendums an. Um diesen Vorwürfen auf den Grund zu gehen, richtete das britische Unterhaus schließlich eine eigene Kommission ein.
18 Monate lang hatten Abgeordnete des Ausschusses für Digitales, Kultur, Medien und Sport das giftige Ökosystem aus Desinformation, Meinungsmanipulation, Wahlbeeinflussung und Datenmissbrauch unter die Lupe genommen. Neuen Zündstoff erhielt die Untersuchung nach dem Bekanntwerden des Datenskandals rund um Facebook und Cambridge Analytica. Aufsehenerregende Aussagen des Whistleblowers Christopher Wylie zeigten fragwürdige Verflechtungen zwischen der EU-Austrittskampagne und Datenanalysefirmen auf, die Spuren reichten vom Putinschen Russland bis in den US-Präsidentschaftswahlkampf von Donald Trump. Herausgekommen ist nun ein über 100 Seiten starkes Papier mit greifbaren Forderungen an Premierministerin Theresa May. Inhaltlich deckt es sich weitgehend mit dem Zwischenbericht, über den wir im letzten Sommer ausführlich berichteten.
Ob die konservative Regierung die Vorschläge der mehrheitlich ebenfalls konservativen Abgeordneten umsetzen wird, steht in den Sternen – schon allein, weil sie mit dem nahenden Brexit hoffnungslos überfordert ist und dies wohl auf absehbare Zeit bleiben wird. Und auch, weil führende Brexit-Befürworter wie Michael Gove oder Stephen Parkinson mittlerweile hohe Regierungsämter bekleiden. Beide spielten eine wichtige Rolle in der „Vote Leave“-Kampagne. Diese hatte die kanadische Datenfirma AggregateIQ (AIQ) beauftragt, Wähler gezielt mittels Micro-Targeting anzusprechen – mit von Facebook abgezogenen Informationen über die jeweiligen Menschen, die in Profile gegossen wurden. Weil all dies halb bis gänzlich illegal war, hat Facebook das mit der Cambridge-Analytica-Mutter SCL Group undurchsichtig verbandelte Unternehmen inzwischen suspendiert. Doch da war das Kind schon längst in den Brunnen gefallen.
„Frontalangriff aufs Internet“ lebt weiter
Ganz abwegig ist eine zumindest teilweise Umsetzung der Empfehlungen des Ausschusses allerdings nicht, selbst wenn der britische Ex-Vizepremier Nick Clegg, ein Intimkenner der britischen Innenpolitik, mittlerweile zum Chef-Lobbyisten Facebooks bestellt wurde. So zogen die Konservativen mit einem Manifest in die letzte Wahl, das sich als „Frontalangriff aufs Internet“ bezeichnen lässt. Darin forderten die letztlich siegreichen Tories unter anderem, „schädliche Inhalte“ aus dem Netz zu fegen, um das Vereinigte Königreich zum „sichersten Platz online“ zu machen. „Schädliche Inhalte“ können natürlich alles mögliche sein, die Spannbreite reicht vom entblößten Nippel bis zum Enthauptungsvideo.
Bei einer reinen Insellösung blieb es dabei nicht: Auf die europäische Ebene schaffte es etwa der Vorschlag, diesen Löschansatz auf „terroristische Propaganda“ im Netz auszuweiten. Den brisanten Verordnungsentwurf, der die Meinungs- und Informationsfreiheit im Internet spürbar einschränken könnte, verhandelt derzeit das EU-Parlament – ausgerechnet unter der Federführung eines konservativen Briten.
Nun wäre es unfair, den EU-Gesetzentwurf allein dem Vereinigten Königreich anzulasten. Schließlich erhielt der Plan tatkräftige Unterstützung aus Deutschland und Frankreich. Und just auf verhältnismäßig neue gesetzliche Regelungen – die ersten Versuche, Plattformen in die Pflicht zu nehmen – dieser beiden Länder bezieht sich der parlamentarische Bericht, namentlich auf das deutsche Netzwerkdurchsetzungsgesetz (NetzDG) sowie auf das französische Gesetz gegen Desinformation in Wahlkampfzeiten.
Insbesondere das NetzDG hätte Anbieter wie Facebook dazu gebracht, es nicht bei Lippenbekenntnissen zu belassen: „Als ein Resultat dieses Gesetzes arbeitet nun einer von sechs Facebook-Moderatoren in Deutschland“, heißt es in dem Bericht. Dies sei ein Beleg dafür, dass solche Gesetze, verknüpft mit hohen Geldstrafen bei etwaigen Verstößen, funktionieren würden.
Soziale Netzwerke sind keine „neutralen“ Vermittler
Doch an dieser Stelle wollen die britischen Abgeordneten nicht stehen bleiben und fordern von ihrer Regierung, Nägel mit Köpfen zu machen. Facebook, Twitter & Co. dürften sich nicht mehr hinter der vorgeschobenen Behauptung verstecken, lediglich neutrale Plattformen zu sein, um sich der Haftung zu entziehen. Stattdessen brauche es eine neue Kategorie für solche IT-Unternehmen, die irgendwo zwischen „Plattform“ und „Herausgeber“ liegen soll. „Dieser Ansatz würde dafür sorgen, dass Tech-Unternehmen die rechtliche Verantwortung übernehmen für schädliche Inhalte, die von Nutzern gepostet werden“, schreiben die Parlamentarier.
Mit anderen Worten: Plattformen müssten sämtliche Inhalte filtern, erkennen, einschätzen und gegebenenfalls löschen. Oder sie entsprechend markieren, sollte es sich beispielsweise um politische Werbung handeln. Durchsetzen soll das ein verbindlicher Ethik-Codex und letztlich eine gesetzliche Regelung, fordern die Abgeordneten.
Grundsätzlich verkehrt sind diese Vorschläge nicht. Allerspätestens, seit Facebook, Youtube & Co. begonnen haben, die Inhalte auf ihren Plattformen algorithmisch zu bewerten, sie unterschiedlich zu behandeln und zum Zwecke der Gewinnmaximierung, unabhängig vom Wahrheitsgehalt oder Nutzwert, besonders aufregende Inhalte nach oben zu spülen, ist die Mär vom „neutralen Anbieter“ nicht mehr zu halten.
Aber wie so oft steckt der Teufel im Detail. Denn eine gesetzliche Regelung muss auf einer soliden rechtlichen Basis stehen und die Verantwortung für Entscheidungen, die Grundrechte einschränken, nicht auf die Konzerne selbst abschieben – auch wenn die zuständigen Politiker meinen, etwas anderes zu behaupten.
Löschen, was unerwünscht ist
So dreht sich der Großteil der Kritik am NetzDG wie an der geplanten EU-Anti-Terror-Verordnung um die immer weiter voranschreitende privatisierte Rechtsdurchsetzung im digitalen Raum. Am demokratischen Rechtsstaat vorbei etabliert sich zunehmend ein paralleles Rechtssystem, das auf privaten, sich ständige wandelnden AGBs, Gemeinschaftsrichtlinien oder sonstigen kommerziell orientierten Regelwerken fußt. Entfernt wird zudem nicht notwendigerweise, was tatsächlich illegal, sondern was auf der jeweiligen Plattform gerade unerwünscht ist.
Gekoppelt damit, dass sich die moderne digitale Öffentlichkeit und Meinungsbildung inzwischen auf nur einer Handvoll von Plattformen abspielt – ein Markt, der zur Monopolbildung neigt – und sich viele Politiker wider besseres Wissen technikgläubig zeigen, droht eine willkürliche Einschränkung der Meinungs- und Informationsfreiheit. Rufe nach einer Regulierung von sozialen Netzwerken klingen gut, bleiben aber oft bemerkenswert unscharf, wenn es an die konkrete Umsetzung geht.
So verwies der Ausschussvorsitzende Damian Collins gegenüber dem Guardian auf die deutschen und französischen Ansätze, um die algorithmisch verstärkten Probleme von Hassrede und Desinformation in den Griff zu bekommen. Zugleich machte Collins jedoch deutlich, von wem er sich welche Lösung erwartet: Soziale Netzwerke „könnten mehr investieren, um mit [Hassrede und Desinformation] umzugehen und proaktiv diese Inhalte selbst zu erkennen“, sagte Collins. Ein Lösungsvorschlag, der sich auch in der EU-Verordnung gegen Terrorismus wiederfindet, aber automatisierten und mit Künstlicher Intelligenz gestützten Filtersystemen zu viel Vertrauen schenkt.
Allen wohlmeinenden Absichtserklärungen zum Trotz: Am Ende des Tages würde erst recht wieder Facebook selbst entscheiden. Dabei stellen die Abgeordneten in ihrem Bericht fest: „Unternehmen wie Facebook sollte es nicht erlaubt sein, sich wie ‚digitale Gangster‘ in der Online-Welt zu benehmen und zu glauben, über dem Recht zu stehen.“
0 Ergänzungen
Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.