Fast zehn Jahre später sorgt der berühmte Neuland-Spruch von Ex-Kanzlerin Angela Merkel immer noch für gelegentliche Lacher. Ob berechtigt oder nicht: Bis heute sind viele netzpolitische Grundsatzfragen weiterhin ungeklärt. Einen dieser großen Brocken knöpft sich nun das Projekt „Grundrechte im Digitalen“ der Gesellschaft für Freiheitsrechte (GFF) vor.
Die von der Mercator-Stiftung unterstützte Studienreihe soll untersuchen, ob und wie große Tech-Unternehmen wie Facebook, Twitter und Google durch Grundrechte verpflichtet werden. Traditionell schützen solche Abwehrrechte eigentlich Bürger:innen vor staatlichen Übergriffen, private Unternehmen binden sie jedoch nicht unmittelbar. Das führt zu Problemen, wenn etwa öffentlicher Diskurs im digitalen Raum fast ausschließlich auf einer Handvoll privater, kommerzieller Dienste stattfindet – und diese nach eigenem Gutdünken Inhalte moderieren.
„Es ist höchste Zeit, Digitalriesen grundrechtlich zur Verantwortung zu ziehen“, sagt Jürgen Bering, Jurist bei der GFF und Verfasser der gestern veröffentlichen Auftaktstudie „Grundrechtsbindung sozialer Netzwerke“. Anbieter wie Facebook und Twitter würden im großen Stil private Daten sammeln und kommerziell verwerten, Nutzer:innen jedoch nicht ausreichend vor Hass und Diskriminierung im Netz schützen, so Bering. Es liege an den Unternehmen, diese grundrechtlichen Bedrohungen abzustellen. „Sie können sich dabei nicht auf ihre Rolle als Privatunternehmen zurückziehen oder auf die vermeintliche Freiwilligkeit der Nutzung verweisen“, sagt Bering.
Kriterien für Grundrechtsbindung
Schon seit Jahren streiten Jurist:innen, Politik und Gerichte über den besten Weg aus dem Dilemma. Die GFF-Studie analysiert nun die bisherige Rechtsprechung, insbesondere Urteile des Bundesverfassungsgerichts (BVerfG) und des Bundesgerichtshofes, und leitet daraus Kriterien für eine mögliche Grundrechtsbindung ab. Zwar seien die konkreten Maßstäbe weiterhin nicht abschließend gerichtlich geklärt, inzwischen gehöre aber die „staatsähnliche oder staatsgleiche Grundrechtsbindung Privater zum verfassungsgerichtlichen Kanon“, heißt es in der Studie.
Im Wesentlichen verfolge das BVerfG einen funktionalen Ansatz, nach dem es Grundrechte schütze, wenn diese gefährdet sind. Dies gelte auch, wenn diese Gefährdung von Privaten ausgeht, solange das Verhältnis unter Privaten ähnlich ausfällt wie das Verhältnis zwischen Bürger:innen und Staat. Wie dies aussehen kann, lässt sich etwa aus der Eilentscheidung des BVerfG zum Ausschluss der rechtsextremen Partei „Der III. Weg“ von Facebook ablesen.
Auch wenn das Gericht die Rechtslage nicht endgültig geklärt hat, benannte es damals relevante Kriterien für eine Grundrechtsbindung: Den Grad der marktbeherrschenden Stellung des betroffenen Online-Anbieters, die Ausrichtung des Netzwerks, den Grad der Angewiesenheit auf die Plattform und betroffene Interessen der Plattformbetreiber und sonstiger Dritter.
Ausgangspunkt private Gemeinschaftsrichtlinien
Auf EU-Ebene versucht das derzeit verhandelte Gesetz über digitale Dienste (Digital Services Act, DSA), einige der strittigen Punkte zu klären. Zwar bilden darin die privaten AGB und Gemeinschaftsrichtlinien der Anbieter weiterhin den Ausgangspunkt für Inhaltemoderation. Allerdings dürfte im fertigen Gesetz ausdrücklich der Schutz der Grundrechte von Nutzer:innen enthalten sein: In ihren jeweiligen Vorschlägen waren sich Kommission, EU-Länder und Parlament zumindest grob einig darin, das Recht auf freie Meinungsäußerung festzuschreiben, auf den Schutz personenbezogener Daten und der Privatsphäre zu pochen sowie wirksame Rechtsbehelfe zu garantieren.
Verbesserte Beschwerdemechanismen waren ein wichtiger Punkt in der letzten Novelle des Netzwerkdurchsetzungsgesetzes, selbst wenn sie nur einen kleinen Teil der Meldungen abdecken. Deutlich weiter geht hierbei der DSA: Dieser regelt die allermeisten Beschwerdefälle und sieht als letzte Instanz sogar von den Online-Diensten unabhängige, außergerichtliche Schiedsstellen vor.
Dies dürfte die Anforderungen, die sich aus der GFF-Analyse ergeben, weitgehend erfüllen. Demnach müssten die Anbieter Maßnahmen gegenüber Nutzer:innen nur dann treffen, wenn ein Regelverstoß in den AGB zuvor festgesetzt wurde, ein Eingriff sachlich begründbar ist, die Regeln gleichmäßig angewendet und Nutzer:innen informiert werden. Zudem müssten sie sich effektiv beschweren können und sollten bei gravierenden Eingriffen, etwa einer Kontosperre, zuvor angehört werden.
Künstliche Intelligenz ohne Diskriminierung
Zur Debatte steht im DSA auch das Verbot sogenannter Dark Patterns, die zur Manipulation von Nutzer:innen dienen. Aus Sicht der GFF-Studie sei davon auszugehen, dass die Benutzung solcher Techniken nicht mit den Anforderungen durch die Grundrechtsbindung vereinbar ist.
Einen erheblichen Einfluss auf die Grundrechte von Nutzer:innen hätten zudem algorithmische Empfehlungssysteme, und das auf mehreren Ebenen. Solche mit Künstlicher Intelligenz und maschinellem Lernen betriebenen Systeme reproduzieren oft bestehende Diskriminierung, was sowohl Sender:innen als auch Empfänger:innen von Inhalten treffen kann.
So können etwa Inhalte von und über People of Color oder LGBTQ-Personen automatisiert als Hassrede eingestuft und in ihrer Reichweite beschränkt werden, obwohl diese gar keine Hassrede enthielten. Solche Mechanismen können bis zu sogenanntem „Shadowbanning“ führen, wenn also ein Inhalt in einen Online-Dienst gestellt werden kann, er aber anderen Nutzer:innen nicht angezeigt wird. Betroffene bemerken diese Form der Diskriminierung meist gar nicht. Die GFF fordert hier bessere Rechtsschutzmöglichkeiten.
Positive Entwicklung der Rechtsprechung – mit blindem Fleck
Insgesamt sei die Entwicklung der Grundrechtsbindung als überwiegend positiv zu beurteilen, heißt es in der Studie. Doch obwohl es der Rechtsprechung damit gelungen ist, Grundrechte im Netz in Fällen zu schützen, die die Gesetzgebung noch nicht erfasst hat, bestehe weiter eine unterbelichtete Schieflage. Das hat damit zu tun, dass sich die meisten vor Gerichten verhandelten Fälle auf gesperrte Inhalte bezogen haben und so der Fokus der Rechtsprechung auf der Meinungsfreiheit der Nutzer:innen liege.
„Das darf aber nicht dazu führen, dass die Rechte der von Hassrede betroffenen Nutzer*innen außer Acht gelassen werden“, schreibt Studienautor Bering. Künftige gesetzliche Regelungen sollten deshalb nicht nur die Meinungsfreiheit von Nutzer:innen mit verfahrensrechtlichen Garantien schützen, sondern auch die Rechte der von Hassrede betroffenen Nutzer:innen berücksichtigen. Denkbar wäre etwa ein Anhörungsrecht, wenn ein Netzwerk einen Inhalt wiederherzustellen gedenkt.
Ich bin immer ein bisschen fasziniert davon, wie Juristen Behauptungen aufstellen und dann daraus ganze Gesetzesprojekte machen. Ohne Beleg.
Wo ist denn die nicht-freiwillige Teilnahme belegt? Wer wurde zur Facebook Anmeldung gezwungen? Wer wird täglich gezwungen Twitter zu lesen?
Mir gefällt sehr viel an der vorgeschlagenen Regulierung, auch wenn bei Federation oder Kontrahierung einige Experten: Spam, Spam, Spam rufen. Aber Viel Spaß dabei, amerikanische Unternehmen von hier aus zu regulieren.
> Aber Viel Spaß dabei, amerikanische Unternehmen von hier aus zu regulieren.
So ungewöhnlich finde ich das nun nicht. Da doch Amerikanische Unternehmen (und ihre Regierung) stets versuchen ihre eigene Regulierung auch hier durch zu setzen (Safe-Haven et al, „Nordstream2″…). Dem Duktus das Amerikanisches Recht auch anderswo gelte sollte man wirklich mal einen Dämpfer verpassen. Das ist schlicht anmaßend.
Ich hab momentan mehr Kopfschmerzen wg. des Urhebers der Studie. Denn ich meine die Mercator-Stiftung schon mal gehört zu haben. Allerdings eher im Kontext Lobby-gruppierung von Wirtschaftsverbänden. Falls ich mich irre tut’s mir leid. Aber der Gedanke läßt mich nicht los das damit noch andere weniger Altruistische Ziele verfolgt würden.
Das sind zwar quasioligarchische Riesenteile, dennoch gibt es schon die Unkenrufe, die rein US-amerikanische Konzerne prophezeien. Weil alle anderen die Schnauze voll haben.
Von Europa wünsche ich mir allerdings, zu überdenken, an welchen Stellen solche Riesenplattformen zivilisatorisch förderlich sind, und an welchen nicht. Das gleiche in EU-Farben wäre vielleicht dämlich.
Andererseits geht Sicherheit wohl nur mit Einnahmen (oder stark verteilter heterogenerer) Struktur. Wollen wir also einfachen Reichweitenzugang für alles, müsste man über die Finanzierung nachdenken (Tracking fällt offensichtlich zivilisatorisch aus). Das andere wäre, Plattformen für die Welt zu bauen, bzw. für Freiheitsliebende. Dafür müsste man eine Idee von Freiheit haben.
Äh…
Damit würde man demokratisch kontrollierte Regulierung aufgeben und diese Konzerne offiziell zu transnationalen Staaten im Staat erheben.
Absolut kontraproduktiv, ausser für diese Konzerne. Die haben nämlich die Ressourcen, damit umzugehen und sich als Monopol durchzusetzen.