Dürfen Soziale Netzwerke nach eigenem Ermessen Postings moderieren oder löschen? Diese Frage stand im Zentrum zweier Gesetze aus Florida und Texas, die nun vor dem Supreme Court of the United States (SCOTUS) auf den Prüfstand kamen. Die beiden konservativ regierten Bundesstaaten sahen in der Moderation von Inhalten einen Eingriff in die Redefreiheit und schoben ihr einen Riegel vor. Der Supreme Court entschied am Montag ganz im Gegenteil: Social-Media-Diensten vorzuschreiben, was sie verbreiten müssen, sei der viel größere Eingriff in die freie Meinungsäußerung.
Der Supreme Court sieht die Plattformen generell erst einmal als eine Art Verleger. Die Zusammenstellung und Kuratierung von Inhalten anderer zu einem eigenen Produkt gewähre den Plattformen den Schutz des ersten Verfassungszusatzes, der unter anderem die Rede- und die Pressefreiheit absichert.
Die entsprechenden Gesetze in Texas und Florida waren 2022 verabschiedet worden. Zuvor hatten republikanische Politiker die oft aus dem liberalen Kalifornien stammenden Technologieunternehmen dafür kritisiert, dass sie konservative Ansichten diskriminieren würden. Auslöser war auch der Ausschluss von Donald Trump von Twitter und anderen Plattformen nach dem Angriff auf das Kapitol im Januar 2021.
Streit um die Meinungsfreiheit
Daraufhin hatten die beiden Bundesstaaten leicht unterschiedliche Gesetze erlassen, die die Möglichkeit zur Moderation limitieren sollten. Das Gesetz aus Florida verbietet großen Internetplattfomen, Politiker*innen und Medienunternehmen länger als 14 Tage auszuschließen. Ihre Postings dürfen weder weiter noch weniger weit verbreitet werden als die anderer. Zudem müssen die Plattformen bei Sperrung von Kommentaren die Urheber*innen informieren und diesen das Recht einräumen, die Entscheidung anzufechten.
Das Gesetz von Texas untersagt es Plattformen, Beiträge zu entfernen, mit Hinweisen wie Faktenchecks zu versehen, oder einige, etwa mittels Empfehlungsalgorithmen, weiter zu verbreiten als andere. Maßnahmen zum Jugendschutz sind nur erlaubt, wenn die Betreiber dazu von außen aufgefordert werden, auch Gewaltaufforderungen sind weitgehend zu dulden. Beide Gesetze verpflichten die Unternehmen auch, jede einzelne Moderationsentscheidung zu begründen. Die Gesetze betreffen nicht nicht nur Soziale Netzwerke, sondern auch andere Online-Dienste wie Uber und Etsy, wo die Auswirkungen noch völlig ungeklärt sind.
Die Branchenverbände Netchoice und Computer and Communications Industry Association klagten gegen die Gesetze, die angerufenen Berufungsgerichte kamen zu unterschiedlichen Schlüssen und reichten die Entscheidung an das höchste Gericht weiter.
Obwohl der SCOTUS eine einstimmige Entscheidung getroffen hat, ist die Auseinandersetzung noch nicht fertig ausgefochten. Um ausstehende Details zu klären, müssen sich nun untergeordnete Gerichte erneut mit den Fällen beschäftigen. Doch die Leitlinien, wie die Gesetze und ihre Auswirkungen zu analysieren sind, hat der Supreme Court recht klar mitgegeben. Die Electronic Frontier Foundation spricht in einer ersten Einschätzung sogar schon von einem „Sieg“ für die Internetfreiheit.
Steigende automatisierte Inhaltsmoderation
So ist die Inhaltsmoderation erst einmal grundsätzlich durch den ersten Verfassungszusatz geschützt. Auch die Zielrichtung der Gesetze – gegen die Diskriminierung konservativer Stimmen – hält der Oberste Gerichtshof für fragwürdig. Die Begründung, dass dadurch der „Marktplatz der Ideen“ bereichert würde, sei nicht ausreichend. Denn es sei nicht Aufgabe der Regierung, zu entscheiden, was das richtige Maß von privater Meinungsäußerung ist, so die Begründung des Gerichts. „So unvollkommen der private Marktplatz der Ideen auch sein mag, hier gab es einen noch schlechteren Vorschlag – die Regierung selbst entscheidet, wann die Rede unausgewogen ist, und zwingt dann die Sprecher, mehr von einigen Ansichten oder weniger von anderen zu liefern“, so die Begründung der Mehrheit der Richter*innen.
Eine der Richter*innen beleuchtete in einer weiterführenden Stellungnahme auch die Auswirkungen, die der Einsatz von sogenannter Künstlicher Intelligenz bei der Moderation und Zusammenstellung der Streams juristisch haben könnte. Laut der konservativen Amy Coney Barrett könnten Algorithmen, die darauf programmiert sind, bestimmte Inhalte zu entfernen oder zu priorisieren, als Umsetzung der Entscheidungen eines Menschen angesehen werden. Die Analyse könne jedoch anders ausfallen, wenn ein Plattformbetreiber eine sogenannte KI auffordert, zu bestimmen, welche Inhalte entfernt werden sollen. Laut Barrett ist die Gesetzeslage noch einmal anders, wenn die Plattform nicht in den USA residiert. Denn nur US-amerikanische Unternehmen könnten sich auf den ersten Verfassungszusatz berufen.
Mehr Macht für den Supreme Court
Kurz zuvor hatte der SCOTUS zwei weitere netzpolitisch relevante Entscheidungen gefällt. Beide betreffen die Macht von Exekutivbehörden. Vor einer Woche hatte das Oberste Gericht klargestellt, dass die Regierung oder Behörden wie das FBI weiterhin an Online-Dienste herantreten können, um etwa gegen Desinformation vorzugehen.
Und am Freitag hob der SCOTUS die 40 Jahre alte „Chevron“-Doktrin auf, die besagte, dass Gerichte sich bei der Auslegung von Gesetzen auf die Expertise von Bundesbehörden verlassen müssen. Bislang waren in den USA zahlreiche Entscheidungen, beispielsweise die zur Netzneutralität oder auch solche zur Begrenzung von Schadstoffausstößen, von Regulierungsbehörden wie der FCC getroffen worden.
Künftig haben bei der Auslegung unklarer Gesetze immer Gerichte das letzte Wort. Schon jetzt reiben sich Lobbyorganisationen die Hände, die in den kommenden Jahren viele Regulierungsentscheidungen juristisch anfechten dürften. Nicht wenige davon könnten letztlich vor dem SCOTUS landen – was dessen zunehmende Machtfülle noch weiter steigern wird.
Dass private soziale Netzwerke über das gesetzlich Vorgeschriebene hinaus eigene Regeln aufstellen dürfen und diese auch als Kläger, Richter und Henker in Einem durchsetzen können sollte eigentlich unstreitig sein, ABER falls sie das tun sollten sie dadurch auch das Provider-Privileg verlieren, welches neutrale Infrastruktur-Versorger wie Telefonanbieter, Post oder unmoderierte soziale Netze grundsätzlich von der Haftung für damit verbreitete Inhalte ausnimmt und die Haftung vollständig bei den Nutzern belässt. Verlage die Inhalte moderieren sind üblicherweise für das haftbar was sie veröffentlichen.