Seit der ersten Sitzung des Beirats des deutschen Digital Services Coordinators – der Behörde, die die Umsetzung des Digital Services Acts (DSA) in Deutschland beaufsichtigen soll – ist viel passiert. Donald Trump wurde erneut zum US-Präsidenten gewählt, die Ampelkoalition zerbrach, und knapp ein Jahr, nachdem der DSA in Kraft getreten ist, hat seine Durchsetzung mit einer hitzigen Debatte um Meinungsfreiheit auch in Deutschland an Fahrt aufgenommen.
Als der Beirat am 26. November das zweite Mal zusammenkam, prägten die Ereignisse der Wochen zuvor die Agenda. Drei Stunden dauerte das Treffen, der öffentliche Teil war gerade einmal fünfzehn Minuten kurz.
Worum ging es in der Sitzung, und wie steht es um die Durchsetzung des DSA in Deutschland?
Zunächst braucht es eine Geschäftsordnung
Während sich die politischen Ereignisse seit September geradezu überschlugen, ist der Verlauf der zweiten Beiratssitzung rasch erzählt.
Zu Beginn hat der Beirat seine Geschäftsordnung diskutiert und im Anschluss beschlossen, zumindest vorläufig. Die finale Fassung wird nach einer weiteren redaktionellen Schleife durch die Geschäftsstelle des Beirats in der nächsten Sitzung beschlossen werden. Mit Henrike Weiden und Josephine Ballon haben die Mitglieder dann eine Vorsitzende und deren Stellvertreterin gewählt. Und in der darauffolgenden Viertelstunde der öffentlichen Sitzung hat der Beirat immerhin schon erste inhaltliche Weichenstellungen beschlossen.
In der auf den ersten Blick trocken anmutenden Diskussion um die Geschäftsordnung konnte der Beirat einige zentrale Fragen klären. Vorsitz und stellvertretender Vorsitz amtieren für die Dauer von zwei Jahren. Beide Ämter sollen Vertreter*innen verschiedener der im Beirat vertretenen Gruppen besetzen – also der Zivilgesellschaft, der Forschung und der Wirtschaft. Dies soll vermeiden, dass eine einzelne Gruppe zu großen Einfluss im Beirat erlangt.
Die meisten seiner Entscheidungen wird das Gremium mit einfacher Mehrheit treffen. Er wird sich ein Arbeitsprogramm geben, um so – neben den ihm vorgegebenen Aufgaben – auch eigene inhaltliche Schwerpunkte setzen zu können.
Die Themen Transparenz und Öffentlichkeit standen ebenfalls im Fokus. Die öffentlichen Teile der Sitzungen des Beirats sollen fortan für Presse und Zuhörer*innen zugänglich sein und live im Netz übertragen werden. Im Nachgang jeder Sitzung wird der Beirat ein Protokoll und alljährlich einen Bericht über seine Arbeit veröffentlichen.
In dem öffentlichen Teil der Sitzungen wird der DSC über seine Aktivitäten berichten, die der Beirat dann diskutiert. In den nicht-öffentlichen Teilen wird der Beirat Aspekte seiner internen Zusammenarbeit erörtern.
Transparenz über die Gremiumsarbeit können dessen Mitglieder auch über Medienbeiträge herstellen. Allerdings dürfen nur die (stellvertretende) Vorsitzende den Beirat offiziell vertreten und für ihn sprechen.
Mit dem vorläufigen Beschluss der Geschäftsordnung konnte sich der Beirat somit auf grundlegende Regeln der Zusammenarbeit einigen. Richten wir den Blick auf den politischen Kontext – wo steht die Durchsetzung des DSA in Deutschland?
Was sind Trusted Flagger?
Zu eher unrühmlicher Bekanntheit hat dem Beirat in den vergangenen Monaten eine Debatte um Meinungsfreiheit und den Umgang mit rechtswidrigen Inhalten im Netz verholfen.
Stein des Anstoßes war eine ungenau formulierte Pressemitteilung des DSC. Darin gab die Behörde bekannt, die ersten sogenannten Trusted Flagger – zu Deutsch: „vertrauenswürdige Hinweisgeber“ – zugelassen zu haben.
Trusted Flagger sollen Online-Plattformen auf Inhalte aufmerksam machen, die rechtswidrig sein könnten. Sie sind keine Erfindung des Digital Services Act. Vielmehr haben die europäischen Gesetzgeber nur ein System in EU-weit geltende Regeln gegossen, das zuvor schon jahrelang bestanden hatte – nämlich in Form der freiwilligen Trusted-Flagger Programme der Plattformen.
Die Idee hinter den Trusted Flagger ist simpel. Viele Organisationen verfügen über Expertise darin, bestimmte Inhalte, wie rechtswidrige Hassrede oder terroristische Inhalte, im Netz zu erkennen. Als Trusted Flagger weisen sie Plattformen auf potenziell rechtswidrige Inhalte hin. Geht ein solcher Hinweis bei einer Plattform ein, muss er vorrangig geprüft werden, führt aber nicht zu einer automatischen Sperrung oder Löschung des Inhalts.
Das alles lässt sich ohne weiteres dem Gesetzestext entnehmen. Anstatt auf die tatsächlichen Regelungen zu Trusted Flaggern Bezug zu nehmen, wurde die Pressemittelung des DSC, die unpräzise davon sprach, dass Trusted Flagger auch Hass und „Fake News“ melden sollen, dazu genutzt, um Trusted Flagger als eine Zensurmaschine zu inszenieren.
„Gremium des Grauens“
Unter anderem Julian Reichelts Medium „Nius“ und der FDP-Politiker Wolfgang Kubicki unterstellten Trusted Flaggern, dass sie in der Lage wären, Inhalte selbst zu löschen, und dies aufgrund von politischen Motiven täten.
Damit stärkten sie jene Verschwörungserzählungen, wonach bestimmte Inhalte im Netz aus politischen Gründen zensiert werden, und unterminieren die zivilgesellschaftlichen Akteure, die zur Durchsetzung des DSA beitragen. Zu dem dahinterstehenden Zensursystem gehöre laut „Nius“ als „Gremium des Grauens“ auch der DSC-Beirat mit seiner „linksgrünen“ Agenda.
Diese Falschdarstellungen haben nicht nur zu einigen Missverständnissen rund um Trusted Flagger, den Beirat und der politischen Unabhängigkeit des DSC geführt. Sondern sie erschweren es obendrein, berechtigte Kritik an einigen Auswirkungen des DSA auf die Grundrechte im Netz zu üben.
So enthält der DSA unter anderem keinerlei Regelungen, die staatliche Stellen oder kommerzielle Organisationen, wie etwa Rechteinhaber*innen, davon ausschließt, als Trusted Flagger benannt zu werden. Es liegt auf der Hand, dass staatliche oder kommerzielle Stellen eher die Mittel haben, um massenhaft Inhalte zu melden und Druck auf Plattformen auszuüben, bestimmte Inhalte zu entfernen. Eine Regelung, die solche Akteure davon ausschließen würde, als Trusted Flagger zu agieren, wäre also sinnvoll.
Die fehlgeleitete Debatte der vergangenen Wochen zeigt, dass die Durchsetzung des DSA enorme politische Sprengkraft birgt und dass die deutschen Behörden darauf bislang unzureichend vorbereitet sind. Als Beirat haben wir uns daher das Thema Trusted Flagger und den Umgang des DSC mit dieser Debatte auf die Agenda der nächsten Sitzung gesetzt.
Die Bundestagswahl als Stresstest
Das Stichwort „politische Sprengkraft“ führt uns geradewegs zum Aus der Ampelkoalition Anfang November.
Derzeit ist offen, was aus dem Bundeshaushalt für 2025 wird. Damit ist ebenso unklar, wie es mit jenen Stellen bei der Bundesnetzagentur (BNetzA) weitergeht, die mit der Durchsetzung des DSA betraut sind.
Schon die im bisherigen Haushaltsplan vorgesehenen 48 Stellen bleiben weit hinter den gesetzlich festgeschriebenen 70,6 Posten zurück. Das erschwert nicht nur die Aufsicht darüber, wie der DSA umgesetzt wird und wie der DSC seine Aufgaben erfüllt. Sondern ohne Haushalt kann auch die Leitungsstelle des DSC nicht besetzt werden. Daher übt derzeit der Präsident der BNetzA dieses Amt interimsweise aus.
Um aber die politische Unabhängigkeit des DSC zu unterstreichen und dessen Arbeit zu stärken, sollte die Besetzung der Leitungsposition auch bei unklarer Haushaltslage priorisiert werden.
Gleichzeitig ist die nun auf den 23. Februar vorgezogene Bundestagswahl ein Stresstest für den DSA. Er listet explizit negative Auswirkungen auf Wahlen und gesellschaftlichen Debatten als systemische Risiken. Und es obliegt Plattformen wie TikTok, X und Google, diese Risiken zu mindern.
Fortschritt auf EU-Ebene
Währenddessen schreitet die Durchsetzung des DSA auf europäischer Ebene voran. Nach langer Verzögerung hat die Europäischen Kommission endlich eine Konsultation für den delegierten Rechtsakt vorgelegt, der für die Umsetzung des Forschungsdatenanspruchs notwendig ist.
Damit können nun die erforderlichen Weichen gestellt werden, um Forschende und Zivilgesellschaft dazu zu befähigen, erstmals unter den sprichwörtlichen Teppich der größten Plattformen zu schauen. Dieser Datenzugang ist eine entscheidende Voraussetzung dafür, um Plattformen für die gesellschaftlichen Folgen ihrer Geschäftsmodelle durch Beschwerden oder Klagen zur Verantwortung ziehen zu können.
Darüber hinaus hat die Europäische Kommission einen Prozess eingeleitet, in dem Richtlinien für die Umsetzung der Kinder- und Jugendschutzregelungen des DSA ausgearbeitet werden. Im Fokus steht dabei die Frage, ob effektiver Kinder- und Jugendschutz Maßnahmen zur Altersverifikation vorsehen soll. Zumindest die Zivilgesellschaft beantwortet diese Frage mit einem klaren „Nein“. Zugleich aber wird es um diese netzpolitische Frage in der kommenden europäischen Legislatur viel Streit geben.
Als Beirat wollen wir die Entwicklungen auf europäischer Ebene, aber auch die (Aus-)Wirkung des DSA im Kontext der Bundestagswahl begleiten. So werden wir das Thema Kinder- und Jugendmedienschutz aufgreifen, den Umgang mit Falschinformationen im Kontext des Verhaltenskodexes zur Bekämpfung von Desinformation thematisieren und uns in einer Arbeitsgruppe mit dem Zugang zu Forschungsdaten beschäftigen.
Raue Winde aus dem Westen
Werfen wir den Blick zu guter Letzt über Brüssel hinweg noch weiter nach Westen.
In den USA zieht im Januar im Gefolge Donald Trumps auch Elon Musk ins Weiße Haus ein. Musk ist bekanntlich Besitzer der weiterhin einflussreichen Plattform X, die den DSA nur unzureichend umsetzt und deshalb im Fokus eines Verfahrens der Europäischen Kommission steht.
Sollte Musk ab Januar tatsächlich der neuen US-Administration angehören, erhält er damit politische Rückendeckung dafür, um die europäischen Regularien zu umgehen.
Vermutlich wird der designierte Vizepräsident JD Vance seine Drohung nicht gleich wahr machen, wonach die USA aus der NATO aussteigen, wenn die EU gegen X vorgeht. Fest steht aber, dass die zunehmend rauen Winde, die über den Atlantik auf uns zuwehen, auch die Durchsetzung des DSA kräftig durcheinanderwirbeln könnten.
0 Ergänzungen