Sorge über ImpfskepsisEU möchte Desinformation den Geldhahn zudrehen

Die EU-Kommission ist unzufrieden mit den Schritten von Youtube, Facebook und Co. gegen Falschmeldungen und Propaganda. Rechtliche Verpflichtungen sollen nun freiwillige Maßnahmen der Plattformen ersetzen.

Telegram
Falschnachrichten verbreiten sich auch über Messengerdienste wie Telegram. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Christian Wiediger

Die EU-Kommission hat neue Maßnahmen gegen Desinformation vorgeschlagen. Der bereits bestehende Verhaltenskodex gegen Desinformation für Plattformen wie Facebook und Youtube soll gestärkt und auf Messenger und Bezahldienste ausgeweitet werden. Auch Online-Werbung soll künftig stärker kontrolliert werden, heißt es von der EU-Behörde.

Bereits sei 2018 gibt es einen Verhaltenskodex der EU gegen Desinformation, die Teilnahme ist allerdings rein freiwillig und seine Einhaltung kann von außen schwer überprüft werden. Die EU-Kommission möchte künftig mehr Kontrolle über den Prozess haben.

Social-Media-Konzerne und andere Diensteanbieter dürften „nicht mehr zulassen, dass mit Desinformation Geld verdient wird“, sagte EU-Kommissionsvizechefin Věra Jourová. Der neue Verhaltenskodex soll sicherstellen, dass Desinformation nicht mehr profitabel sei. Es gehe allerdings nicht darum, ein „Wahrheitsministerium“ zu schaffen, betonte Jourová. Ziel sei nicht, fragwürdige Inhalte zu löschen und zu sperren, sondern mehr Faktchecking und Forschung zu fördern.

Von Selbstregulierung zu Koregulierung

Der neue Vorschlag aus Brüssel verknüpft den Verhaltenskodex mit dem geplanten Digitale-Dienste-Gesetz. Letzteres sieht vor, dass Plattformen sich gemeinsam mit der Kommission im Rahmen eines Koregulierungsverfahrens selbst Regeln in bestimmten Bereichen setzen. Im Gegensatz zu reiner Selbstregulierung wäre der Verhaltenskodex gegen Desinformation mit Inkrafttreten des Digitale-Dienste-Gesetzes aber verpflichtend, seine Einhaltung kann nach rechtlichen Vorgaben geprüft werden.

Die neuen Regeln könnten bedeuten, dass die Digitalkonzerne weitaus mehr als bisher über die Wirkungsweise ihrer Algorithmen und ihre Inhalte-Moderation verraten müssen. Im gestärkten Verhaltenskodex müssten sich Plattformen verpflichten, die Kriterien offenzulegen, nach denen ihre Empfehlungsalgorithmen gewisse Inhalte priorisieren oder de-priorisieren. Es müsste die Option für Nutzer:innen geben, den Algorithmus an ihre Bedürfnisse anzupassen.

Digitale-Dienste-Gesetz

Machen die Plattformen entsprechende Zusagen, sollen diese auch überprüfbar sein. Nach Artikel 28 des Digitale-Dienste-Gesetzes müssen Online-Plattformen mit mehr als 45 Millionen Nutzer:innen in der EU einmal im Jahr eine externe Prüfung ihrer Zusagen zulassen. Verstoßen die Konzerne gegen die Auflagen, sieht das Digitale-Dienste-Gesetz hohe Geldstrafen vor.

Angekündigt hat die Kommission zuletzt auch ein eigenes Gesetz für politische Werbung. Dieses sollte Plattformen vorschreiben, öffentlich einsehbare Archive für politische Anzeigen anzulegen und gewisse Formen manipulativen Microtargetings einzuschränken.

Als Teil des neuen Verhaltenskodex fordert nun die Kommission, dass Plattformen der Verbreitung von Desinformation demonetarisieren. Wer systematisch Falschmeldungen poste, dem müsse der Zugang zu Anzeigen verwehrt werden. Die Plattformen sollen Informationen über Anzeigen austauschen, die sie wegen der Verbreitung von Desinformation sperrten. Um Geldflüsse zu den Desinformationsverbreitern zu stoppen, sollen nach Wunsch der Kommission auch Bezahldienste wie Paypal dem Verhaltenskodex beitreten.

Auch möchte die EU-Kommission Schritte gegen „manipulatives Verhalten“ festlegen. Als solches zählt die Kommission etwa Deepfakes und Hack-und-Leak-Operationen, bei denen etwa vertrauliche Daten eines politischen Akteurs erbeutet und selektiv an die Öffentlichkeit weitergegeben werden. Die Plattformen müssten konkrete Vorschläge vorlegen, wie sie solches Verhalten einschränken wollen.

Sorge über Desinformation wächst

In der Corona-Pandemie wächst die Sorge der EU-Kommission über Desinformation im Netz. Der Auswärtige Dienst der EU warf vor einigen Wochen Russland und China vor, mit Falschmeldungen Zweifel an westlichen Covid-Impfstoffen zu sähen. Einige wenige Gruppen auf Facebook trügen in großen Ausmaß zur Verbreitung von Impfskepsis auf der Plattform bei, ergab indes eine interne Studie des Konzerns. Verantwortlich machen Expert:innen auch die Algorithmen von Facebook, Youtube und TikTok, die die virale Verbreitung fragwürdiger Inhalte ermöglichen.

Bislang erfasst der Verhaltenskodex der EU gegen Desinformation vor allem soziale Netzwerke, der neue Vorschlag soll den Kodex auf Messengerdienste ausweiten. Die rasante Verbreitung von Falschinformationen über Corona zwang WhatsApp zu Beginn der Pandemie dazu, die Möglichkeit zur Weiterverbreitung von Nachrichten noch weiter einzuschränken.

Ins Visier der Aufmerksamkeit gerät zunehmend auch Telegram. Der Messengerdienst erlaubt Gruppen von unbegrenzter Größe, während WhatsApp diese auf maximal 256 Personen beschränkt. Telegram ist dadurch in vielen Ländern zu einem wichtigen Umschlagplatz für News geworden, im diktatorisch regierten Belarus verbreiten regimekritische Journalisten dort Nachrichten, im Iran organisierten sich dort Demokratie-Aktivist:innen. In Deutschland und anderen Ländern ist Telegram allerdings auch Tummelplatz für Rechtsextreme und Verschwörungsmythen.

Mehr Factenchecks und Forschung

In der Covid-Pandemie seien immer wieder die gleichen Falschmeldungen auf unterschiedlichen Plattformen aufgetaucht, sagt die EU-Kommission. Plattformen müssten mit Faktencheckern zusammenarbeiten, auch soll eine zentralisierte Datenbank für Faktenchecks über Plattformgrenzen hinweg geschaffen werden. Nutzer:innen, die in Faktenchecks als falsch markierte Inhalte gesehen hätten, sollen darüber informiert werden.

Verbessern möchte die EU-Kommission außerdem den Zugang zu Daten von den Plattformen für Forschungszwecke. Diese Vorgabe gibt es bereits im bisherigen Verhaltenskodex, aber die großen Plattformen zieren sich bisher. Insbesondere Facebook ging zuletzt außerdem rechtlich gegen Forschungsgruppen vor, die Daten von der Plattform untersuchen.

0 Ergänzungen

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.