Die EU versucht, der neuen politischen Realität zu begegnen: Manipulierte oder mit Hilfe sogenannter Künstlicher Intelligenz (KI) hergestellte Fake-Videos oder Tonaufnahmen sind keine Zukunftsvision mehr, sondern längst weltweit in Wahlkämpfe eingezogen. Der Ort für solche Inhalte sind oft soziale Medien, wo sie sich mitunter viral verbreiten, etwa bei der letzten Parlamentswahl in der Slowakei.
Gegen die krassesten Formen von Wähler:innentäuschung sollen gestern von der EU-Kommission vorgestellte Leitlinien helfen. Sie richten sich an sehr große soziale Netzwerke und Suchmaschinen, sogenannte VLOPs und VLOSEs mit über 45 Millionen aktiven europäischen Nutzer:innen. Darunter fallen etwa Facebook, X, TikTok, aber auch Google.
Das grundsätzlich freiwillige Regelwerk ist Teil des Digital Services Act (DSA) und soll den Anbietern als Richtschnur bei der Eindämmung systemischer Risiken dienen. Dazu sind sie gleichwohl verpflichtet: Sie müssen eine Risikobewertung ihrer Dienste vornehmen und dazu jährliche Berichte abliefern. Berücksichtigen müssen sie dabei unter anderem „alle tatsächlichen oder absehbaren nachteiligen Auswirkungen auf die gesellschaftliche Debatte und auf Wahlprozesse und die öffentliche Sicherheit“, wie es im DSA heißt.
Gegen Deepfakes und Desinformationskampagnen
Das sollen nun die Leitlinien konkretisieren, die nach einer öffentlichen Konsultation erarbeitet wurden. Ziel des Maßnahmenbündels ist es, „dass wir mit ihnen bei den anstehenden Europaparlamentswahlen besser geschützt sind – etwa vor eventuellen Deepfakes – und besser mit ausländischen Desinformationskampagnen umgehen können“, sagte gestern die Kommissionsbeamtin Renate Nikolay bei einem Pressegespräch in Berlin. Zugleich betont die Kommission, dass dabei Grundrechte wie jenes auf freie Meinungsäußerung gewahrt bleiben müssen.
Einige naheliegende Empfehlungen dürften so manchem Anbieter nicht schmecken, etwa die Forderung nach ausreichend ausgestatteten Moderationsteams, die mit länderspezifischen Details und mit der jeweiligen Sprache vertraut sind. Das kostet Geld – das beispielsweise der Milliardär Elon Musk nicht gewillt ist auszugeben. Er hat seit seiner Übernahme von Twitter (nun X) massenhaft Mitarbeiter:innen für Moderation und Sicherheit entlassen. Inzwischen untersucht die Kommission, ob das Unternehmen damit gegen den DSA verstößt.
Mehr Medienkompetenz und verlässliche Informationen
Darüber hinaus sollen die Online-Dienste Initiativen zur Medienkompetenz umsetzen und sich mit Behörden sowie zivilgesellschaftlichen Gruppen und Expert:innen austauschen. Auch sollen sie den Zugang zu offiziellen Informationen über Wahlprozesse fördern, etwa Details zu Wahllokalen. Zu mehr Aufklärung sollen Hinweise bei Online-Inhalten führen, die durch unabhängige Faktenchecks als Desinformation entlarvt worden sind. Die virale Ausbreitung möglicher Falschnachrichten sollen mehr oder weniger subtile Designelemente eindämmen – etwa Hinweise darauf, einen Artikel erst zu lesen, bevor man ihn mit Schaum vor dem Mund teilt.
Das Produktdesign der Anbieter berührt auch der Vorschlag, die weitgehend undurchsichtigen Empfehlungssysteme nachvollziehbarer für Nutzer:innen zu gestalten. So sollen sie mehr Kontrolle darüber erhalten, was ihnen die algorithmischen Systeme in den Feed spülen. Zugleich sollen etwa Accounts, die wiederholt und nachweisbar Falschinformationen verbreiten, in ihrer Reichweite beschränkt werden. Finanzielle Anreize, die ebenfalls eine Rolle bei der Verbreitung von Desinformation spielen, sollen durch die Demonetarisierung einschlägiger Inhalte ausgehebelt werden.
Freiwillig vorgreifen sollen die Online-Dienste ferner auf die Ende des Vorjahres verabschiedete, aber nicht rechtzeitig in Kraft tretende EU-Verordnung für politische Online-Werbung. So sollen etwa entsprechende Anzeigen eindeutig gekennzeichnet werden. Zuletzt wurde etwa bekannt, dass die rechtskonservative Fidesz-Regierung des ungarischen Ministerpräsidenten Viktor Orbán hetzerische Online-Anzeigen im EU-Ausland geschaltet hatte, um politischen Verbündeten zu helfen.
Täuschend echt wirkende Manipulation mit Mausklick
Besonderes Augenmerk richten die Leitlinien auf sich zuletzt rasant verbreitende Erzeugnisse generativer KI, etwa Texte von ChatGPT oder Deepfake-Videos. Die Online-Dienste sollen dabei spezifische Risiken bewerten und gegebenenfalls mindern, etwa mittels einer klaren Kennzeichnung von KI-generierten Inhalten.
Dass an frei erfundenen, aber womöglich authentisch wirkenden Inhalten klebende Wasserzeichen oder sonstige Markierungen nicht der Weisheit letzter Schluss sind, ist der Kommission offenkundig bewusst. Sie widmet der Problematik eine ganze Reihe an Empfehlungen. Indes steht es den Online-Diensten frei, potenziell bessere Ansätze zu wählen. Die können auch aus der Zivilgesellschaft kommen, die sich darüber ebenfalls seit geraumer Zeit den Kopf zerbricht. Mit plumpen Verboten, wie es etwa unlängst das Landgericht Berlin versucht hatte, ist es jedenfalls nicht getan.
Die Skalierung ist natürlich das Problem. Ein Schelm, wer die Skalierung mittels klassischer Medien in den Zusammenhang des Quatsches stellt, den Politiker in Wahlkämpfen so abzusondern pflegen. Dennoch wird mit KI potentiell über allen Medientypen hinweg zielgruppenspezifisch bis zu individuell targetiert, potentiell auch permanent.
Wahlkampf ist doch eigentlich schon von Desinformation geprägt. So viele Kategorienfehler, blödsinnigste Statements, nur um sich abzusetzen oder sich oder andere, oder eine beschlossene Sache so oder so aussehen zu lassen.
Die Argumente dafür sehen dann so oder so ähnlich aus:
– Menschen sind halt dumm.
– Menschen lassen sich von der emotionalen Komponente blenden.
– Menschen lassen sich mittels Confirmation Bias bei der Stange halten.
Mir ist noch kein einziges redliches Argument untergekommen!
Die drei Punkte der Aufzählung beschreiben einen Teil der Realität, die Betrug, Täuschung und Desinformation gleichermaßen begünstigen. Für ein gelungenes Leben gilt es, sich davon mittels Bildung zu befreien, je nach eigenen Möglichkeiten, schon ein Bemühen wäre zu respektieren.
Ich würde das nicht als „Argumente“ bezeichnen, und worauf sollte sich das „dafür“ beziehen?
Ist Wahlkampf der Zweck oder ein Mittel zu einem Zweck?
Ist Desinformation der Zweck von Wahlkampf oder ein Mittel zu einem Zweck?
Es gibt halt schon noch einen deutlichen Unterschied zwischen den Wahlkämpfen der Erdogans, Trumps und Putins dieser Welt, und jenen, welche die demokratischen Regeln und ein notwendiges Minimum von Anstand respektieren.
Weiter stellt sich die Frage, ob die allgemeine Behauptung „Wahlkampf ist doch eigentlich schon von Desinformation geprägt“ nicht selbst schon Desinformation darstellt. Solche Behauptungen sind geeignet, Wähler zu verunsichern, und Wahlen zu diskreditieren.
Eine berechtigte Frage wäre:
Welche Akteure versuchen unsere Wahlen durch Desinformation zu beschädigen und zu beeinflussen?
Diese Akteure gilt es zu identifizieren und so zu stellen, dass sie keinen Schaden an unserer freiheitlichen demokratischen Grundordnung mehr anrichten können.
Gegen Desinformation hilft eine solide, politische und weitgehendst von Ideologie befreite Bildung, denn:
Demokratie ist die einzige Staatsform, die gelernt werden muss. (Oskar Negt, 2004)
Intention war auch den Teil des Quatsches darzustellen. Folglich beziehen sich die drei Punkte auch darauf. Natürlich gibt es auch viel vernünftiges. Schaut man sich die Argumentationen von Oppositionspolitikern an, wohl wissend wie das so ist, wenn man nicht gewählt ist, stellt man dennoch fest, dass bei allen Fehlern die die Koalition gemacht hat und auch solche, die sie vielleicht oder angeblich gemacht hat, es der Opposition eigentlich leichter fallen müsste, sich mit Themen und Prinzipien abzusetzen. Das sieht man leider nicht. Das ist über weite Strecken zum Wegwerfen.
Aber das ist vielleicht nur mal eine Phase (hust). Es kommt oft vor, auch bei „wichtigen“ Vorhaben bei EU-Vorhaben auch von Regierungsseite. Hier fehlen verbindliche Qualitätssicherungsmaßnahmen. Die Idee der Bildungs ist schon richtig, aber die muss dann z.B. unabhängig aufgestellt sein, und nicht vom Reformwillen der Regierenden abhängen (kaputt q.e.d.). Man kann zwar nicht alles wissen, aber man muss Forschen und testen, und das mit adäquatem Nachdruck. Letztlich, z.B. bei IT-Themen ist die Idee der Bildung auch ein Genickbruchproblem, weil die Menge an Menschen diese Bildung nicht hat, und die Politik in der Fläche Quatsch umsetzt und auch durchaus Quatsch erzählt. Hier fehlt definitiv eine Balancierung. Parteien dafür zu gründen is wahrscheinlich nötig, um Expertise mal einzubringen, vgl. Piraten, aber das reicht nicht. So werden wir das nicht repariert kriegen.