Öffentlichkeit

Diskussion im Bundestag über „Fake News“, Fake-Accounts oder Social Bots

Fake News und Social Bots, aber auch Fragen rund um die IT-Sicherheit sind heute Thema im Bundestag. Eingeladen sind Sachverständige, die mit den Parlamentariern diskutieren werden, ob und welche sinnvollen Maßnahmen zu ergreifen sind, um Manipulationen im Wahlkampf zu vermeiden. Auch Markus Reuter von netzpolitik.org ist als Experte geladen.

Darüber, was tatsächlich „Fake News“ sind oder was wohl eher „gefühlte Wahrheit“ oder vielleicht „alternative Fakten“, kann man wochenlang streiten, wie die langanhaltende Diskussion hierzulande beweist. Selbst der Papst meldet sich nun schon zu Wort, um mehr Ehrlichkeit in der Berichterstattung anzumahnen. Allein an den Beispielen der erfundenen Flüchtlingsstatistik von Bundesinnenminister Thomas de Maizière oder etlichen Aussagen des neuen US-Präsidenten Donald Trump könnten ganze Studentengenerationen geschult werden.

Wir finanzieren uns fast vollständig aus Spenden von Leserinnen und Lesern. Unterstütze unsere Arbeit mit einer Spende oder einem Dauerauftrag.

fake news
Illustration: CC BY-NC-ND 2.0, Chris Piascik via flickr.

Das ist aber meistens nicht mehr gemeint, wenn von „Fake News“ die Rede ist, denn von tatsächlichen Falschmeldungen, die absichtlich geschehen, hat sich die Diskussion in Teilen losgelöst. Kennzeichen von „Fake News“ war ursprünglich, dass die Nachricht frei erfunden ist, aber glaubwürdigem Journalismus dennoch ähnlich sieht und dadurch Verbreitung findet.

In letzter Zeit werden auch weitere Phänomene wie Fake-Accounts oder auch Social Bots mit der Diskussion verbunden. Darunter versteht man virtuelle Agenten unter ansonsten von Menschen bevölkerten sozialen Netzwerken, die dafür programmiert sind, bestimmte automatisierte Aufgaben auszuführen. Sie können unauffällig ihr Werk tun oder auch auffällig und sichtbar störend sein.

Bots und Co. in der politischen Diskussion

Gerade in diesem Wahljahr interessieren sich auch die politischen Parteien für diese Themen. Die Befürchtungen, dass es zu heimlichen Manipulationen kommt, sind in den Parteien verbreitet. Die Grünen treten derzeit für eine Kennzeichnungspflicht für solche Bots ein – und zwar einzuführen noch vor der Bundestagswahl. Dadurch sollen sie erkennbar werden. Politisch sind außerdem Ideen wie ein Desinformationsabwehrzentrum, eine Klarnamenpflicht oder gar Netzsperren vorgebracht worden.

Heute nun sollen in einer Sachverständigen-Anhörung im Deutschen Bundestag die Sachlage sowie Lösungsideen diskutiert werden. Eingeladen hat der Ausschuss Digitale Agenda, der heute ab 16 Uhr zusammenkommt. Das Fachgespräch kann auch live verfolgt werden.

Geladene Sachverständige

Die Sachverständigen erhielten einen Fragenkatalog (pdf). Darin werden neben „Fake News“ und Bots auch Fragen der Verantwortung problematisiert, die den Anbietern kommerzieller Plattformen und den Medienhäusern, aber auch den Nutzern selbst zukommen. In Bezug auf den anstehenden Wahlkampf sind aber auch Fragen danach enthalten, welche Maßnahmen notwendig sind, um gegen Angriffe gewappnet zu sein.

Eingeladen als Sachverständige sind:

  • Christina Dinar, Sozialpädagogin, Amadeu-Antonio-Stiftung,
  • Daniel Fiene, Journalist, Rheinische Post,
  • Simon Hegelich, Politikwissenschaftler, Hochschule für Politik München,
  • Markus Reuter, Redakteur bei netzpolitik.org,
  • Christian Stöcker, Psychologe, Hochschule für Angewandte Wissenschaften Hamburg.

Schriftlich liegen bisher die Stellungnahmen von Hegelich, Reuter und Stöcker vor, deren Wortmeldungen wir hier betrachten. Wir werden nach dem Fachgespräch über die Stellungnahmen der beiden anderen Sachverständigen und über die mündliche Diskussion berichten.

Gegen sinnlosen Aktionismus

In seiner Stellungnahme weist Reuter auf eine ganz strukturelle Schwäche in der aktuellen Diskussion hin:

Über die Wirkungen und Effekte von Fake News und Social Bots auf die politische Meinungs- und Willensbildung gibt es bislang weder in den USA noch in Deutschland ausreichende und ergiebige Studien, weswegen eine Regulierung zum jetzigen Zeitpunkt ohne eine empirische Grundlage passieren würde. (S. 2)

Entsprechend müsse zuerst das Wissen erweitert werden. Reuter formuliert auch deutlich, dass man nicht in sinnlosen Aktionismus verfallen sollte:

Die Diskussion um „Fake News“ in Deutschland wird derzeit auf teilweise hysterische Weise geführt, insbesondere was die vermutete Beeinflussung der Bundestagswahlen durch das Ausland betrifft. […] Angesicht der deutschen Medienlandschaft aber ernsthaft befürchten zu müssen, „Fake News“, die vom Ausland gesteuert würden, könnten einen massiven Einfluss auf die politische Willensbildung nehmen, entbehrt jeder Grundlage. (S. 6)

Damit hängt auch zusammen, wer von der Verbreitung falscher Nachrichten finanziell profitiert. Denn im Fragenkatalog wurde auch thematisiert, wer denn „Fake News“ verbreitet und mit welchem Ziel? Diese finanziellen Interessen und tatsächliche Einnahmen sind aber bestensfalls kursorisch bekannt. Wissenschaftler Hegelich liegen laut seiner Stellungnahme „keine Erkenntnisse über die Einnahmen, die tatsächlich erzielt werden“, vor. Er hält allerdings einige Zahlen für „deutlich zu hoch gegriffen“.

Wahrheit ist, wenn eine Instanz einen Stempel darauf drückt?

Die Sachverständigen äußern sich auch zu Maßnahmen gegen die Weitergabe falscher Nachrichten. Der hiesige Partner von Facebook soll das durch Crowdfunding-Aktionen unterstützte Projekt Correctiv sein, um der Verbreitung von Falschinformationen entgegenzuwirken. Hegelich merkt allerdings ganz grundsätzlich an, worin das Problem besteht:

Wahrheit ist nicht widerspruchsfrei. Vieles, was wahr erscheint, stellt sich später als Lüge heraus und umgekehrt. Selbst wenn etwas eindeutig wahr ist, dann nicht, weil irgendeine Instanz einen Stempel darauf gedrückt hat, sondern weil jeder, der sich damit beschäftigen mag, zu den gleichen logischen Schlüssen kommen muss. Außerdem lässt sich jede Lüge wahr machen, indem man ein „ich habe gehört, dass…“ voran setzt. (S. 4)

Reuter beschreibt, bei welchen Konstellationen „Fake News“ noch am besten zu enttarnen sind:

Ein sicheres Erkennen von Fake News wird nur teilweise möglich sein. Fake News sind insbesondere dort einfach zu erkennen, wo überprüfbar mit eindeutig widerlegbaren Tatsachenbehauptungen gearbeitet wird und wo betroffene Personen oder Institutionen mit Dementis reagieren, die Darstellung korrigieren und diese auch öffentlichkeitswirksam kommunizieren. (S. 4)

look!
Schau hin! CC BY-NC-ND 2.0, Chris Piascik via flickr.

Privatisierte Rechtsdurchsetzung?

Reuter widmet sich auch dem Problem der privatisierten Rechtsdurchsetzung. Dazu gehören vor allem die Vorschläge, die den Betreibern kommerzieller Plattformen Pflichten zur Löschung von „Fake News“ und „Hate Speech“ innerhalb weniger Stunden oder innerhalb eines Tages auferlegen. Er betont die schweren Einschränkungen der Meinungsfreiheit und die Gefahr der Internetzensur, die damit einhergehen:

Ein solches Vorgehen macht die privaten Anbieter zum Gesetzgeber, Richter, Geschworenen und Henker über die freie Rede. Gerade bei der derzeitigen Dominanz bestimmter Anbieter entstünde so eine privatisierte Zensur, gegen die es faktisch keinen Rechtsweg gäbe. (S. 8)

Hegelich betont in seiner Stellungnahme (pdf) auch ausdrücklich, „dass Facebook kein Medienunternehmen ist“, selbst wenn die Mehrzahl der verbreiteten Inhalte aus den Medien stammen.

Das sieht Stöcker in seiner Stellungnahme (pdf) anders, wenn es um die Frage der Gegendarstellung geht, die das Presserecht vorsieht:

Datenbanken, in denen vermerkt ist, wer was mit wem geteilt hat, existieren auf den Servern der Plattformbetreiber bereits, das ist das Wesen sozialer Medien. Aus meiner Sicht spräche nichts dagegen und viel dafür, in Analogie zur Gegendarstellungspflicht des Presserechts Nutzern, die klar und zweifelsfrei definierte Falschmeldungen gesehen haben, an analoger Stelle in ihrem Newsfeed oder ihrer Timeline eine entsprechende Gegendarstellung zu präsentieren.

don't like it
Like it or don’t: CC BY-NC-ND 2.0, Chris Piascik via flickr.

IT-Sicherheit als Fußnote

Neben der Thematik rund um Fake News und Social Bots ging es in dem Fragenkatalog auch um die IT-Sicherheit. Hier sind sich die Sachverständigen weitgehend einig, soweit sie sich dazu überhaupt äußern. Hegelich sieht sich beispielsweise nicht als Experte für Hacking. Tatsächlich ist die Frage nach offensiven Angriffen im Wahlkampf ein völlig anderer und ausgesprochen komplexer Themenbereich, den die Parlamentarier in der Sitzung ohnehin nicht sinnvoll behandeln können.

Die Sachverständigen, die sich dazu äußern, sehen die Behörden in der Pflicht, sich gegen Angriffe zu wappnen. Stöcker fordert etwa in seiner Stellungnahme (pdf) „eine umgehende und drastische Erhöhung der IT-Sicherheit in den Systemen des Bundestages und anderer öffentlicher Stellen“, ohne allerdings konkret zu sagen, wie das geschehen sollte. Er spricht sich außerdem dafür aus, den „Einsatz verschlüsselter Kommunikation in Parlament, Regierung, Ministerien und Verwaltung“ flächendeckend umzusetzen.

Insgesamt sind die Stellungnahmen angenehm unaufgeregt und sachlich im Vergleich zur öffentlichen Diskussion, die sicher auch aufgrund des Streits um angebliche russische Hacker und Wahlmanipulationen in den Vereinigten Staaten hochkochte. Welche Schwerpunkte in der mündlichen Diskussion im Vordergrund stehen werden, kann man im Ausschuss Digitale Agenda live verfolgen.

Weitersagen und Unterstützen. Danke!
11 Kommentare
    1. Correctiv ist eine gemeinnützige GmbH. Die Gründungsphase wurde im Juni 2014 mit einer Anschubfinanzierung von 3 Millionen Euro für drei Jahre durch die Essener Brost-Stiftung abgesichert.[1]

      2017 kündigte Facebook eine Kooperation mit Correctiv an: Bestimmte Beiträge, die von Nutzern als Falschmeldung gemeldet werden und sich stark verbreiten, werden vom Correctiv-Team überprüft. Gelangen die Factchecker zu dem Schluss, dass eine Fake News vorliegt, wird diese zwar nicht gelöscht, aber mit zwei Warnhinweisen versehen: dass die Geschichte von unabhängiger Seite angezweifelt werde und mit einem Link auf einen Text, der dem verfälschenden Beitrag die Fakten gegenüberstellen solle. Auch die Sichtbarkeit dieser Beiträge könne reduziert werden. Laut Facebook fließt für die Kooperation kein Geld an Correctiv.

      https://de.wikipedia.org/wiki/Correctiv

    1. Nachdem Du selbst es als „Fake News“ bezeichnet hast (siehe oben), dass ich in dem Artikel Correctiv mit Crowdfunding in Verbindung gebracht hatte, obwohl das nicht die primäre finanzielle Grundlage ist, kann ich das nicht so richtig ernstnehmen.

      Wie ist das denn, ist dann alles „Fake News“, was Du als nicht vollständig richtig beurteilst?
      (Eine Definition von „Fake News“, der ich mich anschließen würde, steht im Artikel. Die passt nicht zu Deinen beiden Kommentaren.)

  1. Also, wenn man schon über Fake News redet, dann muss man aber auch über Bildzeitung & Co sprechen! Die hacken doch schon ewig die öffentliche Meinung und manipulieren das Wahlverhalten.

  2. Hat Kanzlerin Merkel einen Facebook Account?
    … oder einer der anderen Minister?
    Wenn ja … verwalten sie selber diese Accounts oder überlassen sie diese Tätigkeit Dritte?
    Wenn ja, sind dann die Mitteilungen, die über diese Accounts verbreitet werden, dann die Antworten der Inhaber oder doch nur … „Fake News“ …??

  3. „Die Grünen treten derzeit für eine Kennzeichnungspflicht für solche Bots ein“
    Frage mich, wie die sich das konkret vorstellen.
    Wäre hier nicht ein technischer Ansatz wie z.B. der Einsatz von CAPTCHAs bei Twitter sinnvoller? Damit könnten über Accounts jedenfalls nicht mehr automatisiert hunderte von Nachrichten in kurzer Zeit abgesetzt werden, wie es im US-Wahlkampf wohl der Fall war. Oder kommen die Algorithmen mittlerweile problemlos mit so was klar?

  4. Was haben die sog. Fake News aus den Bereich der üblichen Verdächtigten (alternative Medien, social Media u.ä.) schon angerichtet im Vergleich zu den Fake News des Mainstreams. Es wird Kriegshetze betrieben, z.B. irgenwelche Interventionsanlässe werden gefälscht oder geschaffen. Und die Meute übernimmt alles. Keine kritischen Fragen nichts. Und Wahlkämpfe wurden schon immer durch irgendwen beeinflusst. Was ist mit NSA und CIA? Frei nach Tucholsky: „Journalisten und Korrespondenten des Mainstreams sind Mörder.“ Ohne sie wären die letzten Kriege gegen Afghanistan, Lybien Irak, Syrien, Jugoslawien (habe ich noch irgenwelche vergessen?) nicht möglich gewesen. Die Anlässe beruhen ausschließlich auf Lügen. Sie sind damit mitverantwortlich für Millionen von Toden.

    1. Du willst unbedingt etwas von Jemandem haben?
      Dann sorge dafür, das es so aussieht, als würde dieser dich bzw. deine „Werte“ angreifen …
      … nun kannst du dich „wehren“ und dir das nehmen, was du begehrst!

      Die Taliban haben der CIA den Drogenhahn zugedreht, die CIA war sauer, nun fließt der Saft wieder!
      Die Einnahmen werden wieder generiert,der Terror kann wieder ordentlich finanziert werden!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.