Facebook veröffentlicht Teile seiner Uploadfilter-Technik

Facebook hat Teile von Uploadfiltern veröffentlicht, die Bilder und Videos wiedererkennen sollen. Der Datenkonzern will mit der Technik etwa bereits bekannte Terrorpropaganda und Gewaltinhalte erkennen. Informationen darüber sammeln mehrere Unternehmen in einer gemeinsamen Datenbank.

Eine Hand hält einen Glasfilter vor einer Landschaft
Auch ohne das gesamte Bild zu speichern, findet Facebook Duplikate. – Vereinfachte Pixabay Lizenz SplitShire

Facebook hat zwei seiner Technologien frei zugänglich gemacht. Beide erkennen identische oder ähnliche Fotos und Videos. Mit dieser Technik will Facebook bekannte Darstellungen von Kindesmissbrauch, Terrorpropaganda und Gewaltinhalten erkennen und so verhindern, dass sie erneut hochgeladen werden. Den Quelltext der Software veröffentlichte Facebook unter einer großzügigen Lizenz auf GitHub.

Die Algorithmen erkennen selbst keine Inhalte, sondern destillieren aus entsprechend markierten Bildern oder Videos sogenannte Hashes. Diese digitalen Fingerabdrücke dienen anschließend dazu, Duplikate wiederzuerkennen und sie wegzufiltern – wie es etwa nach dem rechten Terroranschlag in Christchurch geschehen ist, allerdings mit gemischtem Erfolg.

Zudem speist Facebook die Hashes in eine vom „Global Internet Forum to Counter Terrorism“ (GIFCT) betriebene Datenbank ein, um sie anderen beteiligten Unternehmen zur Verfügung zu stellen. Versucht ein Nutzer, eine Datei mit einem bereits erfassten, fälschungssicheren Hashwert hochzuladen, schlägt das jeweilige Alarmsystem an und verhindert gegebenenfalls den Upload. Über 200.000 solcher Inhalte sind inzwischen in der Datenbank erfasst, gab der Dachverband kürzlich in seinem ersten Transparenzreport an.

Zunehmende Industrie-Kooperation

Die Ankündigung von Facebook folgt auf einen weiteren rechten Mordanschlag, bei dem letzte Woche im texanischen El Paso über zwanzig Menschen starben. Wie schon beim Anschlag in Christchurch spielten Online-Plattformen eine gewisse Rolle. Auch diesmal führt die Spur zurück in eine der dunkelsten Ecken des Internets, zu einem Unterforum der Webseite 8chan. Dort hinterließ der mutmaßliche Mörder erneut ein Pamphlet, in dem er bekannte rechte Verschwörungstheorien wie die eines angeblichen „Bevölkerungsaustausches“ heraufbeschwor.

Zwar löschten 8chan-Moderatoren sein Posting nach nur wenigen Minuten, auch ein Live-Stream blieb diesmal aus. Dennoch haben große Mainstream-Plattformen wie Facebook, Youtube oder Twitter – nach massivem öffentlichen Druck – eine berechtigte Sorge: Dass sie noch mehr als gut geölte Trägermedien und Multiplikatoren für extremistische Ideologien dienen, als es ohnehin schon der Fall ist. Entsprechend stieg in den vergangenen Jahren die Bereitschaft zur Kooperation, sei es durch die Freigabe von Algorithmen oder dem Aufbau von Hash-Datenbanken wie der des GIFCT.

Mittlerweile haben sich neben den Gründungsmitgliedern Facebook, Youtube, Twitter und Microsoft weitere IT-Unternehmen an die Datenbank angeschlossen, darunter Reddit, DropBox und Pinterest. Diese Firmen dominieren einen großen Teil des Internets, in dem sich Nutzer bewegen. Und geht es nach der EU-Kommission und den EU-Mitgliedstaaten, sollen sich so viele weitere Online-Dienste daran beteiligen, wie nur möglich.

EU-Vorstoß gegen Terrorpropaganda

Hintergrund ist eine noch nicht fertig verhandelte EU-Verordnung, die sich gegen terroristische Propaganda im Netz richtet. Das EU-Parlament hat bisher ursprünglich geplanten „proaktiven Maßnahmen“ nicht zugestimmt. Diese hätten Anbieter sowohl zum Einsatz solcher Hash-Datenbanken verpflichten können als auch zu automatisierter Inhalteerkennung mit Künstlicher Intelligenz. Allerdings ist es gut möglich, dass die Abgeordneten in den vermutlich im Herbst stattfindenden Trilog-Verhandlungen mit der Kommission und dem Rat einknicken und Uploadfilter für alle in Europa tätigen Anbieter zur Pflicht machen.

Fest steht jedenfalls, dass das Parlament der GIFCT-Datenbank und den dahinter steckenden Mechanismen grundsätzlich wohlwollend gegenübersteht. Es bat in einem Bericht vom vergangenen Winter die Unternehmen, „ihr Engagement für die gemeinsam von der Branche genutzte Hash-Datenbank zu verstärken, und zwar auch durch den Wissensaustausch mit kleineren Technologieunternehmen“.

Auch die Polizei in Nordrhein-Westfalen setzt auf Algorithmen

Diese Bemühungen drücken sich in industrie- und länderübergreifenden Kooperationen aus. So stellt etwa Microsoft seine Bilderkennungssoftware PhotoDNA vielen Organisationen kostenlos zur Verfügung – wenn auch nicht unter einer freien Lizenz. Die Software wird seit Jahren dazu genutzt, Darstellungen von Kindesmissbrauch zu erkennen. Sie lässt sich auch auf dem Cloud-Dienst Azure als Dienstleistung verwenden.

Dieses System kommt bei der deutschen Polizei an. Zusammen mit Behörden in Nordrhein-Westfalen entwickelt Microsoft derzeit einen Algorithmus samt Cloud-Lösung weiter, mit dem sich unter anderem Gesichter von Tätern und Opfern erkennen lassen, berichtet der Spiegel. Dies soll dabei helfen, die großen Datenmengen besser zu bewältigen, hieß es auf einer Pressekonferenz am Montag. Und wenn uns die bisherige Digitalisierung etwas gelehrt hat: Diese Menge an Daten wird nicht weniger.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

0 Ergänzungen

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.