Polizisten verhaften Donald Trump, das Pentagon wird Ziel eines Bombenangriffs und US-Präsident Joe Biden ruft dazu auf, nicht zur Wahl zu gehen. Sogenannte Deepfakes nehmen zu. Und gerade im globalen Superwahljahr 2024 drohen sie erheblichen Einfluss auf die Politik zu nehmen.
Deepfakes sind realistisch erscheinende Foto-, Ton- und Videodokumente, die mit Hilfe sogenannter Künstlicher Intelligenz erzeugt werden. Die Resultate sind inzwischen so gut, dass sie sich kaum noch als solche erkennen lassen. Und sie lassen sich relativ einfach in großer Zahl herstellen. Wie rasant die technologische Entwicklung voranschreitet, veranschaulicht eindrucksvoll der neue Dienst Sora von OpenAI. Er erlaubt es, realistisch aussehende Videos innerhalb weniger Minuten durch Texteingabe zu erzeugen.
Die neuen Verfahren stellen die Politik, Medien und Nutzer:innen vor die Frage, wie sich authentische Inhalte von künstlich generierten noch unterscheiden lassen. In der Studie mit dem Titel „In Transparency We Trust?“ suchen Ramak Molavi Vasse’i und Co-Autor Gabriel Udoh im Auftrag der Mozilla Foundation nach Antworten. Molavi leitete das „Meaningful AI Transparency Research Project“ bei der Mozilla Foundation, Udoh beschäftigt sich als Jurist unter anderem mit Fragen der KI-Regulierung.
Es gibt kein Allheilmittel
In ihrer Studie kommen die beiden Forschenden zu dem Schluss, dass es kein Allheilmittel gegen die drohende Flut von KI-generierten Inhalten gibt. Darunter verstehen sie Daten oder Informationen, die in unterschiedlichem Grad „algorithmisch generiert werden und nicht auf realen Beobachtungen oder Erfahrungen beruhen“.
Grundsätzlich lassen sich diese Inhalte auf zweierlei Art markieren: zum einen mit deutlich erkennbaren Kennzeichnungen, zum anderen durch unsichtbare Wasserzeichen. Mit Hilfe eines „Fitness-Checks“ bewerten Molavi und Udoh, wie nützlich die jeweiligen Techniken sind.
Die deutlich erkennbaren Kennzeichnungen haben aus ihrer Sicht den Nachteil, dass Nutzer:innen diese – vergleichbar mit Nährwertkennzeichnungen bei Lebensmitteln – erst einmal wahrnehmen und einordnen müssen. Außerdem lassen sich sichtbare Hinweise relativ leicht manipulieren oder gar entfernen. Unter anderem die Coalition for Content Provenance and Authenticity (C2PA) bietet eine solche Kennzeichnung an. Der Gruppe gehören neben Adobe auch Microsoft, Nikon, Leica und der französische Werbedienstleister Publicis Groupe an.
Positiver bewerten die Forschenden unsichtbare maschinenlesbare Wasserzeichen. Sie hätten den Vorteil, dass sie in die Medieninhalte eingebettet sind. Damit sei es aufwändiger, sie zu verändern oder zu entfernen. Allerdings hänge der Erfolg dieser Kennzeichnungen „in hohem Maße davon ab, dass es qualitativ robuste, unvoreingenommene und zuverlässige Erkennungsmechanismen“ gebe. Unter anderem Alphabets Tochterfirma Deepmind nutzt für seinen Bildgenerator Wasserzeichen, die für das menschliche Auge unsichtbar sind.
Es braucht einen vielschichtigen Ansatz
Doch selbst wenn Kennzeichnungen gut funktionierten, reichen sie aus Sicht der Forschenden nicht aus, um der drohenden Deepfake-Flut zu begegnen. Stattdessen brauche es einen vielschichtigen Ansatz, der technologische, regulatorische und bildungspolitische Maßnahmen miteinander kombiniert.
Konkret schlagen Molavi und Udoh vor, unsichtbare maschinenlesbare Wasserzeichen zu nutzen. Darüber hinaus plädieren sie für die Entwicklung von „Slow AI“. In Anlehnung an Slow Tech müsse eine Regulierung sicherstellen, dass KI-Technologie fair und sicher sei. Außerdem müssten Unternehmen, die KI-Produkte herstellen und anbieten, ihrer rechtlichen und ethischen Verantwortung gerecht werden.
Desweiteren sollten die Nutzer:innen über die Auswirkungen von KI-Technologie aufgeklärt werden. Viele verstünden noch nicht, welche Folgen künstlich generierte Inhalte haben könnten, selbst wenn diese entsprechend gekennzeichnet sind. „Aufklärung ist der Schlüssel dafür, die Widerstandsfähigkeit der Bürgerinnen und Bürger zu stärken“, betont die Studie. „Und sie ergänzt eine wirksame Regulierung, anstatt sie zu ersetzen.“
Neue Technologien und Regulierungsmaßnahmen sollten außerdem vor ihrem Einsatz getestet werden. Molavi und Udoh plädieren für sogenannte Regulatory Sandboxes. In isolierten Testräumen ließen sich technologische Entwicklungen und rechtliche Maßnahmen vor ihrer Einführung erproben und verfeinern. Etwas Ähnliches fordert auch das EU-Parlament mit Blick auf die KI-Verordnung der EU. Bei den Testläufen sei es wichtig, so betonen die Forschenden, nicht nur die Anbieter von KI-Software, sondern auch die Zivilgesellschaft einzubinden.
> Künstliche Intelligenz nicht nur als Technologie, sondern als sozio-ökologisches System begreift.
Ich frage mich, ob die Fußnote in der Mozilla-Studie gelesen und verstanden wurde. Was ist hier ökologisch (environmental) bzw. worin besteht der Bezug zu den dort gemeinten Algorithmen:
https://arxiv.org/pdf/2305.05733.pdf
Vielen Dank für den Hinweis. Die Formulierung/Übersetzung ist nicht eindeutig. Ich habe den Passus daher entfernt.
Zitat: „Die deutlich erkennbaren Kennzeichnungen haben aus ihrer Sicht den Nachteil, dass Nutzer:innen diese – vergleichbar mit Nährwertkennzeichnungen bei Lebensmitteln – erst einmal wahrnehmen und einordnen müssen.“
Eine steile und freche These: Deutliche Kennzeichnung wird nicht erkannt, und Betrachter sind zu blöd um das zu verstehen. Ich gratuliere zu diesem positiven Menschenbild!
Ganz anders das Wasserzeichen, dass niemand sieht aber jedem sofort auffällt und auf Anhieb kapiert wird. Ja, das ist prima Storytelling und super Entertainment. Danke für diese Lacher!