Jetzt kommt es also endlich, das Gesetz gegen digitale Gewalt, an dem das Justizministerium bereits seit fünf Jahren arbeitet, das schon zu Ampelzeiten versprochen wurde und dann versandete. Am Freitag hat Bundesjustizministerin Stefanie Hubig (SPD) angekündigt, den Entwurf noch diese Woche vorzulegen. Er soll in den kommenden Tagen innerhalb der Bundesregierung abgestimmt werden.
Die sexualisierten Deepfakes, über die derzeit ganz Deutschland spricht, nachdem die Schauspielerin Collien Fernandes ihren Fall öffentlich machte, sie sollen damit unter Strafe gestellt werden.
Nicht nur das Verbreiten und Teilen, sondern schon das Erstellen solcher Aufnahmen wird dann in Deutschland verboten. Und auch viele weitere Schutzlücken zu bildbasierter Gewalt soll das Gesetz schließen, etwa zu heimlichen Aufnahmen in Umkleiden und Saunen oder dem ungefragten heimlichen Filmen eines bekleideten Hinterns – unglaublich, aber all das war bislang nicht explizit strafbar.
Jurist*innen und Betroffene weisen seit Jahren auf diese Ungerechtigkeiten hin. Sie sind nicht nur den Betroffenen kaum vermittelbar, sondern allen, die zurecht fragen, welchen Wert sexuelle Selbstbestimmung in einem Land hat, in dem solche Übergriffe erlaubt ist. Es ist gut, dass das deutsche Strafrecht sie in Zukunft klar verbietet, auch wenn die Reaktion reichlich spät kommt.
Was ist mit den restlichen 97 Prozent?
Gleichzeitig könnte man, wenn man der Justizministerin derzeit zuhört, meinen, damit sei es schon getan.
Alles netzpolitisch Relevante
Drei Mal pro Woche als Newsletter in deiner Inbox.
Das ist es leider nicht. Nur sehr wenige Betroffene von sexualisierter Gewalt zeigen diese derzeit an. Bei digitaler Gewalt liegt der Anteil bei 2,4 Prozent. Das zeigt eine kürzlich erschienene Studie von Bundesfamilienministerium, Bundesinnenministerium und Bundeskriminalamt.
Der mit Abstand größte Teil der Menschen bringt die Fälle also nicht zur Polizei, es folgen nie Ermittlungen oder Anklagen einer Staatsanwaltschaft deswegen. Was die Frage aufwirft: Was ist denn mit den restlichen 97,6 Prozent?
Natürlich kann es sein, dass die Anzeigequote steigt, wenn Betroffene davon ausgehen, dass ihre Anzeigen eine größere Chance für eine Strafverfolgung bieten. Dass mutmaßliche Täter*innen nicht so leicht davon kommen. Dass ihre Schilderungen von der Polizei verstanden und ernst genommen werden und auch vor Gericht. Hier muss der Staat daran arbeiten, dass seine Behörden bei einer Anzeige wegen digitaler und sexualisierter Gewalt nicht als Hindernis und Schikane wahrgenommen werden, sondern als Unterstützung.
Die öffentlich zur Schau gestellte Zufriedenheit der Justizministerin, bei der es nun klingt, als hätte ihre Regierung mit dem Gesetzentwurf quasi schon das Patriarchat halb in die Knie gezwungen: Vor allem Fachleute teilen sie nicht. Sie verweisen stattdessen auf all die vielen Hebel, die darüber hinaus umgelegt werden müssen.
„Dann schäme ich mich noch mehr“
Was Menschen – oder sagen wir es gleich, es sind ganz überwiegend Frauen und Mädchen – fühlen und denken, wenn sie ein sexualisiertes Deepfake von sich im Internet entdecken, beschreibt etwa die Moderatorin Lola Weippert in der Dokumentation, die Collien Fernandes vor zwei Jahren für das ZDF gedreht hat.
Auf die gefälschten Videos von ihr angesprochen sagt Weippert: „Ich schäme mich, dass es so etwas überhaupt gibt. Und dann schäme ich mich noch mehr, wenn ich denke, wie viele Menschen das sehen und denken, das ist echt. Und ich kann nichts dagegen tun.“
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Die Betroffenen fühlen Scham, viele sprechen von Panik, fragen sich, wer die Bilder kennt oder was passiert, wenn Auftrag- und Arbeitgeber*innen, Familie, Freunde diese finden. Sie fürchten um ihre Jobs, ihre Einkommen. Die psychischen und körperlichen Folgen, der Stress, die Angst, sie sind ähnlich wie bei anderen Gewalterfahrungen, der Körper unterscheidet da nicht.
In so einer Situation brauchen Betroffene vor allem praktische und sofortige Unterstützung. Wie können sie dafür sorgen, dass Bilder oder Deepfakes gelöscht werden? Dass sie aus den Suchmaschinen verschwinden? Welche Aussichten hat es überhaupt, Anzeige zu erstatten, und wie müssen sie dafür Beweise sichern?
Recht auf Beratung für Betroffene? Ab 2032.
Dazu gehört juristische Beratung, aber auch psychologische Hilfe. Die Stellen, die solche Hilfe aber anbieten, sind in Deutschland chronisch unterfinanziert. Sie müssen um Stellen und Mittel kämpfen, wissen oft nicht, wie es zum Jahresende finanziell weitergeht. Das Gewalthilfegesetz, das die Bundesregierung vor einem Jahr verabschiedet hat, soll die Beratung in solchen Fällen zu einem Recht machen. Dieser Rechtsanspruch: Er greift ab dem Jahr 2032.
Eine Bundesregierung, die ihre Bürger*innen vor Gewalt schützen will, kann sich nicht auf einer reichlich späten Verschärfung des Strafrechts ausruhen. Tech-Oligarchen haben Technologien entwickelt, die es möglich machen, mit ein paar Klicks und wenigen Worten die sexuelle Selbstbestimmung eines anderen Menschen zu verletzen.
Sie dürfen damit nicht durchkommen und die EU hat bereits Mittel, um sie damit auch nicht durchkommen zu lassen. Weitere Werkzeuge sind in Arbeit. Aber so lange die Technologien in der Welt sind und es auch bleiben werden, so lange das Patriarchat weiterhin stabil und breitbeinig steht, muss die Bundesregierung so schnell wie möglich für das absolute Minimum sorgen: Dass diejenigen, die den Schaden tragen, wenigstens die Hilfe und Unterstützung bekommen, die sie brauchen.

Ich muss mal eine (evtl blöde) Frage stellen: Was genau ist ein Deepfake eigentlich bzw um was geht es in diesem Gesetz hier?
Handelt es sich ausschließlich um real existierende Personen, von denen -egal ob gewollt oder nicht -gefälschte audiovisuelle Aufnahmen im Internet veröffentlicht wurden?
Oder ist es auch ein Deepfake wenn jemand ein Video erstellt, auf dem eine KI-generierte Person zu sehen ist?
Und was ist, wenn die Person von sich selbst ein KI-Video erstellt, das aber nicht veröffentlicht? Wenn ja schon die Erstellung verboten werden soll…
Klingt für mich im ersten Moment nach einer fundamentalen Zensur von (auch lokalen)LLMs
Der Entwurf im Wortlaut ist bislang nicht öffentlich, Spiegel und Tagesschau hatten nur dazu berichtet. Es soll demnach aber um eine Erweiterung des Paragrafen 184k (Verletzung des Intimbereichs durch Bildaufnahmen) gehen und unter Strafe stehen soll das Erstellen von sexualisierten Bildern ohne Einverständnis der Betroffenen. Damit wären Videos und Bilder, die man von sich selbst erstellt, unproblematisch. Wir schauen uns das genau an, sobald wir den Entwurf haben.
@Chris
in der LTO wurde umfangreich über das Vorhaben von Frau Hubig gesprochen, falls ihr jetzt schon einmal mehr Input braucht. Da wird hervorgehoben das bei KI-generierten Inhalten eine fiktive Person NICHT ausreicht, sondern es muss eine Individualisierbarkeit erfüllt sein, so heißt es bspw.:
„Hier muss für die Verwirklichung der neuen Tatbestandsvariante das Opfer individualisierbar sein, weil es sich ansonsten um rein fiktive Darstellungen handeln würde, bei denen kein konkretes Rechtsgut verletzt ist. “
Weshalb ein Rechtsgut plötzlich eine Rolle spielen muss ist komisch, da es Paragraphen gibt die sowas gar nicht erst erfordern, aber naja. Hier die Quelle: https://www.lto.de/recht/nachrichten/n/entwurf-bmjv-verschaerfungen-stgb-strafrecht-schutz-gegen-digitale-gewalt
„Wer einer dritten Person einen mittels eines Computerprogramms erstellten oder veränderten Inhalt (§ 11 Absatz 3), der den Anschein erweckt, ein tatsächliches Geschehen in Bezug auf eine andere Person wiederzugeben, und der geeignet ist, dem Ansehen dieser Person erheblich zu schaden, unbefugt zugänglich macht, wird mit Freiheitsstrafe bis zu zwei Jahren oder mit Geldstrafe bestraft, wenn die Tat nicht in anderen Vorschriften mit schwererer Strafe bedroht ist.“
Mit diesem im LTO Artikel zitieren Wortlaut eines Teil des Gesetzes ist die Tür für die Unterdrückung der Meinungsfreiheit geöffnet. Da ist keine Hürde für einen Anfangsverdacht und Hausdurchsuchung. Memes, Satire und andere künstlerische Ausdrucksarten sind davon direkt betroffen.
Also die Forderungen aus dem Post finde ich ja alle völlig richtig. Aber der Titel ist doch total daneben.
Warum sollte die Bundesregierung denn nun gleich den Anspruch haben „das Patriarchat zu stürzen“? Kann man nicht wenigstens mal bei konkreten Maßnahmen für konkrete Probleme bleiben?
Nicht, dass ich große Sympathie für die Regierung Merz habe. Aber bleibt doch bitte mal realistisch: Das ist ungefähr so, wie wenn man schreiben würde: „Mietpreisbremse beendet nicht den Kapitalismus“ oder „EEG-Umlage verhindert nicht den Klimawandel“.
Ernst gemeinte Frage von mir, aber wo fängt „digitale Gewalt“ an? Ich spiele z. B. gerne viele Rollenspiele und in World of Warcraft kann man NPC so wie Spielercharaktere /lecken, /küssen, /sexy usw. Wenn ich also ein Spielercharakter mit dem Emoticon /lecken anvisiere dann taucht ein Text auf, wo steht das ich „Name“ lecke.
Ist das digitale Gewalt? Wenn ja, soll ich Fr. Hubig jetzt so verstehen das sowas mit physischer Gewalt gleichgestellt ist? Ich befürchte das solche Vorhaben Menschen eher noch stärker radikalisieren. Das sieht man insb. in den USA wo junge Männer explizit umworben werden.
Noch einmal: es ist unstrittig, dass Opfern geholfen werden muss. Das geschieht nicht angemessen, zumal die persönlichen Auswirkungen fatal sein können. Hier muss zwingend nachgearbeitet werden.
Aber:
§ 201a Strafgesetzbuches (StGB):
Mit Freiheitsstrafe bis zu zwei Jahren oder mit Geldstrafe wird bestraft, wer
…. eine Bildaufnahme, die in grob anstößiger Weise eine verstorbene Person zur Schau stellt, unbefugt herstellt oder überträgt,
Wenn in deepfakes ein das Opfer identifiziert werden kann, würde ich schon von einer Bildaufnahme bzw. einem Equivalent dazu sprechen. Soweit ich weiß muss ein Staatsanwalt unter Umständen (relatives Antragsdelikt, z.B. wenn es um Kinder geht) hier tätig werden.
Aus meiner Sicht sind „Spezialgesetze“ wenig sinnvoll, verkomplizieren alles und schaffen neue Lücken. Die (hier schwere!) Verletzung des Persönlichkeitsreichts (und IMHO der Menschenwürde) ist abolut hinreichend, um gegen Deepfakes angemessen vorzugehen. Siehe auch https://dejure.org/dienste/vernetzung/rechtsprechung?Text=4+StR+49%2F20
Eine weitere Frage ist wie ist das denn erkennbar? Bei Kinderpornografie ist eindeutig erkennbar das man hier eine Strafbare Handlung begeht. Bei KI generierten Pornos wird es schwierig, zumal diese ja immer besser werden. Noch etwas, vielleicht sollten Urheber dafür sorgen das KI Modelle nicht mit den späteren Opfern trainiert werden können. Gerade bei Personen des öffentlichen Lebens macht man es der KI gerade zu einfach. In der Praxis ist die Erstellung solcher Videos aber nicht sehr einfach, fast alle öffentlichen zugänglichen KI erstellen keine Pornografie. Die Erstellung von Videos ist in der EU schwierig und bei allen KI mit hohen kosten verbunden. Mit der Strafbarkeit erwischt man nicht jene die solche Videos erstellen, sondern jene die diese unwissentlich teilen.
In den Agenturmeldungen zu diesem Gesetzesvorschlag war wiederholt zu lesen: „IP-Adressen sollen dafür für drei Monate gespeichert werden dürfen.“ Hat die Union nun einen Weg gefunden, ihren lange gehegten Traum der Vorratsdatenspeicherung doch durchzubekommen? Zu diesem Punkt, der alle Netznutzer:innen unter Generalverdacht stellt, hätte ich mir eine klare Positionierung von Netzpolitik gewünscht – wiewohl es selbstverständlich verurteilenswert ist, was Frau Fernandes und vielen anderen Betroffenen passiert.
Ernst gemeinte Frage: Woher will der Staat wissen wer ein konkretes Bild zuerst hergestellt hat? Wenn das Erstellen strafbar ist aber nicht der Besitz?
Das „Tracken“ von Personen soll ja lt. dem LTO Bericht strafbar werden. Meine Mutter „trackt“ meinen Vater z. B., weil dieser gesundheitlich nicht mehr so fit ist. Da er auch – auf Empfehlung des Arztes – Spaziergänge macht, kann sie so jederzeit sehen wo er ist. Mein Vater ist damit einverstanden. Wird das jetzt verboten und was kann man dagegen tun, dass das nicht als digitale Gewalt interpretiert wird?
Das machen die Digitalkonzerne noch viel genialer im Hintergrund, die Strafbarkeit würde dazu führen das man dem Grundsätzlich zustimmen müsste um ein Gerät überhaupt zu nutzen. Sie müssen ihren Vater um Erlaubnis Bitten und das am besten schriftlich fixieren. Aber Ihr Vater würde Sie auch nicht Anzeigen und ein öffentliches Interesse bestünde nicht. Wie sie dann sicherstellen das diese Standortdaten nicht an dritte gelangen können dürfte interessant werden. Wie immer haben solche Dinge ungeahnte Seiteneffekte, mit denen sich die Justiz beschäftigen darf.
„oder sagen wir es gleich, es sind ganz überwiegend Frauen und Mädchen“
„so lange das Patriarchat weiterhin stabil und breitbeinig steht“
Ehrlich gemeinte Frage: Was hat es für einen praktischen Nutzen, immer wieder darauf hinzuweisen, dass die Täter meistens Männer und die Opfer meistens Frauen sind? Reicht es nicht, dass es Opfer (welchen Geschlechts auch immer) gibt, um Maßnahmen zu rechtfertigen?
Gegen Deepfake-Pornos kann man die Gesetze ja nachschärfen. Aber was garnicht geht ist das im Windschatten der politischen Forderungen dazu auch wieder die Vorratsdatenspeicherung und eine Klarnamenpflicht mitschwimmen. Überlegt doch mal einen Schritt weiter: was passiert wenn junge Frauen z.B. auf Social Media nur noch mit Klarnamen unterwegs sein dürften?
Davon sollte man sich klar abgrenzen IMO – sonst kann nur das Gesamtpaket aus Gesetzen aufs Schärfste abgelehnt/bekämpft werden
Ist halt wie immer. Es wird versucht einen Fall zu nutzen, um möglichst viele Überwachungswünsche auf einmal durchzusetzen.
Vor allem die VDS als Lieblingsthema der SPD und Union. Bzw jetzt auch Klarnamenpflicht.
Die Politiker wissen inzwischen ja längst wie es geht:
Warten, bis was passiert und die Massen dahingehend beunruhigt sind und daraus ein Problem entsteht.
Dann daherkommen und eine Lösung präsentieren, die – scheinbar primär – das Problem lösen soll, aber sekundär letzlich nur weitere Überwachung, Zensur und neue Probleme schafft. Und obendrein dann noch möglichst viele der alten Wünsche mit reinpacken.
Es ist inzwischen so vorhersehbar wie sonstwas.
Hätte mich fast schon nicht gewundert, wenn auch wieder Forderungen zur Chatkontrolle oder Biometrie oder sonstwas gekommen wären… Man erinnere sich an das „Sicherheitspaket“ von damals.
Und generell Social Media und Klarnamen:
Ich bin mal gespannt, angesichts der Debatte um Ausweise für Linux bzw Betriebssysteme, die jetzt in den USA wieder gekommen ist,
a) wann das Thema bei uns bzw in der EU wieder aufflammen wird und
b) sollte das durchkommen über kurz oder lang aus „Wir speichern nur dein Alter sonst nichts, trust me“ nicht doch ein „Politik verpflichtet Betriebssysteme zur dauerhaften Speicherung des Klarnamens bei Ausweiskontrolle“ wird. Der Schritt ist minimal.
Vor allem, wenn man bedenkt, dass die Klarnamenpflicht gerade wieder im BMI diskutiert wird
https://www.msn.com/de-de/nachrichten/politik/innenministerium-offen-f%C3%BCr-abschaffung-der-anonymit%C3%A4t-im-internet/ar-AA1ZiK8G?ocid=winp2fp&cvid=69c2ac80235c419689d056116e859baa&ei=53