In den vergangenen beiden Tagen war die EU-Innenkommissarin Ylva Johansson in Berlin. Anlass ihrer Reise: die umstrittenen EU-Pläne zur Bekämpfung sexualisierter Gewalt gegen Kinder. Auf ihrer Agenda standen dabei Treffen mit Bundesinnenministerin Nancy Faeser (SPD) und Bundesjustizminister Marco Buschmann (FDP).
Derzeit diskutiert der Ministerrat der EU über das Vorhaben, besonders umkämpft sind dabei die Pläne zur sogenannten Chatkontrolle. Nach dem Willen der EU-Kommission sollen künftig Anbieter von Diensten im Internet auf Anordnung die Inhalte von Nutzer:innen durchleuchten müssen – um sie etwa auf Darstellungen sexualisierter Gewalt oder Grooming zu scannen.
Nach einer Phase mit widersprüchlichen Aussagen positioniert sich Deutschland mittlerweile klarer gegen eine Schwächung oder Umgehung von Verschlüsselung. Wie die Gespräche der Kommissarin mit den Bundesminister:innen liefen, ist bislang nicht bekannt. Justizminister Buschmann twitterte danach: „Wir sind uns in der Bundesregierung einig: Chatkontrollen lehnen wir ab. Eine anlasslose Überwachung privater Kommunikation hat in einem Rechtsstaat nichts zu suchen“.
Außerdem schrieb Buschmann: „Deshalb lehnen wir generelle flächendeckende Überwachungsmaßnahmen privater Korrespondenz gerade auch im digitalen Raum ab.“ Ins Auge stechen dabei die überspezifischen Worte „anlasslos“, „generell“ und „flächendeckend“. Befürworter:innen der Chatkontrolle weisen immer wieder darauf hin, dass die Überwachung lediglich gezielt und auf Anordnung passieren würde. Offensichtlich lässt der Justizminister an dieser Stelle noch Spielraum offen.
Faktencheck des SPIEGEL-Interviews
Flankiert wurde Johanssons Berlin-Visite von einem Interview mit dem SPIEGEL (€). Darin verteidigte sie die Kommissionspläne mit Nachdruck. An mindestens zehn Stellen sind ihre Aussagen jedoch irreführend oder schlicht falsch. Wir haben uns die Aussagen der Kommissarin deshalb genau angeschaut:
1. „Ich habe nicht vor, die Überprüfung von digitaler Kommunikation auszuweiten“
Das ist falsch. Der Entwurf der EU-Kommission sieht vor, dass Online-Anbieter auf Anordnung sogar private Chats durchleuchten müssen. Verdachtsmeldungen sollen sie an ein EU-Zentrum weiterleiten. Dieses EU-Zentrum müsste erst noch geschaffen werden. In diesem Zentrum sollen dann amtliche Sichter:innen die verdächtigen Inhalte überprüfen und Falschmeldungen aussortieren. Es handelt sich um eine neue Infrastruktur und reihenweise neue Angestellte – also eindeutig eine Ausweitung.
Bisher durchleuchtet nur eine handvoll sehr großer Diensteanbieter Inhalte. Sie tun das freiwillig, wobei fraglich ist, ob sie das rechtlich überhaupt dürfen. Johansson selbst sagt dazu: „Heute tun viele Unternehmen, was sie für richtig halten, ohne dass dies mit unseren Datenschutzbestimmungen übereinstimmt.“ In Zukunft sollen jegliche Diensteanbieter zur Durchleuchtung von Inhalten verpflichtet werden können. Diese Anbieter durchsuchen momentan auch nur unverschlüsselte Inhalte auf ihren Servern. In Zukunft sollen sie auch verschlüsselte Inhalte durchsuchen, und das möglicherweise auch auf Endgeräten wie Smartphones.
Die E-Privacy-Richtlinie verbietet das Durchleuchten privater Kommunikation, weil die Vertraulichkeit privater Kommunikation ein Grundrecht ist. Manche Anbieter wollen aber die Daten ihrer Nutzer:innen trotzdem nach Hinweisen auf Missbrauch durchsuchen, also gibt es seit Juli 2021 eine temporäre Ausnahme dieser Regel. Darin geht es um „Online-Material über sexuellen Missbrauch von Kindern“. Mit ihrem neuen Entwurf will die Kommission aber auch die Suche nach unbekanntem Material und Grooming verpflichtend machen. Grooming nennt man es, wenn Erwachsene zu Kindern Kontakt anbahnen.
2. „Letztes Jahr gab es weltweit 32 Millionen Meldungen der Unternehmen über sexuellen Kindesmissbrauch“
Das ist irreführend. Offenbar bezieht sich Johansson an dieser Stelle auf die Arbeit einer US-amerikanischen Organisation namens NCMEC („National Center for Missing and Exploited Children“). Das NCMEC sammelt von großen Online-Anbietern Hinweise auf sexualisierte Gewalt gegen Kinder. Die Zahl von rund 30 Millionen eignet sich aber nicht, um die Anzahl potenzieller Opfer auch nur annähernd abzuschätzen. Mehr als 90 Prozent der Meldungen kommen allein von Meta, also dem Konzern, zu dem Facebook, Instagram und WhatsApp gehören. Davon wiederum sind ein Großteil Duplikate, also Aufnahmen, die wieder und wieder geteilt werden. Hier haben wir ausführlich analysiert, was die Zahlen des NCMEC aussagen – und was nicht.
3. „Ohne meine neue Gesetzgebung wird es diese Meldungen nicht mehr geben“
Das ist irreführend. Die von der EU geplante Chatkontrolle ist nicht zwingend nötig, damit die erwähnten Verdachtsmeldungen weiter fließen. Weniger invasive Lösungen sind möglich. So arbeitet das NCMEC aktuell auch ohne Zugriff auf Ende-zu-Ende-verschlüsselte Kommunikation. Die Sichter:innen werten nicht alle Verdachtsmeldungen selbst aus. Laut einem EU-Bericht sichten sie lediglich Fälle aus den USA. Meldungen aus anderen Ländern leiten sie weiter. Viele Fälle aus der EU landen bei der europäischen Polizeibehörde Europol. Von dort können die Meldungen dann zu den Mitgliedstaaten gehen; in Deutschland greifen die Landeskriminalämter die Meldungen auf.
4. „Sehen Sie, ich fordere die großen Unternehmen heraus. Die wollen nicht reguliert werden“
Das ist irreführend. Die geplante Verordnung beschränkt sich nicht auf „große Unternehmen“ wie Google, Apple oder Meta. Sie betrifft potentiell alle Internet-Dienste. Die Kritik an der Chatkontrolle lässt sich auch nicht auf eine Lobbykampagne aus der Industrie reduzieren. Es geht nicht nur um die Interessen großer Unternehmen sondern um Grundrechte. Kritik an den Vorschlägen äußern viele: Die Datenschutzbeauftragten der EU-Länder inklusive dem deutschen Bundesdatenschutzbeauftragten, der Bundesrat, mehrere Ministerien, der UN-Menschenrechtskommissar, Kinderschutz- und Journalist:innenverbände sowie Bürgerrechtler:innen.
5. „Sie sind die Einzigen, die den sexuellen Missbrauch von Kindern im Internet stoppen können“
Das ist falsch. Online-Anbieter zum Durchleuchten von Kommunikation zu zwingen, ist keinesfalls das einzige Mittel gegen Gewalt an Kindern. Das Internationale Netzwerk für Kinderrechte hat in einem Bericht zahlreiche Lösungen skizziert, wie Kindern besser geholfen werden kann. Dazu gehören Meldemechanismen, mit denen sich Minderjährige wehren oder Hilfe anfordern können, wenn sie belästigt werden oder verstörende Inhalte sehen. Vor allem aber müssten verschiedene Akteur:innen zusammenarbeiten, wie die Kinderschützer:innen erklären. Dazu gehören etwa Ermittlungsbehörden, Sozialarbeiter:innen, Betroffenenhilfe, Schulen und ärztliche Praxen. Dafür fehlen aber oftmals Ressourcen.
Auch in Deutschland sind beispielsweise Jugendämter oft in Personalnot und fordern eine bessere Ausstattung. Das würde die Situation für Kinder ganz unmittelbar verbessern, unabhängig davon, ob sie von physischer oder digitaler Gewalt betroffen sind.
6. „Es geht um viele Kinder, die wir retten können“
Das ist irreführend. Kinder retten kann das geplante Gesetz wohl nur in Ausnahmefällen. Von der automatisch generierten Verdachtsmeldung im Netz bis hin zum Kind in Not ist es ein extrem langer Weg. Warum das so ist, haben wir hier Schritt für Schritt erklärt. Statt einer Rettung für Kinder steckt hinter der Chatkontrolle vielmehr eine systematische Nacktbildersammlung, die beispielsweise auch einvernehmlich erstellte Aufnahmen zwischen Jugendlichen umfasst.
Anschaulich wird das Problem, wenn man zum Vergleich Zahlen des US-amerikansichen NCMEC heranzieht. Im Jahr 2021 hat die Organisation 85 Millionen Aufnahmen registriert. Doch bloß in 4.260 Fällen hat das NCMEC daraufhin Ermittlungsbehörden informiert, mit dem Verdacht, dass die Beamt:innen damit etwas anfangen können. Das entspricht 0,005 Prozent der registrierten Aufnahmen – beziehungsweise 0,05 Promille.
„Kinder und Jugendliche sind vor allem im eigenen Umfeld der Gefahr sexueller Gewalt ausgesetzt. Bei rund drei Viertel der Fälle geschieht das in der eigenen Familie oder im sozialen Nahfeld.“ Das sagt das zuständige Bundesministerium für Familie, Senioren, Frauen und Jugend. Dort kann der Staat Kinder „retten“, dort kann Prävention sehr viel bewirken.
7. „Es gibt Erkennungstechnologie, die so eingesetzt werden kann, dass die Verschlüsselung erhalten bleibt“
Das ist irreführend. Das Interview-Team des SPIEGEL hat das allerdings auch direkt im Gespräch angemerkt. Hinter der Aussage steckt eine technische Spitzfindigkeit. Bei Ende-zu-Ende-verschlüsselter Kommunikation können nur Sender:in und Empfänger:in eine Nachricht lesen. Wer die Daten auf dem Weg abfängt, sieht nur Zeichensalat. Bleibt also die Möglichkeit, Inhalte vor oder nach dem Ende-zu-Ende-verschlüsselten Versand zu überprüfen. Genau dafür gibt es Lösungen, die im Rahmen der Chatkontrolle diskutiert werden, zum Beispiel Client-Side-Scanning. In diesem Fall wird der sicher verschlüsselte Versand der Nachricht nicht angerührt, die Nachricht aber vor dem Versand gescannt. Für betroffene Nutzer:innen bringt das keinen Vorteil: Ihre Chats sind nicht mehr privat; die Vertraulichkeit von Kommunikation und die Integrität von IT-Systemen wird verletzt.
8. „Es ist vielmehr so, als würde man einen Polizeihund Pakete beschnuppern lassen, ob sich darin Kokain verbirgt“
Das ist irreführend. Zwar geht es sowohl bei Chatkontrolle als auch bei der Kontrolle durch Spürhunde um das Brief-, Post- und Fernmeldegeheimnis. Da hören die Gemeinsamkeiten aber auch schon auf. Digitale Kommunikation ist oft intensiv und intim. Sie passiert oft mehrfach täglich; Chats sind elementarer Bestandteil vieler enger Beziehungen. Der Zugriff auf digitale Kommunikation ist ungleich invasiver als der Zugriff auf Pakete. Hinzu kommt, dass sich digitale Kommunikation massenhaft durchsuchen lässt. So viele tierische Spürnasen könnte man gar nicht finden, selbst wenn man die Hunde aus allen Tierheimen der Welt rekrutiert.
Der Vergleich scheitert auch beim Client-Side-Scanning, also dem Durchleuchten der Inhalte vor dem Versand: Um im Bild zu bleiben, würde der Polizeihund dann nicht mehr an den Paketen auf dem Weg zu ihren Empfänger:innen schnüffeln. Der Hund wäre dann immer dabei, wenn wir in der Wohnung die Pakete einpacken.
9. Zur Frage nach den Gründen für den Widerstand in Deutschland: „Das müssten Sie mir erklären“
Das ist irreführend. Johansson tut hier so, als würde sie die Argumente nicht kennen. Dabei ist der Widerstand, der aus Deutschland kommt, gut begründet und greift zahlreiche Argumente auf, die selbst die EU-eigene Datenschutzaufsicht ausführlich in englischer Sprache dargelegt hat. Durch ihre zur Schau gestellte Unkenntnis diskreditiert Johansson die grundlegende Kritik von Politiker:innen und Zivilgesellschaft. Es ist allerdings sehr unwahrscheinlich, dass sie sich damit nicht auseinandergesetzt hat. Immerhin hat sich Johansson diese Woche mit deutschen Spitzenpolitiker:innen getroffen, um über die Chatkontrolle zu sprechen – ohne Briefing dürfte keine EU-Kommissarin eine solche Reise antreten.
10. „Dann wird es ab 2024 keinen Schutz mehr vor sexuellem Kindesmissbrauch im Netz geben. Weil dann die dafür nötigen Instrumente in der EU verboten sein werden.“
Das ist falsch. Johansson bezieht sich an dieser Stelle wohl darauf, dass die aktuell geltende Verordnung zur „Bekämpfung des sexuellen Missbrauchs von Kindern“ im August 2024 ausläuft. Diese Leerstelle soll dann der neue Entwurf der Kommission füllen, der auch die Chatkontrolle umfasst. Doch selbst wenn dieser Entwurf scheitert oder sich verzögert, wird die EU in Sachen Kinderrechte nicht in ein Vakuum stürzen. Zum Beispiel regelt auch das neue Digitale-Dienste-Gesetz (DSA), wie Plattformen mit Missbrauch umgehen sollen. Demnach sollen sie unter anderem leicht zugängliche Meldemechanismen haben, Hinweise auf illegale Inhalte bearbeiten, Verdachtsmeldungen an Behörden weitergeben und missbräuchliche Nutzer:innen sperren. Für sehr große Plattformen gibt es verschärfte Regeln, demnach sollen sie etwa bewerten, welche Risiken ihre eigenen Dienste bergen und etwas dagegen unternehmen.
>> Bisher durchleuchtet nur eine handvoll sehr großer Diensteanbieter Inhalte. Sie tun das freiwillig, wobei fraglich ist, ob sie das rechtlich überhaupt dürfen. <<
Bitte die Namen der "handvoll sehr großer Diensteanbieter" nennen. Die paar Namen hätten im Artikel sicherlich noch Platz gehabt.
Dies ist wichtig, weil es sicherlich auch noch die andere Hand von Diensteanbietern gibt, die das nicht tut.
Sehr gute Zusammenfassung, der nichts hinzuzufügen ist. Nur dies:
Vielleicht sollte man diese Liste bzw. diesen Artikel einer Menge Spitzenpolitiker vorlegen. Denn die irrlichtern oftmals genauso auf dem Holzweg mit Tunnelblick wie Ylva Johansson.
2. „Letztes Jahr gab es weltweit 32 Millionen Meldungen der Unternehmen über sexuellen Kindesmissbrauch“
Es muss sich hier nicht ausschließlich um Meldungen aus NCMEC handeln. Andere Organisation melden auch rein fiktive Inhalte als „sexuellen Kindesmissbrauch“, da es ihre Rechtslage so vorsieht. Wer nun meint das die Abschaffung mehrerer, elementarer Grundrechte für den Schutz von Strichmännchenfigürchen verhältnismäßig ist, der sollte die daraus entstehenden Konsequenzen abwägen. Hier wird verständlicherweise immer aus Sicht von echten Abbildungen argumentiert, aber dann vergessen das all diese Einschränkungen und Grundrechtseingriffe auch dann für eine Strichmännchenfigur greifen, fällt es doch juristisch unter den gleichen Begriff. Die Konflikte die dabei durch die Rechtslage anderer (EU-)Staaten entsteht liegt doch auf der Hand. Es ist absurd von Kinderschutz zu sprechen, wenn Ressourcen gebündelt werden, um jahrelange Rechtsstreite mit Plattformen zu führen, die sich auf ihre nationale Rechtslage und der Vereinbarkeit mit EU-Recht berufen. Zur gleichen Zeit, aber von Personalnot, dürftiges Equipment, Überlastung usw. gesprochen wird und echtes Material so trotz Anklage u. Festnahme nicht gelöscht wird (s. STRG_F Recherche).
Findet ihr nicht auch, eure Wortwahl von „sogenannten Missbrauch“, klingt, als würdet ihr sexuellen Missbrauch verharmlosen?
Die Idee hinter dem „sogenannt“ ist, dass das Wort „Missbrauch“ im Bezug auf Kinder selbst umstritten ist, weil es suggeriert, dass es auch einen „Gebrauch“ von Kindern geben könnte. Deswegen war das sogenannt dort als Distanzierung zu diesem Wort drin. Ich habe das Wort jetzt entfernt, weil es missverständlich ist.
Es ist auch Missbrauch, wenn Jugendliche Sexting betreiben, oder wenn jemand bestimmte Wörter in einem Satz verwendet, oder eine 5 milliarden Jahre alte Vampirfigur erschafft, also finde ich es schon richtig, wenn man hier differenziert. Habe die Wortwahl auch so verstanden.
„Sexueller Kindesmissbrauch zeigt den dokumentierten Missbrauch an Kindern“ trifft auf die oben genannten Beispiele überhaupt nicht zu. Schade das auch hier nicht kritisch hinterfragt wird, sondern alles in einen Topf landet.
Dass wir von vorne bis hinten angelogen werden gehört doch mittlerweile zum alltäglichen politischen Geschäft.
Gerade bei diesem Thema sind die wahren Beweggründe so offensichtlich, so einsichtig, dass immer wieder Themen wie sexualisierte Gewalt an Kindern vorgeschoben werden müssen um uns genug Sand in die Augen zu streuen.
Glaubt denn irgend jemand, dass der Mißbrauchssumpf in der katholischen Kirche durch mehr Überwachung hätte ausgetrocknet werden können ?
„Dass wir von vorne bis hinten angelogen werden gehört doch mittlerweile zum alltäglichen politischen Geschäft.“
Ja
Weil die Mehrheit der Wähler das so verlangt. Und zwar konservative wie progressive Wähler, halt oft nur bei anderen Themen.
Das macht Politik und Gesellschaft natürlich sehr, sehr schwer und natürlich profitieren die daran am besten angepassten Leute.
„Dass wir von vorne bis hinten angelogen werden gehört doch mittlerweile zum alltäglichen politischen Geschäft.“
Das ist die prekäre Situation. Denn 1. passiert es vor allem, weil wir an die Wand fahren, und 2. beschleunigt es das Andiewandfahren.
Das Pro-Chatkontrolle-Argument „Dann wird es ab 2024 keinen Schutz mehr vor sexuellem Kindesmissbrauch im Netz geben. Weil dann die dafür nötigen Instrumente in der EU verboten sein werden“ ist auch deshalb irreführend, da die Provider darüber lediglich die Hashwerte von Uploads scannen, nicht aber Kommunikation über Messenger, und schon gar keine verschlüsselte. Es geht also um etwas ganz anderes.
Hier ist auch wichtig daran zu erinnern, dass die Firmen die Uploads derzeit FREIWILLIG nach Darstellungen des sexuellen Missbrauchs von Kindern scannen, diese also durchaus am gleichen Strang ziehen wie die Behörden.
Nur um diese Freiwilligkeit rechtlich abzusichern gibt es bis 2024 es die vorläufige Verordnung zur „Bekämpfung des sexuellen Missbrauchs von Kindern“. Die könnte auch einfach verlängert werden.
„ist auch deshalb irreführend, da die Provider darüber lediglich die Hashwerte von Uploads scannen, nicht aber Kommunikation über Messenger, und schon gar keine verschlüsselte.“
(1)
Naja schon: mit Beispieleinschicken, nach Anschlagen deines personalisierten Wachhundes, d.h. also Klartext to the moon. Das ist wohl mit geplant.
D.h. in deren „Logik“ belastet dein Endgerät dich dann direkt auch mit, oder in der „harmlosen“ Variante: verhindert, dass du arbeiten kanns (falsche Positive). Das Ganze auf einem der harmloseren Zweige (relativ zur apokalyptischen Dummheit zu sehen, die dieses insgesamt darstellt).
Dafür muss also sichergestellt sein, dass es „für beide Seiten“ nicht schlimmer als das wird, d.h. z.B. dass Manipulation dadurch verhindert wird, dass es nicht nur in der Hand der Sendeseite (App) liegt, ob eine Hashprüfung stattfindet, und ob Beispiele eingeschickt werden können, sondern auch auf der Empfangsseite irgendeine Form der Validierung stattfindet. Damit fällt dieses Szenario eigentlich, da es für sich schon nicht funktioniert, und spätestens im Falle von „Verschwörern“, d.h. manipulierten Apps auf Sende- und Empfangsseite keine Wirkung mehr haben wird. Kids kann man damit dann etwas abschirmen, sonst nichts. Ginge mit eine Kinderapp besser.
(2)
Also schlimmer: u.a. auch weil damit Technologiefolgen erzwungen werden, wenn man die Ziele bzw. die „Mittel zum Zweck“ ernst nimmt, die dann sicherstellen, dass du dein Gerät bzw. die App nicht manipulieren kannst, z.B. um das Beispieleinschicken zu verhindern. Daraus folgt zwangsweise, dass entweder die Verschlüsselung komplett wegfliegt, oder die Empfangsseite einen Denuntiationsfreischein erhält, indem sie die empfangenen Bilder zur Belastung der Sendeseite auch einschicken darf :). Ginge mit einer Kinderapp besser.
(3)
Das ist zivilisatorisch hinderlich und fördert Inkompetenz in der Breite, während es wichtige Resourcen der Zivilgesellschaft bindet.
2. Technisch mit Hashes.
Es gibt sicherlich jede Menge potentiell verwirrender „Möglichkeiten“, irgendwie mit Hashes zu arbeiten. Die Kernfrage ist dann, wie schlimm es werden muss, wenn man das überhaupt angeht, wenn man denn sicherstellen muss, dass das System nicht umgangen wird. Da gibt es noch folgende Aspekte:
– Kriegt der Messengerbetreiber einen Hash vom Klartext von Bildern oder allgemein Inhalten, bedeutet das bereits sehr konkret Trackingmöglichkeiten, wer wem wann ein Bild geschickt hat. Ist das dann auch noch der Bildhash zum Abgleich mit Datenbanken, und nicht etwa nur der Dateihash zum Zweck der Konsistenzprüfung, bedeutet das bereits, eine Menge Information über die Inhalte der ausgetauschten Daten in der Hand zu halten. Wir könnten uns also „lobbyseitig“ einen Reigen an Trackingfolgen einhandeln, der vor allem wieder der Big Tech und allgemein der Trackingbranche nützt, und damit das kommerzielle Gleichgewicht weiter in Richtung solcher Player schiebt, da diese mit „bestem Schutz“ werben können, aber immer mehr kommerziell auswertbare Inhalte bekommen.
Will man sicherstellen, dass die Prüfungen nicht umgangen werden, gäbe es einige Konzeptansätze, denen allen die Dämlichkeit zugrundeliegt, dass Verschlüsselung im Weg ist, während endpunktseitige Kontrolle konzeptionell nicht möglich ist, weder für den „bösen Sender“, noch für den „erpresserischen Empfänger“, noch für das „kriminelle Duo“. Die Lösungsansätze sind allesamt entweder anachronistische Sklavenhalterei, die allerlei Schutznotwendigkeiten aushebeln wird, oder können letztlich nicht funktionieren, bzw. legen entweder den Messengerbetreibern allerlei weitere Daten in die Hand, oder sind nichts anderes als eine Schutzsoftware, freundlich formuliert, die man sich selbst installiert, um sich selbst zu schützen, also eine Art Jugenschutzplugin.
Ich will das gar nicht im Einzelnen auflisten, wollte nur auf die Trackingkonsequenzen bei Hashes hinweisen.
3. Fachliche Korrektur: Gemeint ist mit dem Trackingszenario, dass wir wieder die Diskussion um die Coronaapp als Neuauflage kriegen (Regelungsbedarf gegen „Sicherstellen“), wenn sichergestellt werden soll, dass nicht manipuliert wird.
Korrekt wäre wenn dann sowas wie:
– Sender sendet also verschlüsseltes Bild.
– Sendet Hash von Inhaltshash+Salz an Messengerdienst (wenn nicht peer to peer, dann Treuhand).
– Messengerdienst kann so nicht wissen, welche Datei das ist, auch nicht bei identischen Dateien.
– Messengerdienst könnte den „Hash vom Hash“ dann bei der behördlichen Treuhand anfragen, mit ClientIDs, ob das wirklich eingesandt wurde.
– Empfänger kann dann den Hash prüfen, um zu wissen, ob das Bild wirklich geprüft wurde.
Verschworene Sender+Empfänger sind dann trotzdem draußen, das können die eh nicht prüfen. Das können auch manipulierte Apps auf beiden Seiten sein. Das Szenario ist nicht so abwegig, auch wenn „das kriminelle Duo“ hier einfach was anderes nehmen könnte, denn es wird sich unter Garantie auch im Jugendbereich durchsetzen, da man keinen Bock auf Zensur gewisser Inhalte hat, dass intentional oder durch Unterjubeln, Paare manipulierter Apps genutzt werden. Bei dem was kaputtgeht, wäre es um Welten sinnvoller, Anbieter zur Bereitstellung einer Schutzplugin-API zu verpflichten – natürlich erzwingt man dann nicht in jedem OS eine Kinderschutzfunktion, bestenfalls zwingt man Eltern dazu, mitzuhaften, wenn sie kein System mit Kinderschutzfunktion bei ihren Kindern einsetzen.
Bei diesen Vorhaben ist einfach (mehrfach) alles falsch (/herum).
Es wird noch besser:
Euer Telekommunikationsprovider darf euch lückenlos mit einer Datenstrom-ID tracken und diese, für Werbung, an Interessenten weitergeben.
https://www.heise.de/news/Online-Werbung-Telcos-bringen-
eigene-Plattform-gegen-Google-Co-in-Stellung-7490528.html
„Grundlage sei ein „sicheres und pseudonymisiertes Token, das von einer gehashten und verschlüsselten pseudonymen internen ID abgeleitet wird, die
mit dem Vertrag der Kunden verknüpft ist“.
Das Token versetze Werbekunden oder Medienpartner in die Lage,
einzelne Nutzer zu erkennen, ohne identifizierbare Daten über sie zu kennen, heißt es weiter“
„Der so vom Netzbetreiber markierte Datenverkehr wird dann zur Bildung eines persönlichen Profils genutzt, auf das dann Werbekunden und Websitebetreiber
zugreifen können sollen.“
WOW
„Missbrauch von Kindern im Internet“?
Was muss man sich darunter vorstellen? Im Internet gibt es bestenfalls Fotos und Videos, die Missbrauch dokumentieren. Wenn überhaupt: Gerade die großen Datenbanken mit „Missbrauchsfotos“ enthalten offenbar zu einem großen Teil FKK-Bilder aus dem letzten Jahrhundert. Da waren sie erstens noch völlig legal (sind es oft auch heute noch), zweitens wird kein Missbrauchsfall verhindert, wenn man alte Fotos zensiert.
Wer Kindesmissbrauch stoppen will, muss die Ärmel hochkrempeln und hart arbeiten: Kindesmissbrauch passiert in Familien. Durch Verwandte und Bekannte. Er könnte verhindert werden durch eine bessere Betreuung durch Jugendämter, durch bessere Entscheidungen durch Jugendgerichte. Durch Polizisten, die Kindesmissbrauch als Problem sehen, statt – Beispiel Lügde – Beweise durch schlampiges Ermitteln erst gar nicht sicher zu stellen, und, wenn doch mal was in der Asservatenkammer landet, diese Beweise dann zu vernichten.
Innenminister Reul hat seine Polizisten vor Konsequenzen geschützt.
Weil es einfacher ist, Überwachung und Zensur zu fordern, als die Ärmel hoch zu krempeln und zu arbeiten.
„In diesem Zentrum sollen dann amtliche Sichter:innen die verdächtigen Inhalte überprüfen und Falschmeldungen aussortieren“
Wer kontrolliert eigentlich die Kontrolleure?
Die EU an sich ist schon eine bürokratische Veranstaltung ohne nennenswerte demokratische Kontrolle (Frau von der Leyen wurde von Bundeskanzlerin Merkel ernannt, obwohl Parlament und Wähler einen anderen Kommissionschef gewählt hatten!).
Viele EU-Behörden unterliegen dann überhaupt keiner Kontrolle, jedenfalls – wie etwa Europol – keiner Kontrolle, die in der Praxis etwas kontrollieren kann. Oder, wie Europol selber auf seiner Webseite schreibt: „EU justice and interior ministers, MEPs, other EU bodies, a management board drawn from all EU Member States, and its directorate all play important roles in managing Europol and ensuring that it is accountable.“
Wenn alle irgendwie mitkontrollieren, kontrolliert niemand.
Wenn, sagen wir, Europol-Chefin Catherine De Bolle so richtig gegen – wogegen eigentlich? Eine Verfassung die Bürgern irgendwelche Rechte zugesteht, hat die EU ja nicht – wenn also Europol-Chefin Catherine De Bolle so richtig Mist bauen sollte: Wer könnte sie absetzen? Viele Gremien könnten beraten, viele Politiker den Rücktritt fordern.
Aber wer könnte sie rauswerfen? Und wie?
Und welche Garantien gibt es, dass eine europäische Datensammelbehörde besser kontrolliert wäre?
„In Zukunft sollen jegliche Diensteanbieter zur Durleuchtung von Inhalten verpflichtet werden können. Diese Anbieter durchsuchen momentan auch nur unverschlüsselte Inhalte auf ihren Servern.“
Das ist anscheinend mittlerweile überholt: https://www.heise.de/news/Microsoft-untersucht-auch-passwortgeschuetzte-zip-Dateien-auf-Malware-9057387.html
Erstklassige Zusammenfassung. danke für euer Engagement!
{‚id‘: 23261, ’name‘: ‚Algorithmische Diskrimineriung‘, ’slug‘: ‚algorithmische-diskrimineriung‘}
{‚id‘: 22227, ’name‘: ‚algorithmische diskriminierung‘, ’slug‘: ‚algorithmische-diskriminierung‘}
Danke, ist nun korrigiert.