Da hat sich Apple nun über Jahre einen Ruf aufgebaut, eine Bastion der Privatsphäre und des Datenschutzes zu sein – und jetzt das: Das Unternehmen plant, alle Bilder in seinen Betriebssystemen zu durchleuchten. Damit verschafft sich Apple Zugang zu den Dateien der Nutzer:innen – um dort nach Darstellungen von Kindesmissbrauch zu suchen.
Nun ist der Kampf gegen die Verbreitung von Missbrauchsbildern ein ehrenwerter und wichtiger, doch Apple schafft mit dem System eine weltweite Infrastruktur für Überwachung und Zensur. Direkt auf den Smartphones und Rechnern seiner Kund:innen. Denn dort will der Konzern auf den digitalen Speichern nach Bildern suchen und diese mit einer Datenbank abgleichen. Schlägt das System bei mehreren Bildern an, sendet es die inkriminierten Inhalte an Apple, dort schaut ein Mensch über die Ergebnisse und meldet den Fall gegebenenfalls an eine zuständige Stelle, welche dann die Polizei einschaltet.
Schaffung einer Überwachungsinfrastruktur
Wir alle wissen, dass einmal eingeführte technische Möglichkeiten und Infrastrukturen zu mehr Begehrlichkeiten und Forderungen nach deren Nutzung führen. Eine Infrastruktur, die nach so genannter Kinderpornografie suchen und diese melden kann, die kann auch nach jedem anderen Inhalt suchen und diesen melden.
Apple kooperiert heute schon mit Diktaturen, indem es Privatsphäre-Features explizit nicht in China anbietet und dort zehntausende Apps nicht verfügbar sind. Hier war Apple das Geschäft schon immer wichtiger als Privatsphäre und Menschenrechte. Und nun könnte China auch ein Staat werden, der bei Apple demnächst anklopft und die neuen Funktionen auch für ganz andere Themen der Zensur und Überwachung nutzen wollen wird.
Büchse der Pandora
Und wir müssen gar nicht nach China gehen, um zu sehen, dass das Durchsuchen privater Kommunikation auch in Demokratien kein Tabu mehr ist. Die Europäische Union hat jüngst entschieden, dass Messenger die Inhalte der Chats durchleuchten dürfen, um nach Missbrauchsdarstellungen zu suchen. Diese umstrittene Regelung könnte in Zukunft sogar verpflichtend werden.
Das beste Prinzip in Sachen Privatsphäre ist, wenn Unternehmen die Inhalte ihrer Kund:innen nicht kennen und sie wegen wirksamer Verschlüsselung gar nicht kennen können. Apple hat heute schon einen Schlüssel, mit dem es in iCloud geladene Dateien entschlüsseln kann. Mit der neuen Struktur kann Apple nun auch Inhalte auf dem Gerät selbst durchsuchen und im Fall eines Treffers Inhalte aus dem System herausschicken.
Wenn Apple seine Pläne für zunächst US-amerikanische Kund:innen umsetzt, öffnet es die Büchse der Pandora und etabliert ein System, das zu mehr Zensur und Überwachung führen wird. Es ist sowieso eine Unverschämtheit großer Konzerne wie Apple, dass sie eigenmächtig den gesellschaftlichen Konsens, dass private Kommunikation auch privat ist, einfach so verschieben können. Wir sollten ihnen solche Entscheidungen nicht durchgehen lassen.
Das passt schon zusammen: um diese Funktion abzusichern, wird Apple die Erlaubnis bekommen, das Geraet der Kontrolle des Benutzers weitestgehend zu entziehen. Das wird dann auf die gesamte Produktpalette ausgedehnt. Perfekter walled garden, in dem Apple alles kontrolliert und fuer alles kassiert.
„Die Bestimmungen des PATRIOT Act erlauben US-Behörden wie dem FBI, der NSA oder der CIA nicht nur den Zugriff ohne richterliche Anordnung auf die Server von US-Unternehmen. Auch ausländische Töchterfirmen sind nach dem US-Gesetz verpflichtet, Zugriff auf ihre Server zu gewähren; selbst dann, wenn lokale Gesetze dies untersagen.“ Quelle Wikipedia
Datenschutz bei einer amerikanischen Firma ist eh eine Illusion.
Aber es ist halt viel einfacher mit so abscheulichen Straftaten wie Kindesmissbrauch, in Daten zu schauen als mit dem Argument, wir betreiben Wirtschaftsspionage. Und da die Ansätze ja komplett ohne Mensch zuerst Mal auskommen, wer weiß für was Apple das selbst nutzt. Gibt es eigentlich eine Statistik wieviele Abgeordnete und Wirtschaftsbosse (Auch Manager in kritischen Positionen Applegeräte nutzen)
Eigentlich könnten mit dieser Argumentation auch die Kamerahersteller gleich bei geschossenen Bildern oder Filmen danach scannen und die Dateien auf deren Server laden. Wäre doch viel effektiver als erst bei Apple😉
Im grunde werden so Polizei Aufgaben privatisiert. Konzerne wollen und Sollen ihre Nutzer nach strafbaren Inhalten durchsuchen. Wohlgemerkt ohne jeden richterlichen Vorbehalt…..
Das BKA bräuchte ein richterlichen Durchsuchungsbefehl um in privater Kommunikation zu schnüffeln…. Konzerne sollen das jetzt ohne dürfen. Hier geht es darum Polizeiliche Aufgaben an die Kapitalistische Privatwirtschaft zu privatisieren. Ein weiterer Schritt hin zur neoliberalen Auflösung des demokratischen Rechtsstaates !
Weiß jemand, warum das geheim sein muss wonach konkret gesucht wird? Das Gesetz muss doch grundsätzlich transparent sein, und bei dem bemängelten Content muss doch letztendlich „klar“ sein, dass er auf der liste steht.
Typische Halblogik der Behörden:
– bei einer offenen Liste könnten Täter ja gucken, ob sie was riskantes haben, und das löschen. Natürlich wird jeder so intelligente Täter prinzipiell immer jedes Bild mit etwas Zufallsrauschen mit einem individuellen hash ausstatten
– bei einer offenen Liste könnte bemerkt werden, wenn man da noch ganz andere Daten suchte. Das würde voraussetzen, dass man diese Daten bzw deren hash kennt, sehr unwahrscheinlich
Und natürlich die traditionelle Ansicht, dass es den Bürger nicht zu interessieren hat, was die Obrigkeit tut.
Man sollte meinen, der Durchschnitts-Erotik-Sammler hätte gerne eine “saubere” Sammlung.
Das ist doch genau dasselbe wie mit Schadsoftware auch. Die wenigsten wollen das auf dem Rechner. Der Befall ist aber nicht immer offensichtlich, also bedient man sich eines Scanners.
Mit dem Umfang einer Erotiksammlung steigt wohl auch die Wahrscheinlichkeit, das unfreiwillig etwas schlechtes dabei ist, und mit einem Scanner könnte man das erkennen und putzen, und genau das soll man nicht dürfen? Hallo?
Bei Filmen, z.b. wird ja auch von der bpjm kommuniziert was indiziert oder beschlagnahmt wurde, das macht doch auch gar keinen Sinn etwas zu verbieten und keiner weiss es?
Wo liegt im Einzelfall die grenze zwischen Kunst/Akt/‚Pose‘ und Porno? Den online Diskussionen nach herrscht hier alles andere als Klarheit. Und mit den neuen Strafgesetzen gibt es ja auch keinen Verhandlungsspielraum mehr, es ist jetzt binär immer entweder Verbrechen oder ganz legal, und je näher man an die unscharf definierte Grenze kommt, desto mehr scheint das Ergebnis dann vom Zufall bestimmt zu sein.
Wie sowas verfassungsgemäß sein kann, bzw. den allgemeinen Qualitätskriterien des stgb, z.b. verhältnismässigkeit (oder ganz abstrakt ‚Gerechtigkeit’) genügen soll, verstehe ich nicht.
Stimmt ja alles.
Interessiert die handelnden nur nicht.
„Kindesmissbrauch“ wird immer als Grund angefuehrt, Unverhaeltnismaessiges ohne Ueberpruefung von Sinnhaftigkeit durchzudruecken. Hat Zenzursula schon so gemacht. Deswegen muss dieses Thema auch immer maximal emotionalisiert werden, damit moeglichst keiner darueber nachdenkt oder sich auch nur mit Sachargumenten zu melden traut. Die meisten Medien spielen mit.
Auf die Gefahr eines Doppelposts hin (nach dem submit wurde einfach nur die page neu geladen) :
Warum müssen denn diese Hashes geheim sein, wenn das Ziel ist, sie möglichst oft anzuwenden um zu filtern? Das System soll doch das Gesetz implementieren und ein Gesetz muss 100% transparent sein?
„Um Darstellungen von Kindesmissbrauch zu bekämpfen“
Das ist tatsächlich so absurd, das ich hier aufhöre zu lesen:
„und meldet den Fall gegebenenfalls an eine zuständige Stelle, welche dann die Polizei einschaltet“
Danke angefressener Apfel, das Du genau das, was ich seit mindestens 8 Jahren prophezeit habe, nunmehr auch öffentlich kund tust.
KEINER! hat das Recht auf meinen Geräten zu schnüffeln.
KEINER!
Für die Hater:
Missbrauch zieht sich durch alle Altersgruppen und alle Gesellschaftsschichten! Kindesmissbrauch ist eines der schwersten Straftaten, die selbst unter Straftätern nicht toleriert wird.
Das hat auch die Politik erkannt. Keiner spricht über Missbrauch an Jugendlichen, Erwachsenen.
Alle diesbezüglichen Grundrechtseinschränkungen – Stichwort: Vertraulichkeit – werden mit Kindesmissbrauch begründet.
Weil es emotional ist.
Damit werden aber alle Nutzer eines angefressenen Apfelgerätes unter Generalverdacht gestellt!
Die Offenlegung privatester Informationen, mithin der Untersuchung eines Endgerätes durch Übertragung von Inhalten ohne judikative Anordnung und Übermittlung derer an Dritte, auch wenn sie nicht strafbar sind(!), ist nicht einmal ansatzweise zu tolerieren.
Das Problem ist nicht, was Apple tut. Das Problem ist, dass wir zugelassen haben, dass sie das tun können. Dass sie das bisher nicht gemacht haben, ist letztlich auch nur Hörensagen.
War ja niemand dazu gezwungen, sich in so eine Abhängigkeit zu begeben. Jetzt hat man halt nur die Wahl, das zu akzeptieren oder sein iGerät zu bricken.
Selber Schuld würde ich da sagen.
Zugelassen haben… zweischneidiges Schwert.
Unsere Gesellschaft, aber auch die Behörden, lassen eine Menge Sachen zu, die den Menschen konkret schaden. Vieles davon lässt sich schwer mit Gesetzen fassen, bedarf aber der breiten Gegenwehr.
Je organisierter und je flächendeckender etwas (wissentlich) getan wird, desto mehr Verantwortung ist von den Akteuren zu erwarten. Bei Apple würde ich sagen „zugelassen haben“ zählt dementsprechend 0%. Das ist Apple, das ist Facebook, das war schon immer so, und es wird wieder und schlimmer so sein, wenn ihr das Niedrigste zum Maßstab macht.
Aus der Sicht und Zielvorstellung von Apple und anderen ist das ja auch möglichst nicht Dein Gerät, denn Du sollst keine freie Verfügung darüber haben. Sonst könntest Du ja Dinge tun, an denen Apple, Dienstleister oder die content industry nichts verdienen.
Das deckt sich mit der Zielvorstellung der Innenpolitiker, dass Du keine volle Kontrolle haben sollst, denn sonst könntest Du ja was verheimlichen.
Ich bin es gewohnt auf dem ein oder anderen Blog PRISM, Patroit Act sei dank, und die Enthüllungen von Snowden über PRISM (https://de.wikipedia.org/wiki/Prism) zu erwähnen, weil die Macher des Blogs es nicht besser wissen oder vergessen (?!) haben, aber der erste Satz lässt mich schon ein wenig zornig zurück. Wozu hat Snowden das alles gemacht? Bestimmt nicht, damit gerade Ihr hier und jetzt ganz überrascht seit!
Den BigBrother Award für Apple gab es ja nicht umsonst wegen Datensammellei, übrigens schon 2011 (https://bigbrotherawards.de/2011/kommunikation-apple).
Die Datenschutzerklärung lesen hilft !
https://www.apple.com/legal/privacy/de-ww/
Falls die zu kompliziert ist hier in leichter Sprache ohne jemanden zu diskriminieren, aber jeder Apple Besitzer sollte zumindest das schon vorher mal lesen:
https://www.brandeins.de/magazine/brand-eins-wirtschaftsmagazin/2016/vorbilder/apple-weiss-wo-ich-wohne
Das Geld bzw. die Dividende für Apple alles ist und auf die Wünsche der entsprechenden Regime eingegangen wird, ob bei der Sperrung der weißrussischen Kanäle https://t.me/durov/136 oder für die Umgehung von Zensur https://protonmail.com/blog/apple-app-store-antitrust/ moniere ich mal am Rande mit.
Und das Apple alles kann beschreiben unzählige Artikel, hier eine kleine Auswahl https://www.heise.de/news/Little-Snitch-in-macOS-11-Firewall-kann-Apple-Verbindungen-nicht-mehr-sehen-4949564.html oder hier https://sneak.berlin/20201112/your-computer-isnt-yours/
Das hier habt Ihr vielleicht auch schon vergessen, aber keine Sorge, es sind ja Netze gespannt:
https://netzpolitik.org/2019/bits-und-baeume-die-arbeitsbedingungen-des-apple-lieferanten-foxconn-in-china/
Das kann doch nicht euer Ernst sein, liebe netzpolitiker*innen !
Naja. Ich bin ja sowohl alter Apple ‚fan boy‘ (Mac classic von 1986, im Keller). als auch schon lange (erstes OS X) Kritiker. Ich rate dem Mensch seit ewig nur noch Linux zu nutzen und zwar auch auf dem Handy. Seit 2015 habe ich ein Jolla (Sailfish OS) phone oder Sailfish community port (zur zeit, Vollaphone).
Also, bin ich in der unglücklichen Lage seit mehr als 10 Jahren einerseits gegen die Tendenzen closed und walled zu wettern als auch mir die Apple Fans anhören zu müssen die weit weniger Erfahrung haben mit Apple als ich. Hmmm. Was tue ich nur. Kann nur show and tell:
https://github.com/poetaster?tab=repositories Hier sind einige der apps die ich Betreue einsehbar (harbour- sind alle Sailfish OS).
Also, manch eine Netzpolitikerin (cough) tut einfach das was sie kann. Letztens bleibt nur Alternativen erarbeiten.
Oh, yeah. Und mach jetzt mit!
Juhuuuuuu !!!
Hoffnung 🤗
Ganz ehrlich, damit hast du mir den Tag und die gute Laune gerettet!
Nun bin ich nicht mehr verzweifelt, trotz des Artikels.
Besten Dank !!!1!
Ich lese das jetzt als Irony und freue mich trotzdem :-)
In diesem Artikel wird ein wichtiges Detail nicht ganz klar wiedergegeben: Apple scannt nicht die Fotos auf dem Gerät, sondern nur die Fotos die sich im Online iCloud-Speicher befinden. D.h. nur wer freiwillig den iCloud Speicher von Apple in Anspruch nimmt, ist von diesem Thema betroffen. Wer andere Cloud-Speicher oder nur den lokalen Speicher des Geräts für Fotos nutzt, ist von der Überprüfung ausgenommen. Das macht aus meiner Sicht durchaus einen Unterschied.
Nein, es werden die Fotos auf dem Gerät durchsucht, wenn man iCloud benutzt. Ich würde das außerdem als Salamitaktik sehen: Erstmal nur für iCloud-Nutzer, dann eben irgendwann für alle. Der Schritt ist dann nicht mehr soweit.
Im allerersten Link ist sehr detailliert beschrieben (inkl. einiger Papers als Anlage) was Apple zu tun plant, und das beinhaltet die lokalen Scans per Hash und KI
Fuer hashes bekannter Bilder braeuchte man uebrigens keine „KI“, hashes berechnen und vergleichen ist trivial straight forward. Eine unscharfe Mustersuche per „KI“ braucht man, wenn man unbekanntes finden will und dafuer Bilder inhaltlich auswertet. Diese Funktion auf dem Geraet liefert praktisch eine API zur staendigen Ueberwachung per Bildanalyse…ah, Apple verkauft das ja schon als „Jugendschutz“ gegen Nacktbilder.
PS: Das ist Mustererkennung mittels machine learning, das hat nichts mit Intelligenz zu tun und daher „KI“ in ‚“‚.
Mit so einer API lassen sich dann uebrigens interessante Dinge machen. Bilder auf dem smartphone haben ein Datum und oft direkt einen Ort oder lassen sich ueber location data des Geraets zum Aufnahmezeitpunkt orten. Gleichzeitig werden andauernd neue Bilder gemacht. Und das Geraet hat alle Daten, bevor ein Benutzer sie loeschen kann (kann er?).
Wenn man der „KI“ neue pattern ueber das API anfuettern kann, hat man eine Ueberwachungs-API mit Millionen Kameras in oeffentlichen wie privaten Raeumen. Bilder aus einer Umgebung (Hintergrund, Gebaeude) in einem Zeitraum? Wer hat diese Person in den letzten 3 Tagen wo (vielleicht zufaellig) fotografiert?
Und so eine Überwachung muss nicht immer die Übertragung von Positionsdaten an Apple bedeuten, wenn die Daten auf dem Gerät bereits verarbeitet werden. Nicht dass das einen konzeptionellen Unterschied bedeuten würde…
Behördengang mit Applegerät… äh…
Dieses Jahr wurde über das Chippen gelacht. Mal sehen wer schneller ist… Kinderpornos oder Urheberrecht.
Es war schon immer klar, dass wo ein Trog ist auch die Säue kommen, ganz egal ob sie Apple oder auch anders heißen. Für vertrauliche und private Information sind online Geräte nicht geeignet, egal ob Smartphone oder keimischer PC mit Internetzugriff. Allenfalls noch selbst installierte GNU/linux System, die nicht von einer Distro stammen und der User die volle Kontrolle über installierte Pakete hat. Die staatlichen Schnüffler und ihre Vasallen in der Industrie haben es dazu gebracht, dass eine vertrauenswürdige Datenverarbeitung praktisch nicht mehr existiert. Unfassbar, wie solche leute eine Gesellschaft kaputt machen. Im September ist Bundestagswahl. Jeder kann die feinde der Bürgerrechte abstrafen.
Wenn ich das richtig verstand geht es bei der Suche auf dem Gerät damit los das eine Datenbank mit Hashwerten geladen werden muß. Ohne die kann die neue Funktion auf dem Gerät nichts scannen. Wer kontrolliert denn was in dieser Datenbank steht und ob es nur um den angegebenen Zweck geht. Das ist die 2. Büchse der Pandora. Die erste ist diese Scanfunktion überhaupt ein zu bauen. Wohlgemerkt in neuere Geräte. Ich hab nur von IOS 15 gelesen. Ich verwende ein Älteres Gerät. Interessant wird’s ob Apple die Funktion auf auf ältere Versionen ausdehnen wird. Sonst reicht es für Täter schlicht ein Altgerät zu verwenden und für Potentielle Kunden ein solches gebraucht zu kaufen oder Apple zu meiden. Und das werden sie dann an ihren Geräte-verkäufen merken. Wenn Apple das Geld hier wichtiger ist sollte man annehmen das sie es baldigst einstampfen weil keiner mehr eine Neue Apple-Wanze kauft. Oder die Leute saufen/reden sich das wieder schön mit den Typischen Ausflüchten „Ich hab ja nix zu verbergen“ und „so schlimm wird’s schon nicht“. Siegt die Ignoranz wieder einmal?
Typo: „Funktion auf auf ältere“ sollte heißen „Funktion AUCH auf ältere“ Redaktion: Bitte ändern und dies Löschen. Edit geht ja nicht. Danke.
Lies mal https://hackerfactor.com/blog/index.php?/archives/929-One-Bad-Apple.html
In den Staaten darf NUR NCMEC (National Center for Missing & Exploited Children) diese Datenbank betreuen. Eigentlich darf auch niemand die Bilder, so wie von Apple vorgesehen, ‚verifizieren‘. Das inspizieren des Bildes ist eine Straftat, habe ich verstanden. Aber, der Artikel lohnt sich und erklärt das viel besser als ich es kann.
Schade, dass das Bundesverfassungsgericht gerade das „Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme“ geschleift hat, das es vor einigen Jahren selbst erschaffen hat. Denn dagegen würde Apple ja massiv verstoßen.
Vom Gesetzgeber haben wir keinen Schutz zu erwarten, weder vom EU-Parlament und schon gar nicht vom Bundestag. Die Hardliner werden die standardmäßige Gerätedurchsuchung bald sogar zu einer gesetzlichen Pflicht der Hersteller machen und Schritt für Schritt auf andere Bereiche ausweiten.
„Wir sollten ihnen solche Entscheidungen nicht durchgehen lassen.“
Das ist ein löblicher Gedanke. Nun stellt sich aber die Frage: Was können wir dagegen tun?
Wir werden daran nichts ändern. Die Tech-Bubble wird alternative Systeme wie Linux statt MacOS oder CalyxOS und GrapheneOS ohne Google-Dienste statt iOS/iPadOS nutzen, die 08/15 AnwenderInnen haben in zwei Monaten, wenn Apple die neuen iPhones vorstellt, das aktuell diskutierte Problem wieder vergessen, und kaufen sich freudig die neuen Geräte.
> Da hat sich Apple nun über Jahre einen Ruf aufgebaut, eine
> Bastion der Privatsphäre und des Datenschutzes zu sein [..]
Niemand bestreitet, dass sich Apple diesen Ruf aufgebaut hat. Aber niemand weiß, ob das der Realität im Quelltext entspricht, oder ob es einfach nur hervorragend zur Exklusivitäts-Anspruch der Marke passt: Eine betuchtere Klientel möchte natürlich auch das Gefühl einer größeren Vertrauclichkeit haben, als der Plebs.
Wenn es den Menschen mehrheitlich reicht, an das Narrativ glauben zu können und das Marketing stark genug ist, um „Ungläubige“ zu VTlern abzustempeln, dann ergibt sich auch ein Beobachtungsfenster auf die besonders interessante Bevölkerungsgruppe „global Wohlhabende und Entscheider“.
Ich reibe mich an der Formulierung, dass sich Apple diesen Ruf aufgebaut hat:
Da die Realität des Quellcodes und der Architekturen bewusst nicht beweisbar gehalten wird, ist eine „fiese VT“ gegenüber Apple und den 5-Eyes genauso wenig beweisbar, wie die „gute VT“ des Apple-Marketings, in der sich Apple tatsächlich zu 100% dem Schutz der Privatsphäre seiner Kundinnen und Kunden verschrieben hat.
Sieht man sich Motive und Machtverhältnisse der Apple-Stakeholder an, dann wird auch eine andere Überlegung plausibel: Das kann auch ein Befreiungsschlag Apples sein, um die Realität „vorsichtig“ den Marketing-Aussagen der Vergangenheit anzupassen. Denn Whistleblower wie einen Herrn Snowden wird es vermutlich nicht nur bei Militär und Geheimdiensten geben ..
Ein bisschen hat Apple ja angefangen https://opensource.apple.com/
Apple fällt nicht um, sondern orientiert sich am mainstream.
Übrigens: #chatcontrol (siehe patrick beyer) „Today, the European Parliament approved the ePrivacy Derogation, allowing providers of e-mail and messaging services to automatically search all personal messages of each citizen for presumed suspect content and report suspected cases to the police. „
In der Tat wurde schon oft darauf hingewiesen das Apple möglicherweise sich nur schon Aufrüstet wegen der ePrivacy Derogation. Klingt schon plausibel. Da erst auf dem USA Markt implementiert wird, wo die Hürden andere sind bin ich mir nicht so sicher. Wäre es nicht leichter gewesen wenn Apple dies schon verkündet als Beweggrund?
Das ePrivacy Derogation Evil gleicht bin ich überzeugt.
Ich habe mir eines von diesen Dingern gekauft, weil es hieß, sie seien sicher. Deshalb habe ich Banking-Software darauf, Kreditkarten-Apps, Paypal und auch eine Authenticator-App, weil ich alles nach Möglichkeit mit 2 Faktoren absichere. Und jetzt soll mir auf Betriebssytemebene eine Schnüffelsoftware untergeschoben werden, weil ich verdächtigt werde, schlimme Bilder zu speichern? Ich muß das erst einmal sacken lassen. Und ich muß dabei an unbedarfte Leute denken, die vor den Kadi gezerrt wurden, nur weil sie ihr WLAN offen hatten. Es wird auch hier zu unberechtigten Anschuldigungen kommen – Accountsperrung, Hausdurchsuchung, etc. Die wirklichen Verbrecher sind schon jetzt gewarnt und weichen auf andere Technik aus.
Da ich zu den etwas älteren Nutzern gehöre, weiß ich auch, daß ein Smartphone nur ein praktisches Zubehör ist, aber keine Notwendigkeit. Es geht auch ohne. Und der Kauf eines neuen Iphone ist jetzt in weite Ferne gerückt.
Es erschrickt mich schon, wie ungenau hier bei Netzpolitik ergänzt wird.
Kommt erst mal runter, lest die Fachpapiere, aber richtig, und urteilt dann.
Eh, ich habe das getan. An das: https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf kommt man ran. An das:
https://www.apple.com/child-safety/pdf/Apple_PSI_System_Security_Protocol_and_Analysis.pdf kommt man ran.
An https://www.apple.com/child-safety/pdf/Technical_Assessment_of_CSAM_Detection_Benny_Pinkas.pdf kommt man ran. USW.
Where is the source? Claims are all well and good, when will the audits be open? Ich fand diese Fachpapiere nicht überzeugend. Schall. Rauch.
Letztendlich ist egal ob die Homomorphic Crypto works. Ein Mechanismen existiert der das Extrahieren der Daten ermöglicht. Nach dem die Daten auf dem eigenen Gerät abgescannt wurden. Dazu brauche ich jetzt noch Technischen Rat? I don’t believe I do.
Frage: Was ist denn der Sinn des ganzen Crypto-Voodoo, ausser vor dem Client zu verbergen wonach genau gesucht wird?
Mehrere Moeglichkeiten:
– Ein Grossteil der Medien wird brav schreiben, dass das alles voll sicher gemacht und damit kein Problem ist, red herring. Wobei die meisten Journalisten es vermutlich sogar glauben, Sachverstaendnis ist in der Branche groesstenteils verpoent.
– Exfiltration von Informationen
– Ein solches API will man schliesslich zu Geld machen, oder zumindest zu einem Vorteil
– formal: Material von Kindesmissbrauch ist hoch-toxisch, der Besitz selber bereits strafbewehrt, das sichert man entsprechend (und hat die Funktion zur Exfiltration dann auch)
Nicht vergessen: das ist ja keine isolierte Funktion. Das ist eine ganze Reihe von dafuer notwendigen Faehigkeiten, die implementiert werden und die dann beliebig auch anders genutzt und kombiniert werden koennen. Da duerfte es entsprechende Roadmaps geben.
Zu verhindern das Apple beim scanning auf dem gerät auch deine Daten einsehen kann. Danach, beim upload eventuell ‚End 2 End‘ encryption um deine Daten vor dritten zu schützen.
Kann NP das mal verifizieren:
https://www.n-tv.de/panorama/Apple-erklaert-Suche-nach-Kinderpornografie-article22742805.html