ChatkontrolleApple macht Rückzieher beim Client-Side-Scanning

Apple will die Privatsphäre von Nutzer:innen ausbauen: Der Konzern verabschiedet sich von den Plänen, pauschal die privaten Dateien seiner Kund:innen zu durchleuchten. Außerdem soll es ab nächstem Jahr eine Ende-zu-Ende-Verschlüsselung für den Speicher-Dienst iCloud geben.

Symbolbild, welches Scanning und digitale Symbole mit Bildschirmen auf schwarzem Hintergrund zeigt.
(Symbolbild) – Alle Rechte vorbehalten IMAGO / Wavebreak Media Ltd

Es gab weltweit einen Aufschrei, als Apple im August des vergangenen Jahres ankündigte, tief in die Privatsphäre von Nutzer:innen einzugreifen. Der iPhone-Hersteller wollte Dateien seiner Kund:innen, die in die iCloud hochgeladen werden sollten, standardmäßig nach Aufnahmen durchsuchen, die sexualisierte Gewalt gegen Minderjährige (CSAM) zeigen – legte die Pläne dann aber auf Eis.

Das ganze war zugleich der Auftakt einer Debatte um die Technologie des Client-Side-Scannings, die auch bei den EU-Plänen zur Chatkontrolle oder in Großbritannien beim Online Safety Bill eine bedeutende Rolle spielt. Die Technik steht im Kontext der Gesetzgebungsprozesse als neue Form der Massenüberwachung massiv in der Kritik.

Nun hat Apple seine ursprünglichen Pläne weit zurückgefahren, das berichten mehrere Medien wie Wired. Dem US-Magazin teilte der Konzern auf Englisch mit:

„Wir haben außerdem beschlossen, unser zuvor vorgeschlagenes CSAM-Erkennungstool für iCloud-Fotos nicht weiterzuverfolgen. Kinder können geschützt werden, ohne dass Unternehmen persönliche Daten durchkämmen. Wir werden weiterhin mit Regierungen, Kinderrechtsverbänden und anderen Unternehmen zusammenarbeiten, um junge Menschen zu schützen, ihr Recht auf Privatsphäre zu wahren und das Internet zu einem sichereren Ort für Kinder und für uns alle zu machen.“

Stattdessen sollen Apps des Konzerns in Zukunft eine optionale Einstellung erhalten. Sie sollen nur auf Wunsch und lokal auf dem Gerät Nacktheit erkennen und Nutzer:innen vor dem Abschicken warnen. Die Funktion soll laut dem Unternehmen so konzipiert sein, dass Apple weder Zugriff auf die Nachrichten erhält, noch die Ende-zu-Ende-Verschlüsselung gebrochen wird. Auch solle Apple nicht erfahren, ob ein Gerät Nacktheit erkannt habe. Im Gegensatz dazu hätte die früher geplante Technologie einen Abgleich mit externen Datenbanken vorgesehen und Meldungen bei Treffern gesammelt und verschickt.

Jahrelange Forderung von Bürgerrechtsorganisation

Außerdem bekommt der Apple-Cloud-Dienst iCloud Anfang nächsten Jahres eine Ende-zu-Ende-Verschlüsselung, sodass nur die als vertrauenswürdig eingestuften Geräte der Nutzer:innen die Dateien entschlüsseln können. Das kündigte das Unternehmen am gestrigen Mittwoch offiziell an. Wer keinen Schlüssel hat, kann die Dateien dann nicht lesen – auch nicht Apple selbst. Bislang konnte Apple die Dateien auf den Online-Speichern sehen und musste diese Ermittlungsbehörden herausgeben. Bürgerrechtsorganisationen hatten den Schritt zu sicherer Ende-zu-Ende-Verschlüsselung schon seit 2019 angemahnt.

Die Electronic Frontier Foundation (EFF) begrüßte beide Schritte von Apple: „Die Verschlüsselung ist eines der wichtigsten Instrumente zur Wahrung der Privatsphäre und der Sicherheit im Internet.“ Wenn die Daten von Nutzer:innen Ende-zu-Ende verschlüsselt seien und kein Gerät gescannt würde, hätten die Nutzer:innen die volle Kontrolle darüber, wer Zugriff auf diese Daten habe, so die EFF weiter.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

4 Ergänzungen

  1. „Die Funktion soll laut dem Unternehmen so konzipiert sein, dass Apple weder Zugriff auf die Nachrichten erhält, noch die Ende-zu-Ende-Verschlüsselung gebrochen wird. Auch solle Apple nicht erfahren, ob ein Gerät Nacktheit erkannt habe.“ Man kann diesen Unternehmen nicht vertrauen. Auch bei diesen Aussagen und Apps gilt nunmal Zero Trust. Apple muß beweisen, dieses Lippenbekenntnis auch einzuhalten. IMHO geht das nur mit open source.

  2. Nun wenn nur die Algorithmen auf dem Gerät es wissen und Anfragen von Außen oder Einschätzungen der werbe zahlenden Kunden in deren Interessen beantworten reicht es ja.

    Es ist halt dieses Lippenbekenntnis der NSA, Metadaten reichen aus um Zusammenhänge zu erkennen und nach zu vollziehen. Dennoch, die Assistenten auf deinem Applegerät kennen dich besser und können dein Verhalten einschätzen, bewerten und je nach Anliegen Dritter, zuverlässig für eine bestimmte Seite.. nun als logisch und lukrativ „personalisieren“.

    Denn es geht nicht um die Inhalte, die Nachrichten oder um die Menschen mit ihren Gefühlen, Einsichten, Beziehungen. Sondern ausschließlich um ein resultierendes Verhalten.

    In dem Punkt hat sich leider, trotz E¹2E² nichts, verbessert.

  3. Zwei Lesarten:
    1. Konvenient, dass wir es sowieso bauen müssen, weil die EU es einführen wird. Die Clientseitige Technologie verändert sich auch nicht, da die Option weiterhin implementiert bleibt.
    2. Man will es doch nicht mitmachen, sollen die Europäer doch selbst die Funktion implementieren. (Widerspruch zur Option.)

    Tja, Einsicht oder PR… im Weg steht dem ursprünglichen Vorhaben jedenfalls weiterhin… zunächst erst mal nichts.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.