Signal-Chefin Whittaker„Die Maßnahmen ebnen den Weg in eine dunkle Zukunft“

Regierungen präsentieren uns technische Lösungen für komplexe gesellschaftliche Probleme. Doch diese Art des magischen Denkens gefährdet unsere freie Gesellschaft. Wir veröffentlichen die gekürzte Rede der Signal-Chefin Meredith Whittaker zum 20. Geburtstag der Bürgerrechtsorganisation EDRi.

Meredith Whittaker von Signal Foundation auf einer Montage, die sie vor einer Wand aus Türen zeigt
– Alle Rechte vorbehalten Meredith Whittaker / Signal Foundation; Montage: netzpolitik.org

Ich möchte über die Dinge sprechen, die mich nachts wachhalten. Dazu zählt vor allem die derzeitige Flut an Regulierungsvorschlägen, die falsche technische Lösungen für komplexe soziale Probleme anbieten. Diese Lösungen setzen das Recht auf Privatsphäre mit Fehlverhalten gleich. Und sie wollen gegen schlechte Taten vorgehen, indem sie die Privatsphäre abschaffen.

Die Wiederkehr fadenscheiniger Lösungen

In meinen knapp zwanzig Jahren in der Tech-Branche habe ich erlebt, wie die immer gleichen Gespräche aufkamen, abklangen und zurückkehrten – und wie dabei immer wieder die gleiche Form des magischen Denkens aufschien.

Das Muster sieht in etwa wie folgt aus: Ein komplexes, erschütterndes soziales Problem zieht die Aufmerksamkeit von Regulierungsbehörden und Medien auf sich. Jede:r erkennt die Schwere des Problems an und die Dringlichkeit, es zu lösen. Wir sind beunruhigt, besorgt und emotional. Und die Menschen sputen sich, „etwas zu tun“.

Dann wird uns die gleiche fadenscheinige „Lösung“ präsentiert: Um das Unrecht in der Welt zu beseitigen, heißt es dann, müsse man die private Kommunikation einschränken.

Die Gefahren der Massenüberwachung

Die Geschichte der Datenverarbeitung ist gespickt mit Episoden, die die Gefahren der Massenüberwachung veranschaulichen. Sie reicht vom Einsatz der Hollerith-Maschinen von IBM durch die Nazis, die damit den Holocaust organisierten, über den illegalen Zugriff US-amerikanischer Behörden auf die Volkszählungsdaten, um so japanische Amerikaner:innen zu identifizieren und zu internieren, bis hin zu den Bestrebungen des südafrikanischen Apartheidregimes, die Durchsetzung der Segregation zu digitalisieren. Und heute händigen die Technologiekonzerne bereitwillig die Daten ihrer Nutzer:innen aus, die in den Vereinigten Staaten kriminalisierte medizinische Versorgung suchen.

Aber ich glaube nicht, dass ich mich allzu lange mit der Historie aufhalten muss. Wir alle kennen die Gefahren der Massenüberwachung, insbesondere in autoritären Zeiten.

Die Geschichte der Kommunikationstechnologie prägt aber auch das magische Denken zahlreicher Regierungen, die sprichwörtlich ein Omelett zubereiten wollten, ohne dafür Eier zu zerschlagen. Ihr Ziel war es etwa, Hintertüren zu schaffen, auf die nur die „Guten“ zugreifen können. Vor den Bedrohungen, die von „allen anderen“ ausgehen, waren diese Hintertüren angeblich sicher.

Es gibt keine guten Hintertüren

Solche Versuche sind immer gescheitert. Der berüchtigte Clipper-Chip ist nur ein Beispiel von vielen. Millionen von Dollar wurden für derlei Bemühungen verschwendet und entsprechende Projekte sind immer wieder auf Eis gelegt worden. Denn die Wahrheit ist, dass jedes System, das „uns“ Zugang verschafft, genauso schnell von „ihnen“ ausgenutzt werden kann – von feindlichen Akteur:innen, die jene kritischen Infrastrukturen kompromittieren, auf die Regierung, Wirtschaft und zivile Einrichtungen angewiesen sind.

Dennoch taucht diese Art des magischen Denkens immer wieder auch heute noch auf – etwa in den fehlgeleiteten Bestimmungen des britischen Online-Sicherheitsgesetzes, in der EU-Verordnung zur Chatkontrolle oder in den Kämpfen um die Vorratsdatenspeicherung auf Länderebene. Als Beispiele für Letzteres dienen der Angriff auf verschlüsselte Kommunikationsdienste in Belgien oder die Debatten darüber, ob die Vorratsdatenspeicherung privater Kommunikationsdaten zulässig oder auch nur eine kluge Idee ist.

Nicht immer fällt in diesen Debatten das Wort „Hintertür“. Tatsächlich sind die Überwachungsvorschläge, zumindest was das politische Framing betrifft, in den vergangenen Jahren ausgefeilter geworden. Bei der CSAM-Gesetzgebung der EU behaupten beispielsweise viele, dass ihre Vorschläge mit der Ende-zu-Ende-Verschlüsselung vereinbar seien – ohne dafür Belege zu liefern. Dabei wollen sie Praktiken etablieren, welche die Ende-zu-Ende-Verschlüsselung faktisch schwächen, wenn nicht gar abschaffen.

Ein faustischer Pakt

Andere schlagen eine ebenso gefährliche, aber neuere Variante des magischen Denkens vor. Sie räumen zwar ein, dass Hintertüren nicht der richtige Weg sind. Stattdessen schlagen sie eine Massenüberwachung „außerhalb“ der Ende-zu-Ende-Verschlüsselung vor, wobei sie meist auf clientseitige Scan-Systeme (CSS) verweisen.

Keine Sorge, versichern sie uns, wir werden eure Nachrichten auf euren Geräten scannen, bevor sie verschlüsselt sind. Wir werden sie mit unseren undurchsichtigen Datenbanken verbotener Sprache abgleichen, um sicherzustellen, dass Ihr euch innerhalb der von der Regierung genehmigten Grenzen der Meinungsäußerung bewegt. Und danach? Danach könnt ihr weitermachen wie bisher und eure Daten verschlüsseln.

Das clientseitige Scannen ist ein faustischer Pakt, der die Prämisse der Ende-zu-Ende-Verschlüsselung zunichtemacht. Denn dieser Pakt schreibt eine zutiefst unsichere Technologie vor, die es einer Regierung ermöglicht, buchstäblich jede Äußerung zu überprüfen, bevor sie ausgesprochen wird.

KI ist keine Wunderwaffe

CSS wirft noch weitere Probleme auf. Denn diese Systeme stützen sich auf sogenannte „Künstliche Intelligenz“ (KI). Diese Technologien produzieren jedoch folgenreiche Fehlalarme. Und sie können durch Angriffe gehackt werden, gegen die es nur wenige Möglichkeiten der Verteidigung gibt. Die EU verhandelt derzeit eine KI-Verordnung, um auf diese Herausforderungen zu reagieren. In diesem Zusammenhang halte ich es für unerlässlich, dass wir jene Menschen in die Diskussion über client-seitiges Scannen einbeziehen, die die Fehler und Schwächen von KI-Systemen sorgfältig erforscht haben. Wir müssen anerkennen, dass KI hier wie auch anderswo keine Wunderwaffe ist.

Es ist gleichsam überraschend wie verwirrend, dass Prominente, Meinungsmacher:innen und nicht zuletzt Politiker:innen behaupten, dass es technologische Lösungen gebe, die Inhalte auf verbotene Äußerungen scannen können, ohne dafür die Ende-zu-Ende-Verschlüsselung zu knacken.

Ich bin weder eine Prominente noch eine Influencerin. Aber ich kenne mich mit Technik aus. Und ich möchte betonen, dass es so etwas nicht gibt. Es ist schlichtweg unmöglich.

Das Grundrecht auf Privatsphäre wird ausgelöscht

Jene, die das Gegenteil behaupten, sind daher entweder schlecht informiert oder sie befinden sich in einem besorgniserregenden Zustand der Realitätsverleugnung. Oder aber sie sind auf gefährliche Weise zynisch, weil sie hoffen, dass sie – indem sie unsinnige technische Lösungen versprechen –weitere Überwachungsgesetze verabschieden können, bevor jemand davon Wind bekommt.

Eine Welt ohne Privatsphäre ist jedoch eine Welt, in der Machtasymmetrien wie in Bernstein eingeschlossen sind. Es ist eine Welt, in der Dissens gefährlich und in der Intimität riskant ist. Und es ist eine Welt, in der die Kräfte für das Erforschen neuer Ideen, das Stellen von naiven Fragen oder das Ausarbeiten noch unausgegorener Gedanken verkümmern.

Wenn in einer Welt, die so sehr auf digitale Kommunikation angewiesen ist, die Verschlüsselung gebrochen wird, löscht dies das Grundrecht auf Privatsphäre faktisch aus. Und auch die Sicherheit digitaler Infrastrukturen wird gefährdet, auf die sich Handel, Regierung und Zivilgesellschaft verlassen.

Es ist Zeit, in die Realität zurückzukehren

In Ungarn werden homosexuelle und transsexuelle Menschen diskriminiert und kriminalisiert, ebenso wie LGBTQ-Literatur und -Äußerungen. In den USA, wo ich lebe, sieht ein Gesetzentwurf im Bundesstaat South Carolina die Todesstrafe für Menschen vor, die kriminalisierte reproduktive Gesundheitsdienste in Anspruch nehmen. Und in sämtlichen US-Bundesstaaten gibt es Gesetzesvorschläge, die gleichgeschlechtliche Ehen kriminalisieren. Einige Staaten erwägen gar ein Verbot von Ehen zwischen unterschiedlichen Ethnien.

Warum erwähne ich das? Weil in Zukunft zu viele fordern könnten, mit Hilfe von CSS eine verbotene Meinungsäußerung, eine verbotene Liebe, eine unzulässige Identität aufzuspüren. Weil in Zukunft zu viele forder könnten, dass dafür ihre magischen Hintertüren verwendet werden und ihr Massenüberwachungsregime zur Bestrafung anderer eingesetzt wird.

Jessica Burgess, eine 41-jährige Mutter aus Nebraska, hat bereits einen Vorgeschmack auf diese Zukunft erhalten. Im Jahr 2022 gab Facebook Nachrichten zwischen Jessica und ihrer Tochter an die Strafverfolgungsbehörden weiter. Diese Nachrichten wurden dazu verwendet, um sie wegen einer Straftat anzuklagen. Denn die Mutter hatte ihrer Tochter dabei geholfen, reproduktive Gesundheitsfürsorge in einem Staat zu erhalten, wo diese Fürsorge von einem Tag auf den anderen für illegal erklärt worden war.

Es ist an der Zeit, in die Realität zurückzukehren. Komplexe soziale Probleme müssen ernsthaft angegangen werden. Sie werden aber nicht dadurch gelöst, dass man sie als emotionalisierenden Vorwand einsetzt, um die Privatsphäre abzuschaffen. Mit welch scheinbar noblen Gründen sie auch gerechtfertigt werden: Die Maßnahmen, die derzeit in Europa, im Vereinigten Königreich und darüber hinaus erwogen werden, ebnen den Weg in eine dunkle Zukunft.

Der vorliegende Text ist die gekürzte Fassung einer Rede, die Meredith Whittaker anlässlich des 20-jährigen Bestehens von EDRi gehalten hat. EDRi ist ein Zusammenschluss von Bürgerrechtsorganisationen, die sich dem Datenschutz und den digitalen Freiheitsrechten verschrieben haben.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

5 Ergänzungen

  1. Ausgezeichneter und ebenso erschütternder Beitrag!

    Aber so, wie ich die EU und unsere Regierung(en) einschätze, wird er wiederum nicht zu einem Umdenken führen.

  2. Sehr geehrte Meredith Whittaker,
    ich denke leider Sie sind zu spät. Es ist wichtig, aber Sie kamen zu spät.

    Als die Maschinen die Menschen übernahmen, war das so in den 2010er Jahren. Dei ersten Smartphoens waren da un die ersten Überwachungskapitalist:innen unter den Unternehmen haben leider die Zukunft gestaltet.

    Jetzt kann man mit offener Software und mit Datensparsamkeit ohne konventionelle It-Systeme vielleicht ein wenig ausrichten aber es wird wohl nur den Milliardär:innen und deren Familien betreffen weil diese eben nicth auf diese Art der Bildung über das Internet oder der Kultur angewiesen sind… leider.

    1. Wenn die Regierungen es wollen ist es machbar.
      Solange sie es nicht wollen, und so sieht es aus; „für die Sicherheit“; wird es gehen.
      Leider überschätzen sich viele Menschen, so auch Politikerinnen.

  3. „Es gibt keine guten Hintertüren“

    In der Theorie gibt „es“ sinnvolle Hintertüren, z.B. im Sinne eines „Notaus“ für „mächtige Mechanismen“ [in der Draufsicht]. Bei den Prinzipien, bzw. den grundlegenden Konstruktionen von Gesellschaften, dahingegen, nicht.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.