Als Meredith Whittaker Anfang September zur neuen Präsidentin der Signal Foundation berufen wurde, horchte die Tech-Branche auf. Denn die ehemalige Google-Managerin gilt als einer ihrer schärfsten Kritiker:innen.
In den vergangenen Jahren hat Whittaker vor allem gegen Überwachung und Rüstungsdeals gekämpft – erst bei Google, wo sie seit 2006 dreizehn Jahre lange arbeitete, später an dem von ihr mitgegründeten Forschungsinstitut zu den Auswirkungen Künstlicher Intelligenz.
Berühmt wurde sie 2018 als Organisatorin der Mitarbeiter:innenproteste, die sich daran entzündeten, wie die Google-Führung mit Fällen sexualisierter Gewalt in dem Konzern umging. Nachdem Whittaker 2019 bei Google „gegangen wurde“, wie sie sagt, lehrte sie als Professorin an der New York University und beriet die US-amerikanische Federal Trade Commission.
Anfang dieses Jahres hatte Signal-Gründer Moxie Marlinspike überraschend seinen Rückzug bekanntgegeben. Daraufhin wurde der Posten der Stiftungspräsidentin eingerichtet. In dieser Funktion verantwortet Whittaker nun die Gesamtstrategie der gemeinnützigen Stiftung und kümmert sich dabei vor allem um eine stabile Finanzierung des Messengers. Und Whittaker will Signal als Alternative zum Marktführer WhatsApp stärken.
netzpolitik.org: Im Jahr 2018 wurden Sie weltweit bekannt, als Sie die Mitarbeiter:innenproteste gegen Google organisierten. Sie haben ein eigenes Forschungsinstitut zu Künstlicher Intelligenz gegründet. Und nun sind Sie an die Spitze von Signal berufen worden. In welcher Rolle sind Sie derzeit unterwegs?
Meredith Whittaker: Ich trete jetzt allein in meiner Funktion als neue Präsidentin von Signal auf. Darauf werde ich fortan meine Zeit und Energie verwenden. Von meinem Posten als Professorin bin ich zurückgetreten.
netzpolitik.org: Wie sind sie auf dieser neuen Position gelandet?
Meredith Whittaker: Ich habe Signal bereits unterstützt, als es noch RedPhone und TextSecure hieß. Mit Moxie Marlinspike und anderen, die sich um die Entwicklung von Signal kümmerten, arbeite ich schon seit mehr als einem Jahrzehnt zusammen. Der Schutz der Privatsphäre und eine sichere Kommunikation sind mir immer schon eine Herzensangelegenheit gewesen. Wir leben in einer Welt, in der unsere Kommunikation, unser Standort, unsere Beziehungen und unsere Vorlieben von einem Geflecht aus Unternehmen und staatlichen Akteuren überwacht werden. Signal und andere Werkzeuge sind existenziell für eine lebenswerte Zukunft.
„Die Konzerne agieren fast wie informelle Regierungen“
netzpolitik.org: Nehmen Sie Unterschiede wahr in der Art, wie in Deutschland und in den USA über Überwachung, Privatheit und Datenschutz gesprochen wird?
Meredith Whittaker: Deutschland war immer sensibler gegenüber diesen Entwicklungen. Aber in den vergangenen fünf Jahren hat es eine Wende in der öffentlichen Debatte in den USA gegeben, die ich sehr begrüße. Vor den Enthüllungen Edward Snowdens galt man noch schnell als paranoid, wenn man sich über Privatsphäre sorgte. Technologie wurde mit wissenschaftlichem Fortschritt und Innovation gleichgesetzt. Das machte es schwer, das Geschäftsmodell der Überwachung in Frage zu stellen, das ein Herzstück der Tech-Industrie ist. Mehr und mehr wächst aber auch bei uns in den USA die Skepsis gegenüber dem angeblichen Nutzen dieser Technologien. Und die Einsicht, dass es erforderlich sein könnte, diesen Geschäftsmodellen gesellschaftlich und politisch Einhalt zu gebieten.
netzpolitik.org: Können Sie sagen, was diese Wende herbeigeführt hat?
Meredith Whittaker: Es gab eine Reihe von Missgeschicken, die dieses Narrativ von Tech als Fortschritt in Frage gestellt haben. Algorithmengetriebene Plattformen haben die sogenannte Desinformation verstärkt. Wir haben eine Datenschutzverletzung nach der anderen gesehen. Und die Unternehmen verfügen über eine Macht, die fast schon der Macht von Regierungen gleicht. Mehr noch: Die Konzerne agieren fast wie informelle Regierungen. Aber inzwischen tut sich etwas. Viele Wissenschaftler:innen und Aktivist:innen haben auf die Entwicklung hingewiesen. Und dadurch haben wir einen Wendepunkt erreicht, weshalb sich auch der Diskurs verschoben hat.
netzpolitik.org: Signal wird weltweit immer noch viel seltener genutzt als WhatsApp oder Telegram. Haben Sie Wachstumsziele für bestimmte Länder oder Regionen?
Meredith Whittaker: Wir sind immer an Wachstum interessiert gewesen – wegen unserer Mission. Je mehr Menschen Signal nutzen, desto mächtiger wird Signal auch für die, die es nutzen. Unser Ziel ist: Jede:r sollte mit jeder anderen Person auf der Welt über Signal sprechen können – außerhalb des Überwachungsapparats, in dem wir uns sonst bewegen.
Ich kann zum Wachstum keine genauen Zahlen nennen. Wir sehen aber auf jeden Fall Zuwächse bei den Nutzer:innenzahlen, wenn in einer bestimmten Region etwas passiert, das die Sensibilität für den Datenschutz weckt. Und wir versuchen natürlich, auf solche Entwicklungen zu reagieren.
„Wir brauchen Vorkehrungen, mit denen wir uns schützen können – selbst in Zeiten, in denen das nicht erforderlich ist“
netzpolitik.org: Die EU-Kommission plant die Einführung einer umfassenden Chatkontrolle und will auch Messenger wie Signal dazu zwingen, die Verschlüsselung auszuhöhlen. Kriminelle sollen dort nicht mehr abtauchen können, etwa um Darstellungen sexualisierter Gewalt gegen Kinder auszutauschen. Ist Signal ein sicherer Hafen für Kriminelle und Terrorist:innen?
Meredith Whittaker: Es gibt Debatten und Wünsche, die alle paar Jahre in ganz ähnlicher Form immer wieder aufploppen. Die aktuelle Diskussion zählt dazu. Dahinter steht das Bedürfnis, Verschlüsselung für einen bestimmten Zweck zu brechen und zugleich für andere Fälle zu erhalten. Aber das funktioniert so nicht, schon rein technisch nicht. Verschlüsselung funktioniert entweder für alle – womit wir unser Versprechen auf Privatsphäre einhalten und einen sicheren Hafen außerhalb des kommerziellen und staatlichen Überwachungskomplexes anbieten können. Oder aber die Verschlüsselung ist für alle kaputt.
Diese Debatten kommen immer wieder an die Oberfläche, aber sie prallen dann auch immer wieder gegen die kalten, harten Wände der technologischen Fakten: Es geht schlicht nicht. Wir bei Signal sind davon überzeugt, dass wir auf private Kommunikation angewiesen sind. Und dafür brauchen wir eine starke Verschlüsselung.
netzpolitik.org: Einige Politiker:innen argumentieren mit dem Schutz von Kindern. Was entgegen Sie Ihnen?
Meredith Whittaker: Eine solche Argumentation ist emotional extrem aufgeladen. Niemand kommt umhin, darauf zu reagieren. In den vergangenen Jahren gab es immer wieder heftige Debatten darum, wer die Macht haben sollte, seine oder ihre Privatsphäre zu behalten und wer die Macht haben sollte, sie zu brechen. Ich glaube nicht, dass diese Debatte einfach verschwindet. Wir müssten vielmehr anerkennen, wie emotional aufgeladen diese Themen sind und das respektieren. Aber noch einmal: So wichtig diese Zielsetzung ist – die technologische Tatsache lässt sich nicht leugnen, dass die Verschlüsselung nicht für einen singulären Zweck gebrochen werden kann und für andere wiederum nicht. Und gleichzeitig gilt: Eine Welt ohne Privatsphäre ist außerordentlich gefährlich.
netzpolitik.org: Was das heißt, sehen wir gerade auch nach der Entscheidung des Supreme Courts zum Recht auf Schwangerschaftsabbrüche. Die Entscheidung hat eine Debatte über Privatheit und Verschlüsselung weit über die Vereinigten Staaten hinaus ausgelöst. Plötzlich geht es um die Gefahren von Menstruations-Apps oder verräterische Nachrichten auf Sozialen Medien, die an die Polizei gelangen könnten. Welchen Effekt wird dies auf die Debatten um Technik und Verschlüsselung haben?
Meredith Whittaker: Gesundheitsversorgung zu kriminalisieren ist eine weitreichende Entscheidung mit außergewöhnlich hohen sozialen Kosten. Für viele hat das auf einer sehr persönlichen Ebene eine Verbindung hergestellt zwischen Fragen der Privatsphäre und der technologischen Privatsphäre, die beide sonst sehr abstrakt und intellektualisiert sind. Wenn der Staat beschließt, die Rechte der Menschen zu untergraben, dann wird Privatsphäre außerordentlich wertvoll. Sie wird existenziell, weil sie sicherstellt, dass Menschen gedeihen und leben und ehrlich miteinander kommunizieren können. Ich denke, vielen wurde dadurch bewusst, dass sie nicht auf einen gütigen und wohlwollenden Staat hoffen sollten. Wir brauchen Vorkehrungen, mit denen wir uns schützen können – selbst in Zeiten, in denen das nicht erforderlich ist.
„Den Begriff Künstliche Intelligenz verwende ich in Anführungszeichen“
netzpolitik.org: Sie forschen seit Jahren zu den gesellschaftlichen Auswirkungen von sogenannter Künstlicher Intelligenz. In der Redaktion kursierte vor wenigen Tagen die Werbeanzeige für einen Kaffeevollautomaten, der angeblich mit Hilfe Künstlicher Intelligenz betrieben wird. Die KI sorge dafür, dass die am häufigsten genutzten Programme automatisch auf der Bildschirmanzeige auf den ersten Plätzen landen. Ist KI zu einem Werbeversprechen verkommen?
Meredith Whittaker: Die Kaffeemaschine ist ein gutes Beispiel für den wilden Marketinghype. Diese Maschine hält ja nur fest, was genutzt wird – und schon ist es Künstliche Intelligenz. KI ist vor allem eine Art Marketingbegriff, der datenzentrierte Produkte für den Verkauf aufwerten soll.
Der Stand der KI ist seit nunmehr rund 70 Jahren an dem gleichen Punkt. Der Begriff wurde gleichzeitig in geradezu haarsträubende Weise unterschiedlichen Techniken angedichtet. An Fahrt gewann das Thema dann vor knapp zehn Jahren, so zwischen 2013 und 2015. Damals gab es kaum eine Ausgabe des Wired Magazines, auf dessen Titelblatt nicht das Thema KI prangte. Und plötzlich wurden all diese Wissenschaftler:innen, die in den hintersten Universitätslaboren werkelten, geradezu zu Rockstars gemacht.
netzpolitik.org: Was war damals passiert?
Meredith Whittaker: Die Unternehmen nahmen maschinelles Lernen, eine Technologie, die eigentlich aus den Achtzigerjahren stammt, und wendeten sie auf ihre massiven Datenspeicher und gewaltigen Recheninfrastrukturen an. Und sie erkannten, dass sie damit Dinge tun konnten, die zuvor ohne diese Ressourcen nicht möglich gewesen wären.
Im Kern ging es darum, mehr wirtschaftliches Wachstum zu generieren, neue Märkte zu erschließen und die Tech-Industrie zu einem Nervensystem unserer Welt zu machen. KI als Marketingbegriff war extrem erfolgreich dabei.
netzpolitik.org: Einige Ihrer Kolleg:innen aus der Wissenschaftscommunity haben dazu aufgerufen, Begriffe wie Künstliche Intelligenz oder maschinelles Lernen nicht länger zu nutzen, weil sie falsche Vorstellungen von den Fähigkeiten dieser Systeme wecken. Stattdessen sollten wir möglichst präzise benennen, was ein System macht, etwa Muster in großen Datenmengen erkennen. Halten Sie das für eine gute Idee?
Meredith Whittaker: Das ist eine schwierige Frage. Aus eben diesem Grund habe ich angefangen, den Begriff Künstliche Intelligenz in Anführungszeichen zu verwenden – das ist meine Lösung. Denn es gibt ja bereits einen Diskurs rund um KI. Und es lohnt sich, in diesen Diskurs einzugreifen und klarzustellen: Nein, das ist nicht übermenschlich. Das ist keine Empfindungsfähigkeit. Was das Marketing behauptet, stimmt nicht. Dazu müssen wir diese Begriffe nutzen.
Zum anderen ist es überaus schwierig, präzise zu sein. Denn in den allermeisten Fällen, in denen wir mit dieser Technologie in Berührung kommen, ist sie proprietär. Die Unternehmen machen daraus ein Geschäftsgeheimnis. Das ist einer der großen Vorteile, die diese Unternehmen bei ihren Behauptungen haben: Wir können sie nicht überprüfen. Wir haben also nicht die Macht der Präzision, weil wir keine Transparenz haben.
„Ein fühlendes übermenschliches System ist mächtig, selbst wenn es furchteinflößend ist“
netzpolitik.org: KI erscheint vielen nicht nur als eine Big-Data-Black-Box, in der man vorne eine Eingabe eingibt und am anderen Ende kommt dann ein Ergebnis heraus. KI-Systemen werden ja mitunter auch orakelgleiche Fähigkeiten, ein Bewusstsein oder gar Weltzerstörungsabsichten unterstellt. Warum geben wir dieser Technologie bereitwillig so viel Macht?
Meredith Whittaker: Es gibt diese Geschichte über Joseph Weizenbaum, der in den Sechziger- und Siebzigerjahren als KI-Wissenschaftler arbeitete. Und in seinem Institut gab es einen Chatbot namens Eliza, der in der Lage war, eine Gesprächstherapie zu simulieren. Wie in einer psychologischen Behandlung: „Wie geht es Ihnen?“ – „Mir geht es gut.“ – „Oh, erzählen Sie mir mehr darüber.“ Eliza verstand natürlich nicht den Inhalt des Gesprächs. Aber das System war in der Lage, das Gespräch im Sinne einer therapeutischen Methode weiterzuspinnen. Wir reden hier nicht von GPT-3 oder von den großen Sprachmodellen, die heute existieren. Eliza war sehr, sehr simpel.
Umso verstörender war es mitanzusehen, dass Menschen mit Eliza interagierten, als ob sie ebenfalls ein Mensch wäre. Es kam vor, dass jemand eines der Labore betrat und ein Angestellter darum bat, nicht gestört zu werden, weil er gerade mit Eliza sprach. Und Teile dieser Unterhaltungen waren in gewisser Weise intim. Sie statteten Eliza mit menschlichen Qualitäten aus. Das bedeutet nicht, dass sie empfindungsfähig war, richtig? Und doch weisen wir als Menschen zu den Dingen um uns herum eine fast animistische Tendenz auf.
netzpolitik.org: Woran liegt das?
Meredith Whittaker: Die Linguistin Emily Bender hat sehr viel zu KI geforscht und sie weist darauf hin, dass Menschen dazu neigen, in Gesprächen Pausen zu füllen. Wir hören zu und verleihen der Kommunikation eine Bedeutung und dem Kommunizierenden eine Art Identität in menschlichen Gesprächen. Und eben dies tun wir auch, wenn wir mit einem Bot oder einem System konfrontiert werden. Wir haben es also auch nicht mit einem Bewusstsein zu tun. Aber die technologischen Systeme der Unternehmen spielen mit dieser Neigung.
Und gerade hier liegt eine Gefahr. Es ist besonders gefährlich, weil diese Erzählung am Ende extrem positiv für die Unternehmen ist. Wenn Du die Kontrolle über ein fühlendes übermenschliches System hast, dann ist dieses System mächtig, selbst wenn es furchteinflößend ist. Zwar wissen wir darum, wie kaputt das System ist, wie beschränkt es in vieler Hinsicht ist und wie voreingenommen. Dass es mit Daten aus Reddit und Twitter geschult wurde und dass diese Daten von unterbezahlten Arbeiter:innen in einer ehemaligen Kolonie sortiert wurden. Aber wir reagieren dennoch auf eine unangemessene Art.
netzpolitik.org: Derzeit scheint geradezu das Gegenteil zu passieren. Die britische Regierung hat jüngst entschieden, dass vollautomatisches Autofahren ab 2025 auf den Straßen der Insel erlaubt sein wird. Hierzulande wird Ähnliches ebenfalls erwogen. Sind KI-Systeme bereits so weit, dass wir sie frei auf unseren Straßen herumfahren lassen können?
Meredith Whittaker: Ich habe einen Freund, der in Wales auf dem Land lebt. Er hat sich einen Tesla gekauft, der über die Funktion des automatischen Fahrens verfügt. Und ich habe ihn kürzlich gefragt, wie gut das funktioniert. Er antwortete mir, dass der Wagen wie ein US-Amerikaner fahre. Als ich ihn fragte, was er damit meinte, entgegnete er, dass es in den USA andere Fahrgewohnheiten gebe. Du beschleunigst zum Beispiel nicht, bevor Du abbiegen willst. Und das gibt einen wichtigen Hinweis. Wenn du Autos dazu bringen willst, fahrerlos oder automatisch zu fahren, dann brauchst du dafür eine Unmenge an Überwachungssystemen, die Fahrgewohnheiten und -muster erfassen. Diese Systeme erfassen aber längst nicht alles und erst recht schaffen sie kein System, das weltweit gleichermaßen funktioniert. Mir bereitet das Thema des automatischen Fahrens daher Sorge. Mich treibt besonders um, welche Menge an Überwachung dafür notwendig ist und wie sehr diese Überwachung damit auch weiter normalisiert wird.
netzpolitik.org: Auto ohne Fahrer:innen werfen noch ganz andere Probleme auf: Wer ist etwa schuld, wenn ein solcher Wagen einen Unfall verursacht?
Meredith Whittaker: In den USA gab es vor einigen Jahren einen Vorfall. Arizona hatte die Regulierungen für fahrerlose Autos weitgehend geöffnet, um diese Fahrzeuge auf den Straßen mit Fußgänger:innen zu testen. Und eine Person namens Elaine Herzberg wurde dabei von einem dieser Fahrzeuge getötet. Das Verkehrsministerium untersuchte den Fall und fand heraus, dass zuvor einige rätselhafte technische Entscheidungen getroffen worden waren. Eine sah vor, dass das Auto Fußgänger:innen mitunter nicht erkennen konnte, wenn diese sich jenseits eines Zebrastreifens befanden.
In dem Auto saß auch eine Person, die darüber wachen sollte, wie sich das Fahrzeug verhielt. Und diese Person wird nun für den Tod verantwortlich gemacht. Wir müssen also danach schauen, wie sich Haftung verschiebt. Es sind häufig schlecht bezahlte Arbeiter:innen, die als verantwortliche Partei herhalten und den Schock dieser Technologien absorbieren sollen, während die Technologie, die Firmen und deren Profite weiter wachsen können.
„Die entscheidende Frage lautet: Warum nehmen wir das hin?“
netzpolitik.org: Die Europäische Kommission will Künstliche Intelligenz stärker regulieren und hat dazu im April vergangenen Jahres einen Verordnungsentwurf veröffentlicht. Und im Februar wurde ein neuer Entwurf zur Verantwortung von KI-Systemen in den US-Kongress eingebracht. Wacht die Politik jetzt auf?
Meredith Whittaker: Es ist gut, dass sich die Politik mit dieser Dynamik befasst, sich dabei auch mit der politischen Ökonomie der Branche auseinandersetzt und KI nicht einfach als eine Art natürlich vorkommende Entität in der Welt behandelt. Aber ich denke, die Politiker:innen gehen nicht weit genug. Sie erkennen nicht, dass KI letztlich ein Produkt des Monopols ist, das durch das Geschäftsmodell der Überwachung entstanden ist. Nur eine Handvoll Unternehmen verfügen über die entsprechende Computerinfrastruktur. Diese Unternehmen häufen unentwegt riesige Mengen intimer Daten an, mit deren Hilfe sie Vorhersagen über mich treffen können. Solange wir uns nicht mit dieser Tatsache auseinandersetzen, stören wir nicht das Geschäftsmodell und befassen wir uns auch nicht mit KI. Es handelt sich um komplexe Probleme und es reicht nicht aus, nur einen Teil des Algorithmus einzusehen. Damit gehen wir nicht die grundlegenden strukturellen Missstände an, welche die Wurzel des Problems sind.
netzpolitik.org: Mit anderen Worten: Wenn wir KI regulieren möchten und den Gefahren, die von dieser Technologie ausgehen, begegnen möchten, dann müssen wir regulieren, wer die Daten besitzt und wohin diese fließen?
Meredith Whittaker: Ja. Und wer die Infrastruktur besitzt, die den Datenreichtum erst ermöglicht. Ich glaube allerdings nicht, dass es hier nur um den Besitz der Daten geht. Wir geben diesen Unternehmen die Macht, Daten zu schaffen. Daten sind keine natürlich vorkommende Kraft. Jedes Mal, wenn sich mein Smartphone mit einem Funkturm in der Nähe verbindet, entstehen Daten, die etwas über mich aussagen. Und wenn die Unternehmen diese Daten dann auch noch durch eine Art Vorhersage-Analyse jagen, die beliebige Dinge über mich erfinden, dann verfügen diese Informationen – ganz gleich, ob sie wahr sind oder nicht – über eine signifikante Macht. Wir haben diesen Unternehmen somit die Macht der Erkenntnis gegeben. Und wir müssen uns auch damit auseinandersetzen, wer definiert, wer wir sind, und wie das unser Leben beeinflusst. Im Moment tun wir das noch nicht.
netzpolitik.org: Allerdings kommen einem mitunter auch Zweifel daran, wie mächtig die Tech-Konzerne tatsächlich sind. Kürzlich haben Facebook-Ingenieur:innen zu Protokoll gegeben, dass ihr Unternehmen gar nicht genau weiß, über welche Daten sie genau verfügen und wo diese hinterlegt sind. Kennen die Konzerne möglicherweise gar nicht genau das Ausmaß ihres Datenschatzes und wo dieser vergraben ist?
Meredith Whittaker: Das überrascht mich keineswegs. Die Backend-Architektur vieler Unternehmen, die enorme Datenmengen sammeln, ist chaotisch. Die entscheidende Frage aber lautet: Warum nehmen wir das hin? Das sollte nicht der natürliche Lauf der Dinge sein. Aber das ist vermutlich das Resultat, nachdem wir Computertechnologie die vergangenen zwanzig, dreißig Jahre als natürlich auftretendes Wissenschaftsphänomen behandelt haben – und damit auch nicht gestört oder reguliert haben.
Ein aufschlussreiches Interview. Doch eine wichtige Frage fehlt:
Warum verlangt Signal immer noch eine Telefonnummer bei Account-Erstellung?
Wird das von einer Behörde gefordert oder ist Signal selbst so datengierig?
Solange dies gefordert wird, nehme ich lieber Abstand.
Meredith Whittaker hat darauf kürzlich in einem SZ-Interview geantwortet: „Eigentlich sprechen wir aus Prinzip nicht über Funktionen, die noch nicht veröffentlicht sind. In diesem Fall machen wir eine Ausnahme, denn seit es Signal gibt, wünschen sich viele Menschen diese Möglichkeit. Wir arbeiten gerade mit hoher Priorität daran, dass man Nutzernamen vergeben und seine Handynummer verbergen kann. Um sich zu registrieren, wird sie aber weiter nötig sein. Dafür gibt es mehrere Gründe, unter anderem den Kampf gegen Spam. Technisch ist das extrem aufwendig, und es ist wirklich wichtig, dass wir alles richtig machen. Wir hoffen, dass die Nutzernamen spätestens Anfang 2023 für alle verfügbar sind.“ (https://www.sueddeutsche.de/wirtschaft/signal-meredith-whittaker-whatsapp-messenger-datenschutz-1.5652005)
Vielen Dank für diesen wichtigen Hinweis! Alle Daumen für die Signal-Entwickler:innen sind gedrückt, dass sie diese Herausforderung meistern. Trotzdem nutze ich auch vorher weiter den Service.
Sehr gern kann Signal eine Telefonnummer zur SPAM-Vermeidung von mir haben. Allerdings besitze ich kein Smartphone sondern chatte immer am Desktop. Mit einem Dumbphone via SMS kann man sich meines Wissens nicht bei Signal anmelden. Seit ich bei Telegram rausgeflogen bin (wo das früher per SMS ging) suche ich einen Messenger, der das kann. Ich bin nun bei Matrix / Element (meine ganzen Freunde noch nicht.)
Danke für den Link zum SZ-Artikel „Whatsapp ist weder wirklich sicher noch privat“.
Leider gehöre ich nicht zu den finanziell Priviligierten, die es sich leisten können die SZ-Paywall zu überwinden.
Könntest Du bitte den relevanten Teil bezüglich der Telefonnummer hier lesbar zitieren?
Das obige Zitat (Ergänzung #2) stammt von dort:
„Eigentlich sprechen wir aus Prinzip nicht über Funktionen, die noch nicht veröffentlicht sind. In diesem Fall machen wir eine Ausnahme, denn seit es Signal gibt, wünschen sich viele Menschen diese Möglichkeit. Wir arbeiten gerade mit hoher Priorität daran, dass man Nutzernamen vergeben und seine Handynummer verbergen kann. Um sich zu registrieren, wird sie aber weiter nötig sein. Dafür gibt es mehrere Gründe, unter anderem den Kampf gegen Spam. Technisch ist das extrem aufwendig, und es ist wirklich wichtig, dass wir alles richtig machen. Wir hoffen, dass die Nutzernamen spätestens Anfang 2023 für alle verfügbar sind.“
(https://www.sueddeutsche.de/wirtschaft/signal-meredith-whittaker-whatsapp-messenger-datenschutz-1.5652005)
Danke für die Mühe, ich hätte dort noch ein wenig mehr erwartet. Ich konnte nicht ahnen, das das schon vollständig war. So ist das halt mit Barrieren. Sorry.
Die Frage war „Trotz aller Datensparsamkeit setzt Signal eine Handynummer voraus. Wann ändert sich das?“.
Die vollständige Antwort ist oben zitiert.
„Warum nehmen wir das hin?“ ist natürlich eine zentrale Frage und ich denke, dass viele sich diese Frage garnicht stellen. Sie erleiden die Computerwelt eher, als dass sie selbstbestimmt einen Computer wie ein Werkzeug nutzen.
Ich glaube, dass das daran liegt, dass sich die komerziellen Betriebsysteme immer weniger deterministisch verhalten. Die Reaktionen sind immer weniger vorhersehbar (siehe die Kaffeemaschine, die die Reihenfolge des Menüs ändert – wie soll ich da meinen Kaffee ziehen, wenn mein Kaffee immer woanders zu finden ist?). Immer mehr determiniert die Maschine mich. Mein Auto piept, wenn ich die Tür öffne, mein Handy verweigert eine vermeindlich unsinnige Handhabung, mein Notebook schlägt mir Dinge vor, die ich nicht will. Ich bin immer weniger selbstbestimmt. Dies bestimmt sicher auch die Einschätzung, ob ich bestimmen kann, was mit meine Privatsphäre passiert oder wie Einfluss durch soziale Medien genommen wird. Die Maschine erzieht uns um zu leidensfähigen, unselbstständigen Wesen. (Sorry, das war jetzt lang und immer noch ein zu kurzer Abriss)
„Mein Auto piept, wenn ich die Tür öffne,“
Na immer hin wissen Sie, wieso es piept.
Mein Auto piept oder gongt, und ich habe keine Idee warum. Es erscheint keine Meldung, keine Hinweis…
Bis auf die krampfhaft bemühte Gendrsprache, die den Lesefluss einschränkt (warum keine Rauten und Ausrufezeichen innerhalb der Worte, oder jedes zweite Wort auf italienisch?kann doch heute jeder machen, wie er möchte) war es ein gut fundierter Artikel. Eliza habe ich früh auf meinem PET2001 nachgebaut und trage mich mit dem Gedanken ein webbasierten Chatbot zu kreieren, der natürlich besser ist, als alle Bisherigen. ;-)
Ich habe die Erfahrung gemacht, dass solche Schreibweisen den Lesefluss nur einschränken, wenn man ihnen nicht wohlgesinnt gegenübertritt. Aber keine Sorge, die Erfahrung lehrt auch, dass man sich daran gewöhnt. Ich habe bspw. gar nicht bewusst wahrgenommen, ob hier geschlechtsneutral oder nicht formuliert wurde.
Vielen Dank für das Interview.
Diesen Satz verstehe ich nicht: „Für viele hat das auf einer sehr persönlichen Ebene eine Verbindung hergestellt zwischen Fragen der Privatsphäre und der technologischen Privatsphäre, die beide sonst sehr abstrakt und intellektualisiert sind.“
Ist mir nicht klar, ob da durch die Übersetzung (?) vielleicht etwas Bedeutung verloren gegangen ist oder aber was ist der Gedanke dahinter dabei, privacy und technologische privacy einander gegenüberzustellen. Möglicherweise auch ein kulturelles Unverständnis bei mir, dass es sich um Zweierlei handeln könnte.
Das ist ein Begriffsproblem: „Privacy“, hier wohl als „Privatsphaere“ uebersetzt, ist im USA-Rechtssystem wesentlich umfangreicher und abstrakter als der deusche Begriff „Datenschutz“, es ist eher „allgemeine Persoenlichkeitsrechte“ und damit ein Grundpfeiler persoenlicher Freiheitsrechte. „Technologische Privatsphaere“ entspraeche eher unserem „Datenschutz“.
Nicht zufaellig hier im Kontext Schwangerschaftsabbruch erwaehnt: „Privacy“ war die Grundlage der vor kurzem von SCOTUS aufgehobenen Abtreibungsrechts und ist mW auch Grundlage fuer „Ehe fuer alle“ und aehnliche Urteile.
Technologische Privatsphäre (engl. technological privacy) meint die Privatsphäre bei Verwendung von Technologie. Das Verständnis ergibt sich auch aus der Frage, die z.B. Menstruations-Apps ansprach.
Die Problematik bei technological privacy ist, dass der Mensch (Technologie-Anwender) die Bedrohung seiner Privatsphäre nicht selbst wahrnehmen kann. Er benötigt Kenntnis darüber, die er durch Bildung, Information oder Warnung erlangen kann. Wer die Fähigkeit nicht besitzt, sich z.B. gegen unbeabsichtigten Datenabfluss zu schützen, der muss abwägen, ob er lieber darauf verzichtet, das Produkt zu benutzen.
Doch das ist noch nicht alles. Ein Produkt/Software kann in einer Weise fehlerhaft sein, so dass unbeabsichtigt Datenabflüsse ausgenutzt werden können. Mal abgesehen von betrügerischen Anwendungen, die Datensicherheit und Privatsphäre zwar versprechen, dieses Versprechen aber für einen nicht erkennbaren (meist profitablen) Zweck brechen.
Und das ist nicht alles, denn Datenerhebung kann auch zum Schaden von Gesellschaften, spezifisch wie allgemein, oder sogar des ganzen Planeten genutzt werden, wenn einfach nur genügend viele Leute mitmachen, vorausgesetzt die haben eine Sorte von Wirkmacht, z.B. Konsum, Wahlrecht, Fähigkeit zum Aufstand, u.ä. Auch hier sind Bewusstsein und Wissen begrenzt, über viele IQs hinweg und auch auf den Entscheidungsebenen. Vielleicht ist sogar das Bewusstsein nicht mal auf den Ebenen derjenigen vorhanden, die es so oder so ähnlich nutzen, da die Intention eine andere sein kann, und wenn es nur egoistisches Geldscheffeln zum Schaden aller ist.
@daniel/chris
gibt es das interview auch im original zum nachlesen oder finde ich einfach nur den link nicht? :) wär toll wenn es noch nachgereicht werden kann
Wir haben nur eine deutsche (Kurz)Fassung vorliegen und veröffentlicht.
Schade, ich wäre auch daran interessiert gewesen.
Trotzdem gutes Interview, Danke!
Ich finde es sehr interessant, dass es doch auch noch denkende Menschen wie Meredith Whittaker gibt. Ihre Meinung zur sogenannten künstlichen Intelligenz deckt sich zu 100 % mit meiner.
Es gibt und wird niemals eine künstliche Intelligenz geben.
Dazu bemühe ich das angesprochene Beispiel der Kaffeemaschine: Die an erster Stelle angezeigten Icons der meistgetrunkenen Sorten sind nichts anderes als vorgegebene Programmschritte (wenn Taste 12 17Mal gedrückt wurde, zeige diese ganz oben an). Eine Intelligenz würde diese Vorgabe nicht nötig haben, sondern ganz allein entscheiden, was wo angezeigt wird – genau da liegt der Hase im Pfeffer.
Anderes Beispiel – Elektroauto, autonomes Fahren – selbst hier sind die Reaktionen vorprogrammiert, keine einzige wird intuitiv ausgeführt – weil es eben absolut nichts mit Intelligenz zu tun hat.
Man sollte eher mit „guter Programmierung“ statt mit „künstlicher Intelligenz“ werben (müssen).
Vielen Dank, Meredith Whittaker.
Sehr dankbar bin ich dafür, meinen Eindruck über die „KI“ so fulminant von einer Fachfrau allerersten Ranges bestätigt zu bekommen.
Im harmlosesten Fall erzeugt die „KI“ z.B. monatelang Werbeeinblendungen für Wechselstromtrafos, nachdem ich einen solchen bei einem grossen deutschen Elektronikversand bestellt und erhalten hatte (privat). Das ist ja an sich höchst amüsant.
Im weniger amüsanten Fall sind „KI“ Algoritmen, die höchst eigenrationale Interessen und Ziele ihrer menschlichen Urheber umsetzen sollen. Der eher ansteigende Bedarf der Konsumenten an Komplexitätsreduktion, die völlig unbegreifliche allgemeine Auffassung, dies sei „hip“ oder „dufte“ oder „zeitgemäss“, sich vorgegebenen Scheiss durch die Gegend karren zu lassen oder sich selbst vorgegeben durch die Gegens karren zu lassen (dafür gibts eigentlich ÖPNV) kommt dem sehr entgegen. Ärgerlich bei Konsum von Verbrauchs- und Investitionsgegenständen, gefährlich beim Konsum von politischen Inhalten.
Da ich in meinem Land keinen Grund zu Überwachungsparanois habe, nutze ich 5 Kommunikationskanäle: Mail, Telefon, SMS, direktes Gespräch, Brief. Reicht mir.
„Den Begriff Künstliche Intelligenz verwende ich Anführungszeichen“
Hier fehlt wohl ein „in“?
Vielen Dank für den Hinweis, ist korrigiert.
Das Interview über die Machtstrukturen außerhalb von Signal blendet leider aus die internen Machtstrukturen aus. Bei Signal scheint es eine große Machtkonzentration bei einer Person zu geben, die als CEO die Firma anführt und noch dazu die Stiftung leitet und dazu wohl die Hauptquelle des Signal-Einkommens ist. Warum wurden diese internen Machtstrukturen von Signal nicht stärker hinterfragt? Diese internen Entscheidungsgewalten scheinen auf sehr wenigen Schultern verteilt, was eher ungesund klingt bei einem so wichtigen und internationalen Projekt.