Die Macht im Bereich generativer KI wurde kürzlich erschüttert, als ein chinesischer Konkurrent mit dem Namen DeepSeek die Runde machte. Keine Sorge, DeepSeek ist nicht etwa nennenswert schlauer oder wesentlich schneller als Claude von Anthropic oder ChatGPT von OpenAI und schon gar nicht frei von fehlerhaften oder schlichtweg erfundenen Ausgaben. Sondern es ist auch nur ein sogenanntes Large Language Model (LLM) und damit ein stochastischer Papagei. Allerdings gehört es einem chinesischen Hedgefonds, wurde von einem chinesischen Milliardär gegründet und hat zudem eine Neigung, chinesische Regierungspositionen bei seinen Antworten zu bevorzugen.
Ganz plötzlich entdeckten selbst Technikbegeisterte das sonst gern vergessene Thema Datenschutz und Datensicherheit wieder: In Südkorea wurde die App bis auf Weiteres wegen Datenschutzbedenken für den Download gesperrt. Der Chief Information Officer von Kanada verbot den Regierungsangestellten die Nutzung des DeepSeek-Chatbots für private oder geheim gestempelte Informationen, da Daten über einen fremden und obendrein – huch! – chinesischen Server gingen.
Bei der Nutzung dieses Webdienstes könne die sichere und geheime Datenverarbeitung nicht mehr gewährleistet werden, so der amtliche Befund. Datenschützer würden dem Kanadier Dominic Rochon sicher zustimmen, allerdings trifft sein Memo auf so ziemlich alle kostenlosen Webdienste der vergangenen Jahrzehnte zu, wo zumindest der Hersteller umfassende Einblicke in das Nutzungsverhalten besitzt. Die Erfassung von Tastatureingabemustern und -rhythmen findet sich etwa auch bei führenden Suchmaschinen. Warum also die Warnung zu diesem Zeitpunkt, abgesehen von dem üblichen Beißreflex vor allem Richtung Osten? Es dürfte wohl mit der Alltäglichkeit und Zugänglichkeit von generativen KI-Systemen und der gesellschaftlichen Reaktion darauf zu tun haben.
Dass fast unvorstellbar große Mengen auch personenbezogener Daten verwendet werden, um generative KI-Systeme zu trainieren und zu betreiben, ist keine Neuigkeit. Dennoch ist keine Debatte um Privatsphärefragen losgebrochen, wie es manchen anderen neuen Angeboten der Tech-Konzerne passiert ist. Google kann ein ganzes Lied davon singen, wie das Projekt der wundersamen Brille Google Glass eingestampft wurde, weil die andauernden Fragen nach Persönlichkeitsschutz einfach nicht abzuschütteln waren.
Doch die dunkle Seite der Informationsmacht war schon immer schneller, einfacher, verführerischer als die mühselige datenschutzkonforme IT-Arbeit. Die gesellschaftliche Akzeptanz der allgegenwärtigen, aber invasiven Informationssysteme ist inzwischen so hoch, dass selbst klare Grundrechtsverletzungen nicht mehr als Aufreger taugen. Ein Schulterzucken ist das Reaktionsmaximum. Eine Geste übrigens, die längst von automatisierten Kamerasystemen ausgewertet werden kann.
Schulterzuckende Ignoranz
Ein gutes Beispiel für diese schulterzuckende Ignoranz ist eine typische Mensch-Maschine-Interaktion mit aktuellen Tablets oder Smartphones. Sobald das biometrische Sensorsystem des Geräts den Blickkontakt eines Menschen registriert, wird ein Gesichts-Scan initiiert und durchgeführt, der das Gerät entsperren kann. Der Bildschirm erhellt sich. Praktisch, denkt sich der schulterzuckende User.
Eine Aufregung darüber, dass die Kamera auch dann aktiviert ist, wenn kein Lämpchen leuchtet, ist nur noch in Ausnahmefällen zu beobachten. Das Licht soll eigentlich immer dann angehen, wenn die Kamera zugeschaltet ist. Aber in Wahrheit ist sie heute oftmals dauerhaft aktiviert. Alles ganz normal mittlerweile.
IT-Systeme, die sich auf Zuruf einschalten, müssen ebenfalls bereits eingeschaltet sein, um auf den Zuruf reagieren zu können. Die Aufregung darüber hält sich ebenfalls sehr in Grenzen. Allenfalls wenn solche Technik in Kinder-Spielzeug eingebaut wird, regt sich noch Empörung.
Gleichmütig hingenommene Dauerüberwachung weckt natürlich Begehrlichkeiten bei Staat und Big Tech. In manchen Ländern sind die einst getrennten Bereiche inzwischen nahezu verschmolzen, siehe Trumps Amerika. Und nun tritt auch noch die rüstige 70-jährige Künstliche Intelligenz (erneut) an, um unser Leben besser, effizienter, durchschaubarer und die Anbieter vielleicht reicher zu machen.
Das Trommelfeuer immer neuer Ideen vor allem im Bereich der generativen KI geht mit einer kaum hinterfragten personendatenbasierten Dauerüberwachung einher, die weit über individuelle Überwachung hinausgeht. Die Prinzipien der Datenminimierung und Zweckbindung scheinen mit der derzeitigen KI-Schnappatmung in Vergessenheit zu geraten, selbst wenn die IT-Sicherheitskrise deren Wichtigkeit so überdeutlich zeigt.
Wahrscheinlicher als das bloße Vergessen solcher Grundsätze ist allerdings die ganz bewusste Ignoranz. Denn datenhungrige generative KI-Anwendungen benötigen das Beobachten und das Auswerten der Nutzerdaten schlicht. Zumal noch immer nicht ausgemacht ist, womit die horrenden KI-Investitionssummen eigentlich wieder reinkommen sollen. Denn es könnte gut sein, dass künftige Geschäftsmodelle generativer KI auf mehr Nutzerdatenmonetarisierung setzen.
Generative KI im Arbeitskontext
Im Arbeits- und Bewerbungsbereich wird das Problem besonders augenfällig: Denkt man etwa an KI-Anwendungen, die versprechen, Verhalten, Aktivitäten und Leistungen von Mitarbeitern automatisiert zu evaluieren oder Vorschläge für die Personalentwicklung daraus abzuleiten, liegt es auf der Hand, dass dabei auch Fragen der informationellen Selbstbestimmung betroffen sind. Dies betrifft bekanntermaßen alle personenbezogenen Informatik-Systeme, die im Arbeitskontext eingesetzt werden und daher mit gutem Recht streng reguliert sind.
Wenn große Mengen Daten von betroffenen Menschen erfasst, gespeichert und verarbeitet werden, enthalten diese selbstverständlich auch Persönliches. Doch diese Grunderkenntnis der Informationsverarbeitung scheint für generative KI nicht zu gelten: Es wird von den Anbietern beharrlich behauptet, dass diese Daten nur in anonymisierter Form verarbeitet werden. Technisch gemeint ist dabei stets Pseudonymisierung, die eine Deanonymisierung nur mit entsprechendem Aufwand verhindern kann. Doch wie viel persönliche Informationen tatsächlich in den Datenstrukturen stecken, wird in der Regel erst deutlich, wenn intime Details in den generierten Ergebnissen auftauchen. Solche Verletzungen der Privatsphäre im Vorfeld zu erkennen oder gar zu verhindern, ist aufgrund der Funktionsweise solcher Systeme sehr aufwendig.
Unabhängig von der Frage der Sinnhaftigkeit des Einsatzes von Large Language Models und ihren erwartbaren falschen, verzerrten oder erfundenen Ergebnissen scheinen auch Fragen des Datenschutzes nur noch lästig. Dabei ist ein womöglich gar heimlicher Zugriff auf Kommunikation wie E-Mails und Mitarbeiter-Chats oder auf Kalender schon aus rechtlichen Gründen in jedem Fall unter dem Gesichtspunkt der Privatsphäre zu betrachten.
Beschäftigtendatenschutz nach dem Ampel-Aus
Wie sieht es beispielsweise vor Beginn eines Arbeitsverhältnisses aus? Gerade bei Bewerbern um eine Stelle ist die Vorstellung, es könnte sich bei der Zustimmung zur Nutzung eines KI-Assistenten um eine freiwillige Option handeln, geradezu erheiternd. Denn wer würde bei der Bewerbung auf eine heißbegehrte Stelle schon Nein sagen, wenn die Frage aufploppt: „Dürfen wir Ihre Informationen durch unsere KI jagen?“ Die Frage wäre zwar sicher anders formuliert, sofern sie nicht als tatsächlicher Intelligenztest konzipiert wäre. Aber wer würde nicht im Hinterkopf die unausgesprochene Drohung hören, dass ein Nein für die Bewerbung nicht förderlich ist.
Der vorgebliche Vorteil der Nutzung einer generativen KI für Arbeitgeber liegt vor allem im Durchsatz: Es können mehr Bewerbungen vorsortiert und bearbeitet werden als bisher. Der praktische Nebeneffekt durch die automatisierte Durchleuchtung: Selbst anonyme (in Wahrheit: pseudonyme) Bewerbungen können verraten, welches Geschlecht die Bewerberin hat oder etwa was bei der Familienplanung in naher Zukunft erwartbar ist. Die Diskriminierungsrisiken von solcher Software sind gut untersucht, im gegenwärtigen Diskurs rund um generative KI spielen sie jedoch genau wie die damit zusammenhängenden Datenschutzfragen kaum eine Rolle.
Es empfiehlt sich längst, im Bereich der Arbeitnehmerrechte eine diesbezügliche gesetzliche Regelung zu entwerfen. Der ehemalige Bundesdatenschutzbeauftragte forderte das bereits in seinem Tätigkeitsbericht des Jahres 2022. Er gab darin auch ein paar Beispiele wie die Auswertung von E-Mails, GPS-Tracking oder biometrische Verfahren, die sich mühelos erweitern ließen. Aber die Reform des Beschäftigtendatenschutzrechts scheiterte wie so vieles andere mit dem Ampel-Aus.
Sich generative KI ungewollt einfangen
Dabei sind die Beschäftigten nur ein kleiner Teil der Problemlage, wenn es um den Einsatz generativer KI und die Privatsphäre geht. Der gesamte Lebenszyklus von solchen KI-Systemen müsste abgeklopft werden, um die verschiedenen Eingriffe in die informationelle Selbstbestimmung auszuleuchten. Verschärfend kommt hinzu, dass sich Nutzerinnen von Software und Diensten immer häufiger die umweltschädliche generative KI regelrecht einfangen, auch dort, wo sie es gar nicht erwarten.
Betriebssystem-Updates schmuggeln auf einmal KI-Assistenten so verstohlen auf private Geräte, als handele es sich um eine illegale Substanz. Niemand fragte danach, aber plötzlich taucht ein neuer Kontakt ganz oben auf der Freundesliste auf: der persönliche KI-Freund, dem man alles anvertrauen kann – und seit dem letzten Update vielleicht sogar muss.
Öffentliche und auch private Unterhaltungen auf Kommunikationsseiten werden dank unbemerkter Änderungen in den Allgemeinen Geschäftsbedingungen zunehmend zum Rohmaterial für KI-Crawler. Es ist vielleicht nur unangenehm, wenn Nutzerinnen ihre Spitznamen, sprachliche Eigenheiten und Lieblingsfloskeln in generierten Texten wiederentdecken.
Künstliche Intelligenz
Wir schrieben schon über maschinelles Lernen, bevor es ein Hype wurde. Unterstütze unsere Arbeit!
Doch denken wir mal einen Schritt weiter in die sehr nahe Zukunft: Sollten auch Patientinnen einwilligen, dass ihre medizinischen Diagnosen als KI-Trainingsdatensatz zum Wohle aller weiterverarbeitet werden? Die Anbieter großer KI-Systeme haben Interesse an den Gesundheitsdaten bekundet. Weiterhin Interesse bekundet, müsste man korrekterweise sagen, denn Google Health gibt es nun schon seit über sechzehn Jahren.
Die freiwillige Einwilligung damals wurde noch mit dem Gemeinwohl begründet, inzwischen setzt die Politik schon auf finanzielle Anreize. Wer seine Datenschutzbedenken hintanstellt, erhält einen Rabatt, meint etwa der angehende Kanzler. Da mögen Datenschützer noch so viel kritisieren, die Parole der KI-gestützten Datenverarbeitung lautet: mehr, mehr, mehr.
Anbieter, Käufer, Nutzer
Das Zeitalter der Privatheit sei vorbei, sagte Mark Zuckerberg bereits 2010, weit bevor er die generative KI als Geschäftsfeld entdeckte. Das technikhistorische Gegenargument ist freilich, dass der Begriff erst mit dem Aufkommen des Photoapparats in das gesellschaftliche Zentrum und in die Rechtsprechung rückte. Das Zeitalter der Privatheit beginnt also mit jeder neuen Technik aufs Neue.
Selbstverständlich müssten daher nicht nur die Anbieter, sondern auch die Käufer und Nutzer solcher Systeme an ihre Pflichten und an die Grundrechte zur Wahrung der Privatsphäre und des Kernbereichs privater Lebensgestaltung erinnert werden.
Tja, und wenn es sie nicht interessiert? Was ist, wenn Anbieter oder auch Nutzern generativer KI egal ist, ob sie anderer Leute Privatsphäre mit Füßen treten oder gar die eigene Familie datenverhökern? Was, wenn auch Expertinnen schlicht damit überfordert sind, mit der Technikentwicklung Schritt zu halten? Und was, wenn sich herausstellt, dass Anbieter generativer KI die Nutzerdurchleuchtung zum Geschäftsmodell erkiesen?
Nichts leichter als das: Dann muss der Einsatz von IT-Systemen, die offenkundig und mit Ansage gegen Gesetze wie die KI-Verordnung der EU verstoßen, Grundrechte massiv verletzen und damit Hochrisikosysteme sind, eben untersagt werden. Generative KI bildet da keine Ausnahme. Schließlich verbitten sich die KI-Anbieter den Einsatz generativer KI ja auch, wenn es sie selber betrifft.
Und wer weinte schon Anbietern nach, die nach der KI-Verordnung bereits verbotene Praktiken wie „Social Scoring“ versprechen oder die menschliche Körper ohne Einwilligung biometrisch vermessen und analysieren, obwohl sie eigentlich nur einen ziemlich großen Papagei vorzuweisen haben? Also außer denjenigen, für die demokratische und partizipative Prozesse oder auch Gesetze ohnehin viel zu anstrengend und langwierig sind.
Generative KI-Systeme sehen nicht wie normale Software aus und werden offenbar auch deshalb anders reguliert als diese. Natürlich sind sie es faktisch, aber sie werden von zu vielen Leuten als eine Form von magischem Orakelsystem angesehen, das sich normalen Regeln entziehen darf. Die Opfergabe in Form riesiger Datenmengen ist quasi der Preis, den wir für generative KI zu zahlen haben. Dass darunter auch jede Menge Persönliches und Privates ist, sollte nicht mehr mit Schulterzucken quittiert werden.
Stefan Ullrich ist promovierter Informatiker und Philosoph, der sich kritisch mit den Auswirkungen der allgegenwärtigen informationstechnischen Systeme auf die Gesellschaft beschäftigt. Er ist Referent für Digitale Bildung in der KI-Ideenwerkstatt für Umweltschutz.
Kurze Antwort: nein, wenn du schon fragst. Auf gar keinen Fall, wenn du nicht fragst (Zurückpfeiftheorem).
Die typischen Systeme sind der Natur nach enzyklopädisch. Das sollte aber nicht darüber hinwegtäuschen, dass KI eine tolle Ausreda dafür ist, alle Daten ewig zu speichern. Sie erwähnten Facebook ;).
Hinzu kommt, was die Milliardrseliten in den USA verzapft haben, und damit die USA wiederum hier. Da wird man das weniger freundlich, neu denken müssen.
>Dürfen wir Ihre Informationen durch unsere KI jagen?
Ohne den Artikel zu lesen sage ich: Nein.
Und wenn ich nein sage, dann darf ich jede KI-Firma rechtlich belangen und Schadensersatz fordern, sollten Datensätze von mir zur Fütterung der KI verwendet worden sein.
Jetzt bin ich Neugierig.
Erkläre mal wie du das durchsetzen möchtest. Selbst wenn du nach KI Verordnung und anderen Gesetzen das Recht dazu hast.
Wie willst du das gegen Apple, Google, MS, OpenAI und die Musk’s dieser Welt durchsetzen?
Ich wähle den DSGVO-Weg. Ohne Einverständnis, keine Verwertung meiner Persönlichkeit.
Klagen und Strafzahlungen sind (leider zu selten) erfolgreich. Zumindest ein paar mal war ich in Sammelklagen involviert.
Auch verweigere ich jeden Internetkontakt mit Konzernen, die auch nur die Möglichkeit besitzen, künstliche Intelligenz einzusetzen. Das hilft ebenfalls, unter dem Radar zu bleiben.
Sollten die von dir aufgezählten Personen und Unternehmen mich trotzdem verwerten, selbst wenn ich seit Monaten offline bin (z.B. über die Abfrage des Personalausweises oder eine Kamera von Ring erfasst meine Skeletterkennung), so vernetze ich mich mit Menschen, die sich dafür einsetzen, dass ich Rechtsmittel einlegen kann.
Weil wenn ich mich nicht wehre, oder andere Menschen, weil es doch eh nichts bringe gegen Goliath anzukämpfen, dann können wir unsere Datenschutzbemühungen gleich in den Mülleimer werfen. Über Abwehr sich durchsetzen.
Danke für diesen Beitrag
>„Dürfen wir Ihre Informationen durch unsere KI jagen?“
Wäre es so, ist dieser einfach der falsche Selenverkäufer ahm ich meine Arbeitgeber.
Verneinen aufstehen und gehen!