Ungewöhnlich viele deutsche Politiker*innen geben sich gerade datenschutzinteressiert. Ganz schlimm wäre das, so ihr Tenor, wenn Daten aus Deutschland in die USA, zu Palantir, zum Endzeit-Apologeten Peter Thiel abfließen würden. Palantir-Software soll deshalb im Bund nicht eingesetzt werden, so die SPD-Fraktion. Auch Cem Özdemir, der grüne Spitzenkandidat von Baden-Württemberg, wo Palantir-Tools bald eingesetzt werden dürfen, ist gegen deren Nutzung.
Der Witz ist: Die Politiker*innen wollen nicht auf solche Tools verzichten. Sie sollen nur nicht aus den USA kommen. Die SPD wünscht sich eine europäische Alternative, Özdemir am liebsten eine aus Baden-Württemberg.
Es soll Big-Data-Analyse-Software nach Palantir-Art geben, da sind sich sehr viele einig. Nur halt regional produziert und vielleicht ja sogar auch noch in Bio-Qualität.
Ein Riesenproblem für Grund- und Freiheitsrechte
Dabei ändert es nichts am Grundproblem, wenn man die automatisierte Rundum-Überwachung selbst aufbaut, statt sie aus einem System im totalitären Umbau zu kaufen. Sie bleibt menschenfeindlich, ein Riesenproblem für Grund- und Freiheitsrechte. Es ist eine Software, die den totalen Überblick ermöglicht, eine Entwicklung, die eigentlich nur zu totalitären Systemen passt. Wenn Demokratien das einsetzen, drohen sie, zu solchen zu werden. Das gilt auch, wenn die Daten, mit denen die Systeme gefüttert werden, in Deutschland derzeit auf sowieso bestehende polizeiliche Datenbestände begrenzt werden. Denn wer seine Bürger*innen derart umfassend in den Blick nehmen kann, der wird diese Macht absehbar auch zunehmend nutzen.
Die Software droht uns dem anzunähern, was gerade in den USA geschieht: der KI-gestützten Menschenjagd, wie sie die US-Einwanderungsbehörde ICE praktiziert. Die deutschen Politiker*innen zeigen sich datenschutzinteressiert, während sie das Datenschutz-Armageddon einleiten.
Die Tools von Palantir führen Daten zusammen und analysieren sie. Dafür sind sie gemacht. So viele Daten wie möglich. Und es wären viele Daten vorhanden: Bewegungsprofile, die mittels Werbe-ID von fast allen Telefonbesitzer*innen gesammelt werden. Telekommunikationsdaten: Wer mit wem wann von wo aus wie lange telefoniert. Social-Media-Accounts. Daten, die die Polizei bei Beschlagnahmungen oder per Staatstrojaner aus Endgeräten ausgelesen hat. Wer wann mit wem welchen Flug gebucht hat. Wer was wo im Netz sucht oder bestellt. Aufnahmen aus Überwachungskameras und polizeilichen Observationen. Und, und, und.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Ein mächtiges und gefährliches Werkzeug
Die Big-Data-Analyse ist totalitär, weil sie alles mit allem verknüpfen will. Weil sie Menschen so durchsichtig machen soll wie möglich. Sie ist ein mächtiges und gefährliches Werkzeug.
Dabei landen nicht nur die Daten von potenziellen Straftäter*innen im System, sondern auch die von Opfern, Zeugen und Menschen, die sich zur falschen Zeit im falschen Areal aufgehalten haben.
Mir ist völlig unverständlich, wie man als Demokrat denken kann, das sei eine gute Idee. Auf der einen Seite werden Länder wie China als problematische Kontrollstaaten dargestellt. In der Realität rennen wir den technischen Mitteln hinterher, die so etwas ermöglichen. Social Scoring? Mit Big-Data-Software per Knopfdruck aufbaubar. Anpassungs- und Konformitätsdruck galore. Mit solchen Tools sieht es schnell ganz schlecht aus für alle, die in Opposition zu den Herrschenden stehen.
Eine Software entscheidet, wer in den Fokus der Sicherheitsbehörden gerät
Ein weiterer Knackpunkt an dieser Art Software, egal woher sie kommt, ist die automatisierte Auswertung der zusammengeführten Daten. Kein Mensch, der vielleicht auch mal Mitgefühl oder zumindest Augenmaß haben kann, markiert, wer in den Fokus der Sicherheitsbehörden gerät, sondern eine Software. Einen kleinen Blick in diese bedrohliche Zukunft der Deutungshoheit der Maschinen bietet gerade die Debatte um den Datenaustausch mit den USA. Die dortigen Behörden wollen Zugriff auf biometrische Daten aus der EU. Laut einem aktuellen Verhandlungsstand soll es auch möglich sein, Entscheidungen über Einreisende automatisiert abzuwickeln.
Und man bedenke: Daten, die vorliegen, werden auch missbraucht. Das ist mit heutigen Polizeidatenbanken auch schon so – siehe NSU 2.0 und Polizisten, die Frauen stalken. Wenn dann eine derart umfassende Datenanalyse zur Verfügung steht, können die Täter*innen bei Interesse das Leben einer Person bis in die intimsten Winkel ausleuchten.
In Deutschland droht eine Machtübernahme der AfD. Die Politiker*innen, die sich jetzt für Big-Data-Software aussprechen, die sind auch willens, den Rechtsradikalen dieses Tool in die Hände zu geben.

Ausschnitt, wg Platzmangel. Ihr müsst die Schlüsse also selbst ziehen und die Relevanz selbst beurteilen.
Was ist eine KI?
Man könnte vereinfacht sagen, die KI sortiert, indem sie „Kugeln“ (=Daten) ein kompliziertes Netz aus Bahnen hinab rollen läßt. Diese Bahnen sind „eingeschliffen“ durch Millionen von Testkugeln. Jedes mal, wenn die Kugel in einem falschen Ergebnisloch endet, dann wird an der Bahn „rumgeschliffen“, bis das Wunschergebnis eintritt. Das geht immer und mit allen möglichen „mathematischen Funktionen“ – so es sie überhaupt für den gewünschten Fall gibt. Zufall z.B geht nicht.
Niemand sagt, dass diese Testdaten einer Realität entsprechen. Niemand sagt, dass es überhaupt eine „Funktion“, eine Art Determinismus zum „Problem“ gibt. Mehr noch, Vorurteile und eigene Fehlschlüsse und Beurteilung fließen in diesen „Einschleifvorgang“ massiv ein. Dazu kommt, dass bei Menschen gar nicht einfach entschieden werden kann, was das falsche Loch ist.
Fakt, die KI spuckt nur eine gewisse Wahrscheinlichkeit aus, noch dazu nur gültig innerhalb der Lerndaten zu einem willkürlichem gewähltem Grad (angegeben mit Nachkommastellen). Jede Abweichung vom „Gelerntem“ macht KI-“Entscheidungen“ unzuverlässiger. Nachlernen geht nicht bzw. macht es nur noch schlimmer. Vergessen geht auch nicht. KI ist: Wenn ich nur einen Hammer habe. Dann sieht alles wie ein Nagel aus. Denken ist hier nicht!
Das rechtfertigt dann, jeden an dieser KI zu messen? An einer willkürlichen Norm der Lerndaten und das auch nur im besten Fall? An Regeln, die nirgendwo aufgeschrieben sind und nur als Zahlen in den „Gewichten“ der „Neuronen“ stehen? Niemand kann „Entscheidungen“ einer komplexen KI nachvollziehen. Aber du sollst doch danach richten?
Nun kommt die Begründung, dass doch immer ein Mensch entscheidet. Ja, nachdem die KI vorsortiert hat. Menschen die in einer gewissen Art von der Norm abweichen werden häufiger kontrolliert. Wer sich anpasst, der hat Ruhe und kann tun, was er will – nur nicht auffallen.
Man stelle sich vor, die Entscheidungen der Maschine hätte sofort Auswirkungen. Dann sind wir bei Philip K. Dick und seiner Welt, wo nur ein Fluch einen Blitz vom Himmel schickt. Eine komplett deterministische Welt, wo jede ungeschickte Bewegung als gefährlich eingestuft wird. Es kommt nicht mehr auf „Wahrheit“ an. Es kommt nur noch auf Regeln an sich an. Doch diese Regeln stehen nur in den Gewichten der Neuronen der KI. Es sind Zahlen. Du kannst die nicht nachlesen! Du weißt nicht einmal, ob die Entscheidungen von deinen schönen blauen Augen maßgeblich beeinflusst werden. Bei komplexen KIs ist es nicht möglich, Entscheidungen nachzuvollziehen. Du weißt nicht, wie du dich verhalten sollst. Du bist einer unrealistischen Perfektion unterworfen, während die, die das kontrollieren, gar nicht perfekt sein können. Das bedeutet massives Ungleichgewicht der Kräfte. Das bedeutet Willkür.
Natürlich man kann das übertrieben finden. Doch du musst dich rechtfertigen, nur weil du dich rücklings ins Gras des Parks fallen gelassen hat, wo du Torfnase das Verbotsschild nicht gesehen hast. Dumm, wenn du schwarz bist, als Mann ein Kleid an hast, Kampfkunst im Stadtpark betreibst, vielleicht tanzt, deine Frau ungeschickt umarmst, stolperst oder irgend etwas für die KI Unbekanntes veranstaltest. Das Ergebnis ist dann Zufall und abweichend von der Norm. Alles kann Verdacht provozieren! Und, wie gesagt, man kann KI nicht nachlernen, ohne vollkommen unvorhersehbare Effekte zu provozieren.
Ihr kennt das unter dem Begriff Halluzinieren der KI. Es gibt prinzipiell und mathematisch beweisbar, kein Mittel dagegen.
Wieder zu lang? Jep. Kurz würde ich fragen: Seit ihr eigentlich bescheuert?