Der KI-Chatbot DeepSeek wird in Deutschland verboten. Die Berliner Datenschutzaufsicht hat die chinesische App als rechtswidrig bewertet, weil sie Daten ihrer Nutzer*innen nach China übermittelt. Damit verstößt sie gegen die Datenschutzregeln der EU (DSGVO). Apple und Google sollen die Anwendung nun aus ihren App-Marktplätzen entfernen. Auf anderen Wegen, etwa über den Browser oder heruntergeladen über die Seite des Unternehmens, ließe sich der Chatbot allerdings weiterhin nutzen.
DeepSeek habe gegenüber ihrer Behörde nicht überzeugend nachweisen können, dass Daten deutscher Nutzer*innen in China auf einem der EU gleichwertigen Niveau geschützt sind, sagt die Berliner Datenschutzbeauftragte Meike Kamp.
In China haben Behörden weitreichende Zugriffsrechte auf personenbezogene Daten, die auf den Servern chinesischer Unternehmen lagern.
Ehemals Chartspitze, jetzt auf Verbotsliste
DeepSeek hatte nach der Vorstellung Anfang des Jahres für Furore gesorgt, weil die Leistungen des Modells hinter dem Chatbot an die von Marktführern wie ChatGPT von OpenAI heranreichten – für viele Beobachter*innen kam das überraschend. Zugleich soll das Training des Modells vergleichsweise günstig und mit weniger Rechenleistung stattgefunden haben, berichtete etwa die New York Times. Das brachte die Börsen durcheinander.
Die App gehört zu den beliebtesten KI-Anwendungen weltweit. Auch in Deutschland trendete sie zwischenzeitlich weit oben in den Download-Charts von Apple und Google. Nutzer*innen können mit der kostenlosen App chatten, Bilder hochladen oder sie für die Suche im Netz einsetzen.
Behörden warnten vor der App
Bedenken zum Umgang mit Nutzer*innendaten gab es von Anfang an. Denn alle gesammelten Daten – von Texteingaben und hochgeladenen Dateien bis zu den Informationen zum Standort und dem benutzten Gerät – übermittelt das Unternehmen nach China.
„Auch Tastatureingaben innerhalb der App können womöglich mitgelesen werden, bevor sie abgeschickt werden“, warnte das Bundesamt für Sicherheit in der Informationstechnik (BSI). Außerdem werde die Art der Tastatureingaben gespeichert, heißt es. Anhand der Art, wie Menschen tippen, lassen sich Nutzer*innen wiedererkennen.
Alles netzpolitisch Relevante
Drei Mal pro Woche als Newsletter in deiner Inbox.
Auch die Aufsichtsbehörden für Datenschutz hatten DeepSeek im Blick. Mehrere Landesbehörden gingen parallel gegen das Unternehmen vor. Die Gründe: Weitergabe der Daten und andere mutmaßliche Verstöße gegen die DSGVO. Das Unternehmen hatte etwa keinen gesetzlichen Vertreter in der EU benannt. In Abstimmung mit anderen Aufsichtsbehörden ist es jetzt die Behörde aus Berlin, die Maßnahmen ergreift.
Erst Aufforderung, dann Verbot
Die Behörde hatte nach eigenen Angaben DeepSeek Anfang Mai zunächst aufgefordert, die Übermittlung der Daten nach China einzustellen – oder die App eigenständig aus den Stores zu entfernen. Nachdem das Unternehmen nicht reagierte, folgte demnach heute die Meldung an Apple und Google. Dabei machte die Behörde von einer Regelung im Gesetz über digitale Dienste (Digital Services Act, DSA) Gebrauch, die Betreiber*innen von Plattformen dazu verpflichtet, Meldewege für illegale Inhalte zur Verfügung zu stellen.
Apple und Google müssen die Meldung laut DSA nun prüfen und über die Umsetzung entscheiden. Sie gelten in der EU als „sehr große Online-Plattformen“ und unterliegen damit besonders strikten Auflagen. So müssen sie ihnen gemeldete rechtswidrige Inhalte zügig entfernen, sonst drohen ihnen selbst Strafen in der EU.
Die Behörde hätte gegen DeepSeek auch ein Bußgeld verhängen können. Das lasse sich gegen Unternehmen aus Drittstaaten allerdings nicht vollstrecken, sagt Datenschutzbeauftragte Meike Kamp. Auch gegen die Webseite des Unternehmens könne die Behörde nicht vorgehen, weil der Host-Anbieter nicht bekannt sei.
In Italien ist DeepSeek bereits aus den App Stores verschwunden, nachdem die italienische Datenschutzaufsicht GPDP die App ins Visier genommen hatte. Australien hat die Nutzung der App auf Geräten der Regierung untersagt. In Südkorea wiederum ist die App nach einer zeitweisen Sperre wieder verfügbar, nachdem die Betreiber nachgebessert hatten.
Auch andere chinesische Apps haben Nutzer*innendaten an Server in China übermittelt, darunter die erfolgreichste: TikTok. Das Unternehmen hat jedoch im Gegensatz zu DeepSeek einen Sitz in der EU und fällt in die Zuständigkeit der irischen Datenschutzaufsicht, die jüngst gegen TikTok eine Millionenstrafe veranlasst hat.
Habe gehört, dass auch die Apps „Amazon“ und „Youtube“ gelöscht werden, da Nutzerdaten ohne Regress ins Ausland abfließen. Danke, dass Ihr den Artikel ergänzt.
ja, genau und nicht vergessen, dass die Demokratie USA mit ihren zwei politischen Parteien genauso schlimm ist, wie die Komplett Überwachungs-Diktatur China mit der Einparteienhertschaft der Kommunistischen Partei Chinas und ihren Uiguren Konzentrationslagern
Von exterritorialen rechtsfreien Räumen für Andersgläubige wo pauschal Kriegsrecht angewendet wird bzw. Todesurteilen ohne Prozess, hat man aus dem Reich der Mitte bisher noch wenig gehört.
Titel ist etwas Clickbait: Der Rauswurf der App wird noch geprüft. Ob Apple und Google diese umsetzen ist abzuwarten. Der Titel suggeriert aber, dass DeepSeek schon rausgeworfen wurde.
„Auch gegen die Webseite des Unternehmens könne die Behörde nicht vorgehen, weil der Host-Anbieter nicht bekannt sei.“
Dies ist nicht ganz richtig. Die Domain deepseek.com liegt bei einem Registrar mit dem Namen Dnspod, was tatsächlich ein chinesische Unternehmen zu sein scheint. Die Domain wir aber aufgelöst zu IPs, die zu Cloudflare gehören. Da sich Deepseek also hinter Cloudflare versteckt, bleibt der Host-Anbieter tatsächlich verborgen. Gegen Cloudflare (USA aber mit deutscher Tochterfirma) könnte man aber durchaus vorgehen.
„Auch Tastatureingaben innerhalb der App können womöglich mitgelesen werden, bevor sie abgeschickt werden“
Mag sein. Das ist ja der Sinn der Apps. Wer damit nicht rechnet, der ist naiv. Überprüfen lässt sich das nicht. Genau so wenig, wie bei Meta, Google, Apple, Microsoft, openAI und alle „großen“ Player inklusive der Regierungen. Alle Daten, die Profit bringen, werden genutzt. Selbst auf den Seiten der EU.
China mag „böse“ sein, in weiten Teilen menschenverachtend. Wir stehen dem wenigstens in Bereichen in nichts nach. Aus diesem Blickwinkel wird hier ein Arschlochverhalten zur Propaganda genutzt und mit zweierlei Maß gemessen.
Allerdings, wir wissen doch, Schuld sind die Koreaner, nicht wahr…
Die Fallstricke der Macht sind überall gleich.
Nicht ganz ersichtlich, was soll an „DeepSeek“ so anders sein. Warum besonders „DeepSeek“ und sonst die anderen KIs nicht?
Weil die Chinesen angeblich alle Daten direkt benutzen, und die USA nur die Erlaubten, und alles was sie sonst über „andere Kanäle“ „*legal*“ dazukriegen. Also alle alles. Die Appstores sind offenbar in den USA.
Daher wäre konsequent: die anderen Unternehmen auch noch rauswerfen. Dann die Appstores, dann das OS gleich mit, und die Hardware am Besten auch.
Gern geschehen…
Hoffentlich merkt man, dass kein Unterschied besteht. Meta darf auch erst mal gegen Copyright Bücher lernen. Die Argumente sind zwar eher technisch, man wirft den Klägern Fehler vor, dennoch bedeutet die Urteilsbegründung, dass die Schutzziele von Copyright niemanden mehr interessieren.
Wie absurd ist das, dass die KI angeblich nicht genug von dem Werk reproduzieren kann? Das kommt ja auf die Kontexte drauf an, und dann kannst du im Stil des Schriftstellers schreiben. Früher hätte dafür jemand die Bücher kaufen und lesen müssen, und dann über die Fähigkeit verfügen, etwas in dem Stil zu schreiben. Bei der KI, die fast beliebig in den Nutzeranfragen skaliert, also x-fach der Typ, ist das also jetzt ok, die Bücher nicht gekauft zu haben, und wenn ja, wie viele?
Die USA ergeben keinen Sinn. Dummheit und Macht, lautet die Antwort. Im Grunde also, wie gehabt.
Solche LLM-App-Verbote sind letztlich eine leichte Form der Zensur. (Also der Versuch der Kontrolle von Information) Leicht, denn: Immerhin kann man die App noch sideloaden oder im Netz verwenden. Das ist allerdings nichts, was Normies einfach so machen würden.
„Wir“, also die Netzgemeinschaft, sind glaube ich nur geneigt, diese spezifischen App-Verbote mitzutragen, weil sich die Begründung auf Werte beruft, die wir normalerweise teilen.
Aber: Grundsätzlich sollte der Nutzer selbst entscheiden können, welche Software auf den eigenen Systeme läuft.
Perspektivisch wäre es daher wichtig, dass die App-Stores nicht als der einzige Weg wahrgenommen werden, um Software zu beziehen.
Das ist gerade einfach zu viel Macht in den Händen zweier Unternehmen. Klar, dass die Staaten dieser Welt versuchen, eine solche Machtressource anzuzapfen.
Unternehmen sind keine demokratische Veranstaltung. Macht ist zu begrenzen. Das ist soweit imperativ.
LLMs sind nicht süss. Cloudmaschinen nicht einfach Software.
Nah?!
Schiss die KI ist besser als alle anderen und stimmt mögliche zahlende Kundschaft und Investoren um?
Schiss die wird noch besser und wird eben durch die Nutzung mehr trainiert als von der NATO gewünscht?
Die AGB von DeepSeek ist ehrlicher als die der anderen. Und sie wird als Applikation nicht aufgezwungen wie einige der Smartphone Hersteller uns an tun.
Also letzt habe ich ein Interview mit einfach nur irgendwem gesehen, (Times Radio): „Why businesses need to prioritise AI | Expert explains how to level up your business“
Und Im Interview hat der Typ eigentlich keinen Inhalt gebracht. Motivationssprüche wie „Es wird nie wieder so langsam vorangehen wie jetzt“, und man solle die Skills lernen. Dabei scheint der Fokus tatsächlich auf LLMs zu liegen. Es gibt keine Begründung, kein nichts. Warum sollte jemand das benutzen? Wenn es bessere Werkzeuge gibt, nimmt man vielleicht die dann? Nutzung von LLMs entspricht allerdings nicht dem Entwickeln von Fähigkeiten. Das ist Anti-Skill.
Spezifischere Modelle für bestimmte Prozesse einzusetzen, oder auch selbst zu bauen und/oder zu pflegen, ist eine andere Sache. Aber das ist nicht der Cloudpapagei. Solange ein LLM dir trotz konkreten Trainings Schwachsinn präsentieren kann, ist es für viele wichtige Aufgaben nicht geeignet. Erst wenn man alle Prinzipien aufgibt, und bereit ist, gesellschaftlich Fähigkeiten zu verlieren, gleichzeitig Schwund am Mensch statistisch in Kauf zu nehmen, dann kann man das massenhaft einsetzen. Katastrophe garantiert.
Dann labern die davon, Leute sollen doch vertrauen in KI entwickeln, das es technisch gesehen nicht geben kann. Sicher jedoch ist, dass die Macher der Wolkenmaschinen gerne Copyright liquidieren würden, sowie alle anderen Rechte anderer Leute auch. „Für KI“ klingt logisch, weil KI, aber warum geben alle Daten ab?
Und technisch ist nicht klar, ob es jemals besser werden wird. Ein LLM-basiertes Sprachteil ignoriert im Zweifel 100 Jahre Training. Jetzt kommen Tricks, wie Iteration, Monte Carlo (ein bischen), ein Speicherregal, usw. Aber es wird nicht „plötzlich Bewusstsein entwickeln“. Es entwickelt sich nichts, es werden Module angebaut, wie in Fallout.
Nicht zu vergessen: es wird auf zweifelhemmende Weise immer von „the ai“ gesprochen. Als wäre da etwas, was sich entwickelt. Der größte Raubzug der Menschheitsgeschichte – das wird wohl mit „the ai“ gemeint sein.