Den Meta-Chatbot können Menschen über Instagram, Whatsapp und Facebook ansprechen. Laut Meta nutzen ihn monatlich mehr als eine Milliarde Menschen. Viele davon teilen intime Informationen mit der Software.
Die Gespräche, die Menschen mit der sogenannten Künstlichen Intelligenz führen, will Meta künftig auslesen und speichern. Damit sollen Anzeigen treffsicherer personalisiert werden und die Daten sollen auch beeinflussen, welche Posts Nutzer*innen in den Sozialen Netzwerken angezeigt bekommen. Das erklärte Meta gestern in einem Blogpost. Der Konzern behält sich dabei vor, die Informationen aus den Gesprächen in allen seinen Produkten zu nutzen.
Ein Beispiel nannte der Konzern direkt: Wer sich mit der KI etwa übers Wandern unterhalte, bekomme danach womöglich Empfehlungen für Wandergruppen, Wanderstrecken von Bekannten und Werbung für Wanderschuhe angezeigt.
Auch sensible Konversationen werden ausgelesen
Meta gibt zwar an, sensible Konversationen über religiöse Ansichten, die sexuelle Orientierung, politische Meinungen, Gesundheit und ethnische Herkunft nicht für personalisierte Werbung nutzen zu wollen, die Daten werden aber dennoch mit ausgelesen.
Die neue Regelung will Meta ab dem 16. Dezember umsetzen, allerdings zunächst nicht in der EU und Großbritannien. Dort solle das Feature später ausgerollt werden, weil die hiesigen Datenschutzbestimmungen strenger seien. Für das KI-Training werden die Chatprotokolle in Europa wohl schon genutzt.
Seit Juni ist bereits bekannt, dass Meta mit Hilfe von KI Anzeigen erstellen will. Werbetreibende müssen dann nur ein Produktbild und ein Budget vorgeben. Meta möchte durch diese Investitionen die größte Einnahmequelle Werbung noch rentabler machen. Hier bieten sich auch Spielräume für individuelle Personalisierung von Anzeigen – anhand der mit dem Chatbot erhobenen Daten.
Nutzer*innen teilten unbewusst Chatprotokolle
Meta hat den Chatbot für seine Messenger erst vor wenigen Monaten in Europa eingeführt. Er stand schon mehrfach in der Kritik, etwa weil ihm erlaubt war, „sinnliche“ und „romantische“ Konversationen mit Minderjährigen zu führen. Ein anderes Mal, weil viele Nutzer*innen ihre teils sehr persönlichen Chatprotokolle scheinbar unbewusst veröffentlicht hatten.
Die Nutzer*innen können einstellen, in welchem Ausmaß die ihnen ausgespielte Werbung personalisiert werden soll, aber es gibt keine Möglichkeit, sich gegen die Datenerfassung zur Personalisierung zu wehren – außer, den Chatbot nicht zu nutzen. In Whatsapp kann es allerdings sein, dass andere Nutzer*innen ihn zu einer Konversation hinzuziehen. Das lässt sich mit der Funktion „erweiterter Chat-Datenschutz“ verhindern. Oder mit dem Verzicht auf die datensammelwütige App zugunsten von datensparsamen Alternativen.

Geostrategisch handeln. Einziger Weg.
Es kommt Mitleid auf, wenn ich „einziger Weg“ lese.
Wem fehlt es an was, wenn Autoren und Sprecher nur einen „einzigen Weg“ gefunden haben (wollen), oder agitatorisch nur den einen proklamieren?
Noch verstörender wenn speziell konfigurierte Bots auf unterspezifisch unterfütterte Posts antworten.
„Wem fehlt es an was, wenn Autoren und Sprecher nur einen „einzigen Weg“ gefunden haben (wollen), oder agitatorisch nur den einen proklamieren?“
Dem Leser. Dem fucking Leser. Nähmlich an der Auseinandersetzung mit dem Inhalt: „geostrategisch handeln“. Der „Transfermarktleistung“, dann noch zu überlegen, wer denn geostrategisch handeln kann, und wie das dann aussehen soll, sowie das Post dann wiederum auf Basis dessen zu bewerten, bevor man die jeweilige Eingabemethode mit derartigem Blödsinn foltert.
„oder agitatorisch nur den einen proklamieren?“
A: Neblig eingeengt, wird das Kraut geschnitten – hat dieser Garten denn überhaupt einen Zaun?
B: Ist das schon Double-Reverse-Fascism?
Also Jüngens: kein lautes Rezitieren von Passworten im öffentlichen Nahverkehr mehr!
Warum ist bei facebook und der Datenauswertung eigentlich fast ausschießlich von der Verwertung in Ad-Networks die Rede?
Es mag ja angehen, dass das gezielte Austeilen der Kommerzanreize ökonomisch derzeit noch Hauptgeschäft des Konzerns sein kann.
Was aber aber doch bei der Technik- und Nutzerbasis, dem Nutzungsschnitt, viel viel interessanter ist, grad für einen sind Experimente und Nutzung von Behaviour Control, Massensteuerung, in/direkter Zielgruppenmanipulation, Informationsflussanalysen, Manipulation performativ, etcpp. Feiste Soziologie. Und das über Daten aus vielen Jahren über die gesamte Erden, inklusive sämtlicher „privater“ Kommunikation, Geodaten, Biometrie (Foto, Audio) und extrem breite Korrelationsoptionen über andere Plattformen die da so mitspielen.
Da ja Niemand (selbst die Betreiber) nicht sagen können wie die Antworten einer KI zustande kommen drängt sich das geradezu als Werbeeinnahmetopf auf !
Niemand könnte das nachweisen (außer an den Geldflüssen) und nur die Wenigsten würden es merken.
Von Routenplanern, Zimmerbuchungsseiten und Suchmaschinen ist das ja schon lange bekannt.