Auf Instagram, Twitter und TikTok verbreitet sich gerade ein neues Geschäftsmodell für Influencer:innen, das auf Deepfake-Technologie basiert. Darüber hat zuerst das US-Medium 404 Media berichtet. Dabei nutzen Menschen bereits veröffentlichtes Videomaterial von Models oder Sexarbeiter:innen und tauschen lediglich das Gesicht aus. Mit sogenannter Künstlicher Intelligenz entstehen dabei täuschend echte Aufnahmen, sogenannte Deepfakes.
Vermehrt erreichen diese selbst ernannten virtuellen Influencer:innen teils Hunderttausende Follower:innen. Viele locken Nutzer:innen mit ihren manipulierten Bildern und Videos auf den öffentlich zugänglichen sozialen Netzwerken zu zahlungspflichtigen Erotik-Inhalten bei Seiten wie OnlyFans oder Fanvue. Zumindest manche Menschen hinter diesen Accounts geben an, dass sie vom Computer generierte Bilder und Videos nutzen.
Laut 404Media wird diese Methode in Ratgebern für virtuelle Influencer empfohlen, um die Figuren glaubwürdiger zu machen. Derzeit ist noch keine Technik für die breite Öffentlichkeit verfügbar, die komplette, realistische Videos mit Personen generieren kann. Bislang haben das Unternehmen wie Open AI bloß angekündigt. Bei der von 404 Media gefundenen Fake-Methode sind deshalb immer noch Originalvideos notwendig, um den Inhalt zu erstellen.
Als Reaktion auf die Recherche von 404Media hat Instagram manche der recherchierten Accounts gelöscht, auf anderen Plattformen blieben sie online.
Meta plant, das ab Mai mit Künstlicher Intelligenz generierte Inhalte gekennzeichnet werden sollen, wenn Meta das selbst erkennt oder Nutzer:innen das selbst offenlegen. Mit der europäischen KI-Verordnung kommen zudem Kennzeichnungspflichten bei Deepfakes auch per Gesetz. Diese werden allerdings unseriöse Akteur:innen nicht davon abhalten, Deepfakes zu verschleiern. Es ist fraglich, ob Wasserzeichen und andere technische Lösungen überhaupt in der Lage sind, das Problem zu bekämpfen oder ob nicht vielmehr Bildung und neuer gesellschaftlicher Umgang hier weiterhelfen.
„Mit sogenannter Künstlicher Intelligenz entstehen dabei eine täuschend echte Aufnahmen, sogenannte Deepfakes.“
Das Wort „eine“ muss gestrichen werden. Danke!
Danke, ist gestrichen.
Ich habe ehrlich gesagt nie verstehen können wie so viele Leute überhaupt auf Influencer „hereinfallen“. Einerseits steckt im Begriff „influence“ schon die Implikation „beeinflußen“ und andererseits hat das Symptomatische Gleichnisse mit der Influenza, also der Echten; durch Grippeviren ausgelösten; Krankheit. Es wirkt damit fast als WOLLTEN die Leute sich Krank machen lassen. Und das „Beinflusser“ nun auch noch so krank werden das sie mit „Sex Sells“ und vorgetäuschten Videos das Geld abnehmen wollen ist nur ein Auswuchs dieser Epidemie. Die auch erst wirklich befeuert wurde durch die Plattform-Ökonomie der aSozialen Medien.
Kurz: Wenn man einem Idioten eine Plattform zur Selbstdarstellung gibt dann wird er das tun. Gibt man ihm dann noch Anreize damit Geld zu verdienen wird er es tun. Gibt man ihm dann noch Werkzeuge um mit Lug und Trug noch mehr Geld zu verdienen dann wird er auch das tun.
Wann hören die Menschen mal auf damit auf Idioten zu hören die nur ihren Eigennutz im Sinn haben?
BTW, so „neu“ wie z.b. Wikipedia das darstellt finde ich das nicht. Erinnern sich die Älteren noch an „Herrn Kaiser“, „Tilly“ oder „Clementine? Die wollten uns früher schon Versicherungen, Spülmittel und Waschpulver andrehen. Ich sehe da dennoch einen Unterschied zu den heutigen „Leute kauft meinen tollen neusten heißen Scheiß“ Idioten.
> Ich habe ehrlich gesagt nie verstehen können wie so viele Leute überhaupt auf Influencer „hereinfallen“.
In die Grube fällt, wer sie nicht sieht. Andere aber springen freudig in jedes Loch, weil sie sich dort wohler fühlen. Influencer kümmern sich um jene, die im Wald noch vor der Fichte stehen und unschlüssig sind: „Komm mit mir hinter die Fichte und schau, welch schönes Loch ich für dich gegraben habe. Springst du, oder brauchst du noch einen kleinen Schubs?“
Diesen kleinen Schubs könnte ein Mikrofon bewirken, dass so groß ist, dass es nicht übersehen werden kann, und es muss sehr sehr teuer aussehen. Wer so ein tolles Mikro hat, kann nicht lügen!
Hier sind ja nur Copyright und das Recht am eigenen Bild verletzt, auch wenn das Gesicht fehlt. Wir können erwarten, dass irgendwann die Fakes überzeugend sind. Und dann wird niemand mehr Gesichter auf echte Frauenkörper montieren, ist nun mal mehr Arbeit.
Gegen komplett computergenerierten und überzeugenden Videos ist nichts einzuwenden, solange es ja nur um Kunst geht, wie Spielfilme und Pornografie. Das wird höchstens Pornstars, Pornosternchen und den anderen Schauspielern die Arbeit wegnehmen, was für die natürlich nicht schön ist. Und ich ihnen auch nicht wünsche. Wobei wir sehen werden, ob das zu einem Problem wird. Allerdings gibt es heute schon künstlich generierte Filme, sei es via Zeichentrick oder computergeneriert, wobei man das heute noch sieht.
Da es Kunst ist gehört es in den Kunstunterricht und jeder Schüler sollte mal einen Deep-Fake machen, alleine damit sie lernen, dass es so etwas gibt, wie einfach so etwas zu machen ist, und dass sie so etwas auch in der Wirklichkeit finden werden.
Schwieriger sind da die Erwachsenen zu erreichen und hier haben wir natürlich das Problem auch die Lehrer können damit nicht umgehen. Die können nicht mal die Schüler dazu anleiten wie man ein Smartphone richtig verwendet. Stattdessen verbieten die das einfach, und kassieren es im Zweifelsfall ja noch ein. So wird das natürlich nichts.