Emotionale KIBerechnete Gefühle

Forschende arbeiten an Technologien, die menschliche Emotionen erkennen sollen. Die Anwendungsgebiete reichen von Autismustherapie über Optimierung von Werbung bis hin zur Sicherheitspolitik. Dabei bewegt sich die Forschung auf umstrittenen Grundlagen und könnte gefährliche Folgen haben.

Nahaufnahme Gesicht
Traurig, wütend oder müde? Die Emotionserkennung soll feine Unterschiede in der Mimik erkennen. Gemeinfrei-ähnlich freigegeben durch unsplash.com Jakayla Toney

Actionunit 12 in Kombination mit Actionunit 6: So nennt Dominik Seuß ein echtes Lächeln, bei dem sich die Mundwinkel und Wangen nach oben schieben und rund um die Augen Krähenfüßchen bilden. Fällt Actionunit 6 weg, bleiben nur die hochgezogenen Mundwinkel – ein soziales Lächeln, das nicht auf ehrlicher Freude beruht. Seuß leitet am Fraunhofer-Institut für Integrierte Schaltungen den Bereich Gesichtserkennung und Mimik. Schon seit Jahren erforscht sein Team hier Technologien, die mit Kameras und Algorithmen menschliche Gesichtsausdrücke erkennen und Emotionen zuordnen sollen.

Meist handelt es sich um Systeme wie diese, wenn von Künstlicher Intelligenz zur Emotionserkennung oder „emotionaler KI“ die Rede ist. Der Begriff wird allgemein für Technologien verwendet, die biometrische Daten wie Gesichter oder Stimmen erfassen und auf dieser Grundlage automatisiert Rückschlüsse auf die Emotion einer Person treffen.

Einsatz zur Autismustherapie oder in der Autoindustrie

Am Fraunhofer-Institut findet sich diese Idee beispielsweise in einem Projekt mit humanoiden Robotern, die die Therapie von Kindern mit Autismus unterstützen sollen. „Manche Kinder mit Autismus reden vielleicht lieber mit einem Roboter, als mit einem Mensch, da die Reaktionen vorhersehbarer sind“, sagt Dominik Seuß. Der Roboter soll ihnen spielerisch helfen, die Gefühle ihres Gegenübers zu erkennen, oder zeigen, wie sie ihre eigenen Gefühle ausdrücken können. „Noch in der heißen Forschungsphase“, so Seuß, sei eine Anwendung, die in Fahrzeugen die Gesichtsmimik der Person am Steuer auswertet und dann vor kognitiver Überlastung warnt.

Die Projekte der Fraunhofer-Institute sind nur ein winziger Ausschnitt des florierenden Forschungs- und Wirtschaftszweigs rund um Emotionserkennung. Für die kommenden Jahre prognostizieren verschiedene Analysen dem Markt ein Wachstum um mehrere Milliarden US-Dollar. Die Begeisterung ist auch beim Bundesministerium für Bildung und Forschung (BMBF) angekommen: 22 Millionen Euro hat es in deutsche Forschungsprojekte zur automatisierten Emotionserkennung investiert. Doch die Technologien sind anfällig für diskriminierende Fehler, sie beruhen auf umstrittenen Grundlagen und bieten Raum für Missbrauch und Manipulation.

Anwendungen funktionieren noch nicht fehlerfrei

Seit Jahren wird an Emotionserkennungs-KI geforscht, aber erst jetzt komme sie „in ein Stadium robuster Anwendbarkeit“, sagt Björn Schuller. Der Informatiker beschäftigt sich in seinen Projekten an der Universität Augsburg mit akustischer Emotionserkennung. „Deutschland ist und war hier stets führend in der internationalen Forschung“, sagt er. Angewendet würde die Technologie jedoch weder hierzulande noch anderswo – mit wenigen Ausnahmen.

Ein Bereich, in dem Emotionserkennungs-KI schon heute eingesetzt wird, ist die Marktforschung. Automatisierte Systeme treffen anhand der Stimme der Proband:innen Aussagen über die emotionale Wirkung von Werbung, die sie gesehen haben. Solche Software verkauft auch das Unternehmen, an dem Björn Schuller beteiligt ist. Es verspricht, mit seiner Anwendung bis zu 50 Emotionen unterscheiden zu können. Auch zur Auswertung von Callcenter-Telefonaten wird Technologie wie diese eingesetzt.  Fragt man beim deutschen Callcenter-Verband, wie verbreitet sie in der Branche tatsächlich schon ist, stößt man allerdings auf wenig Euphorie: Die Technik sei noch zu anfällig für Fehler, den Kostenfaktor Mensch könne sie nicht reduzieren.

Eine technische Herausforderung, vor der auch das Team um Dominik Seuß am Fraunhofer-Institut noch steht, ist die Unterscheidung von unterschiedlichen Emotionen mit sehr ähnlichen Gesichtsausdrücken. „Ekel nutzt sehr viele Actionunits, die auch Schmerz nutzt – der Unterschied ist aber die Dynamik oder Abfolge der Actionsunits“, erklärt Seuß. Die Idee von Actionunits im Gesicht sei schon seit 50 Jahren in der Psychologie etabliert. „Auch die Automatisierung gibt es schon ein paar Jahre, aber Menschen sind so verschiedenen, dass es immer noch ein schwieriges Forschungsthema ist.“

Umstrittene wissenschaftliche Basis

Es ist ein wunder Punkt der Emotionserkennung, den der Informatiker da anspricht: Menschen sind verschieden. Aber sind sie so verschieden, dass Gesichtsausdrücke gar keine Rückschlüsse auf Emotionen erlauben?

Die meisten visuellen Technologien, die Gefühle erkennen sollen, stützen sich auf die Theorie der Basisemotionen des Psychologen Paul Ekman. Sie beruht auf der Annahme, dass es weltweite universelle Ausdrucksformen für Emotionen gibt – unabhängig von der Kultur. Diese Theorie ist allerdings umstritten. Auch Daniel Leufer nennt dieses Argument, wenn er begründet, warum er wenig von Emotionserkennungs-Technologien hält.

Bei der Menschenrechtsorganisation Access Now ist Leufer Experte für ein Thema, das es in seiner Idealvorstellung gar nicht gäbe. „Alle Ansätze haben allgemein das Problem, dass die Korrelationen zwischen maschinenlesbaren Daten und den Schlussfolgerungen daraus sehr schwach sind.“

Dies bestätigt die Arbeit der Psychologin Lisa Feldmann Barret. 2019 veröffentlichte sie mit weiteren Autor:innen eine Analyse sämtlicher Studien, die sie bis dahin zum Zusammenhang der Gesichtsausdrücke und Emotionen gesammelt hatten. Barret kommt zu dem Ergebnis, dass die Zuverlässigkeit der meisten Studien nur gering ist: „Es ist nicht möglich, von einem Lächeln auf Glück, von einem finsteren Blick auf Wut oder von einem Stirnrunzeln auf Traurigkeit zu schließen, wie es ein großer Teil der heutigen Technologie versucht und sich dabei auf etwas stützt, das fälschlicherweise als wissenschaftlich erwiesen gilt.“

Systeme, die mehr auf Hautfarbe als auf Mimik achten

Wenn die KI aber Fehler macht, wirkt sich das schnell auf ohnehin benachteiligte Gruppen aus. Da wäre etwa das altbekannte Problem diskriminierender Algorithmen, die zum Beispiel Schwarze gegenüber weißen Menschen durch ihre Entscheidungen benachteiligen.

Eine Studie aus dem Jahr 2018 zeigte, dass es auch im speziellen Fall der Emotionserkennung auftritt. Zwei Gesichtserkennungssysteme sollten die Emotionen aus den Gesichtern von Basketballspielern erkennen. Eines der Systeme schätzte schwarze Basketballer wütender als die weißen Spieler ein. Das andere System erkannte grundsätzlich öfter einen verachtungsvollen Blick in den Gesichtern der schwarzen Spieler.

Diese rassistische Einordnung knüpft an Stereotype an, die es auch ganz ohne Algorithmen in der analogen Welt gibt. Weit verbreitet ist beispielsweise das Klischee der „Angry Black Woman“: Schwarze Frauen werden in der amerikanischen Mainstream-Kultur häufig als aggressiv, schlecht gelaunt oder überheblich charakterisiert. Solche Stereotype können das maschinelle Lernen der Algorithmen beeinflussen.

Niemand schaut in den Kopf, nichtmal die KI

Damit sie das nicht tun, müsse man genau verstehen, warum automatisierte Systeme diskriminierende Entscheidungen treffen, sagt Dominik Seuß. Softwareanbieter müssten zudem offenlegen machen, was ihre KI kann und was nicht. Denn obwohl die Werbeversprechen einiger Firmen anders klingen: „Ob der Mensch wirklich geistig dieselbe Emotion teilt, die sein Gesicht zeigt – das kann niemand wissen. Niemand kann in den Kopf hinein schauen.“

Einige Konzerne, wie zum Beispiel Microsoft, begegnen diesem Problem, indem sie nicht von „Emotionserkennung“, sondern von der „Erkennung wahrgenommener Emotionen“ sprechen, um zu betonen, dass ihre Anwendungen eben nicht in den Kopf hineinschauen.

Viele Anbieter versichern außerdem, dass sie datenschutzkonform arbeiten und keine personenbezogenen Daten verarbeiten. Auch das Fraunhofer-Institut wirbt mit einem Datenschutz-Siegel. Das System sei nicht in der Lage, Gesichter wiederzuerkennen, sagt Seuß. „Es kann nur erkennen, dass es sich um irgendein Gesicht handelt.“

Ähnlich argumentiert ein Unternehmen in Brasilien, gegen das Access Now geklagt hat. „Es behauptet, dass es nur anonymisierte Daten sammelt, aber das ist Quatsch“, sagt Daniel Leufer. Schließlich sammle das Unternehmen Bilder von Gesichtern, aus denen es biometrische Schablonen ziehe, die wiederum als Grundlage für Rückschlüsse auf Geschlecht, Alter und Emotion dienten. „Dieses Unternehmen speichert biometrisch sensible Daten, die genutzt werden könnten, um jemanden zu identifizieren.“

Lügendetektoren an Grenzkontrollen und auf Polizeiwachen

Doch es gibt einen Bereich, in dem der Einsatz automatisierter Emotionserkennung Leufer noch mehr Sorge bereitet. „Wenn ein System sagt, dass jemand nicht die Wahrheit erzählt, ist das hochproblematisch.“ Die Chinesische Regierung testet solche Lügendetektoren bereits heute auf Polizeiwachen an der uigurischen Minderheit, die von der Regierung brutal unterdrückt wird.

Aber auch in den USA und in Europa gab es Projekte, die solche Lügendetektoren für Grenzkontrollen ausprobierten. Ein Programm aus den USA wurde an der mexikanischen Grenze getestet, außerdem am Flughafen Bukarest in Kooperation mit der europäischen Grenzpolizei Frontex. Später startete die EU ihr eigenes Forschungsprogramm iBorderCtrl. Ein Bestandteil war die Befragung von Einreisenden in die EU. Automatisierte Entscheidungssysteme sollten mittels Gesichts- und Mimikerkennung Hinweise geben, ob die Person wahrheitsgemäß auf Fragen antwortete.

Das Projekt iBorderCtrl ist mittlerweile abgeschlossen, doch die Ergebnisse hält die EU noch immer unter Verschluss. Es heißt, dass keine Lügendetektoren für den Einsatz in der Praxis geplant seien. Frontex teilte netzpolitik.org auf Anfrage mit, dass der Test in Bukarest beendet sei und man auch für die Zukunft keinen Einsatz von KI zur Emotionserkennung plane. Momentan finanziert die EU ein neues Forschungsprojekt zur Grenzkontrolle. „Wenn ein Reisender, dem man misstraut, verhört wird, kann Technologie nützlich sein, um speziell geschulten Grenzbeamten zu helfen, die Aufrichtigkeit des Reisenden und seiner Aussagen schneller und genauer zu beurteilen“, heißt es auf der Website des Projekts.

„Sind Sie verliebt?“

Das Interesse der EU, neue Grenzkontrollsysteme zu entwickeln, ist offenbar auch bei einer russischen Firma angelangt, die vorgibt, anhand von Vibrationen des Kopfes Emotionen erkennen zu können. Aus einem Bericht von 2019 geht hervor, dass sie den Einsatz ihrer Lügendetektor-Technologie auch für die EU-Grenzen für vorstellbar hält. Basierend auf dieser Technologie gibt es auf der Website einen „Psychophysiologischen Liebesdetektor“, den man für 10 Dollar auf sein Android-Smartphone herunterladen kann. „Testen Sie Ihre Beziehung zu einer beliebigen Person: Sind Sie verliebt, gleichgültig, spüren Abneigung oder Hass?“, lautet die Beschreibung. Für 20 Euro will dieselbe Firma auch einen angeblichen Coronavirus-Test verkaufen. Auch dieser soll über die Vibrationen des Kopfes funktionieren.

Tatsächlich wurde die Kopf-Vibrations-Technologie bereits im größeren Stil eingesetzt: Bei Olympischen Spielen, einer Fußball-Weltmeisterschaft und einem G7-Gipfel, wie The Conversational berichtete.

Einfluss auf freie Gedanken

Bei solchen Anwendungsbereichen rückt in den Hintergrund, was die KI wirklich kann. Problematischer ist, was sie vorgibt zu können: „Wenn Menschen daran glauben, dass die Systeme ihre Gefühle erkennen können, dann wird die abschreckende Wirkung der Systeme auch einsetzen“, sagt Daniel Leufer.

Er sieht ein fundamentales Grundrecht verletzt, wenn Menschen Bestrafung für ihre eigenen Gedanken fürchten müssen: „Freedom of Thought“, nennt er es. „Wenn es Systeme gibt, die tatsächlich Schlussfolgerungen treffen, die reale Konsequenzen wie Strafverfolgung haben können, berührt das diese Gedankenfreiheit.“

Das gilt nicht nur für den Bereich der Sicherheitspolitik. Leufer nennt ein anderes, für ihn denkbares Anwendungsszenario: Emotionserkennung in der Schule zur Bewertung des Sozialverhaltens. „Wenn die KI einige Schüler:innen zum Beispiel aggressiver als andere bewertet und sie auf dieser Grundlage möglicherweise Strafen bekommen, könnte das dazu führen, dass sich die Schüler:innen anders verhalten.“

Spagat zwischen Manipulation und Innovation

Dass auch die Technologien, an denen Dominik Seuß und Björn Schuller in Deutschland forschen, Raum für Missbrauch oder Manipulation bieten, streiten die Wissenschaftler nicht ab. Schuller hat Bedenken beim Einsatz der Technologie im Bereich der Werbung. Sie könne missbraucht werden, um emotional schwache Momente zu erkennen und gezielt auszunutzen. Seiner Ansicht nach überwiegt jedoch der Nutzen in anderen Bereichen: „In der Interaktion zwischen Mensch und Technik, im spielerischen Bereich für Videospiele und Edutainment sowie eben vor allem im Gesundheitsbereich.“

Seuß sagt: Niemand sei in der Lage, 24 Stunden am Tag ein Schmerztagebuch zu führen. Wenn die Künstliche Intelligenz das abnehmen kann, sei das eine enorme Hilfe für die Betroffenen.

„Diese Systeme sollten vollständig verbannt werden“

Möglich, dass die beiden europäischen Datenschutzinstanzen EDPS und EDPB solche Anwendungsfälle bedacht haben, als sie gemeinsame Kritik an den KI-Regulierungsplänen der EU-Kommission äußerten. Der bisherige Entwurf der Kommission ordnet Emotionserkennungssysteme in die Kategorie von Anwendungen mit Manipulationsrisiken ein. Demnach gelten für diese Systeme Transparenzpflichten. „Werden Emotionen oder Merkmale durch automatisierte Mittel erkannt, müssen die Menschen hierüber informiert werden“, heißt es im Gesetzentwurf.

EDPS und EDPB fordern in ihrer Stellungnahme, dass die Kommission noch weiter gehen und verschiedene KI-Anwendungen verbieten soll, die mit menschlichen Merkmalen arbeiten. Dabei nennen sie explizit auch Anwendungen zur Emotionserkennung. Ausnahmen seien im medizinischen Bereich jedoch vorstellbar.

Auch Daniel Leufer von Access Now hält die Pläne der Kommission für unzureichend. „Der aktuelle Vorschlag tut nichts, um Menschen vor den ernsthaften Gefahren der Emotionserkennungstechnologien zu schützen.“ Die Transparenzpflicht findet er aus Menschenrechtsperspektive sinnlos. „Diese Systeme sollten vollständig verbannt werden. Und wenn es Argumente für Ausnahmen gibt, dann müssen die in die Hochrisiko-Gruppe fallen und strengsten Regelungen unterliegen.“

Die Entwicklung der Technologien zur Emotionserkennung pauschal zu verbieten, ist für Wissenschaftler wie Seuß keine Option. „Wenn wir uns einfach davor versperren, wird die Technologie woanders weiter und weiter entwickelt. Wir müssen verstehen, wie solche Sachen funktionieren.“ Doch in einem Punkt stimmt er den Kritiker:innen der Emotionserkennung zu: „Es muss Regeln geben.“ Dafür, wie wir als Gesellschaft damit umgehen, wenn automatisierte Systeme melden, dass Actionunit 12 nicht mehr aktiviert ist.

4 Ergänzungen

  1. A) „Es heißt, dass keine Lügendetektoren für den Einsatz in der Praxis geplant seien.“
    B) „Wenn ein Reisender, dem man misstraut, verhört wird, kann Technologie nützlich sein, um speziell geschulten Grenzbeamten zu helfen, die Aufrichtigkeit des Reisenden und seiner Aussagen schneller und genauer zu beurteilen“

    Ich bin ja auch kein Freund mittelalterlicher Marktplatzschreierei, aber hier sollte allen klar sein, dass Statements dieser Behörden bestenfalls noch als Drohungen wahrgenommen werden können.

  2. Das wird natuerlich ein weiteres strukturelles Mittel zu Machtausuebung und Diskriminierung in Haenden der Privilegierten, die durch eigene Macht und Einfluss selber nicht davon betroffen sein werden.

    Letztlich unwissenschaftlicher Wahnsinn. Und die Rechtferitgung, man muesse das ja verstehen, auch wenn man es nicht nutzen wolle, die uebliche Entschuldigung von Herstellern aus guten Gruenden verbotener Dinge.

  3. Vielen Dank für diesen Artikel. Es handelt sich hierbei um eine echt wichtige Thematik – ich habe mich vor zwei Jahren eingehend damit befasst (im Zuge einer Anwendung, die ich entwickeln sollte), je tiefer ich eingestiegen bin, desto grusliger wurde es. Hatte vor einigen Monaten selber einen ausführlichen Artikel dazu verfasst („The scary core of A.I emotion recognition“).
 Ich hoffe sehr, dass dieses Thema mehr Aufmerksamkeit erhält, weil es (ganz zu Schweigen von den fragwürdigen Anwendungsfällen) an Wahnwitz grenzt, Software an kritischen Stellen einsetzen zu wollen, die auf Annahmen aufbaut, die schlichtweg falsch sind…Garbage in, Garbage out.



    Hier der Link zum Artikel:

    https://medium.com/swlh/the-scary-core-of-a-i-emotion-recognition-3389a97b64b2

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.